Data Center

IA e Machine Learning: Principais Desafios no Mercado de Colocation Data Center

No meu último blog, eu falei sobre alguns dos ápices na indústria sobre inteligência artificial (IA) e machine learning (ML). O blog entra no que as atuais técnicas de IA são capazes em um nível fundamental hoje, e eu também ofereci uma definição para esses termos frequentemente mal entendidos no contexto dos data centers. Neste post, gostaria de desenvolver a discussão descrevendo três principais desafios que o setor precisa se atentar e resolver se as ferramentas de inteligência artificial precisarem ser amplamente adotadas para alcançar o valor total para os provedores de colocation.

3 desafios que o mercado de data centers precisa superar para a ampla adoção de IA

Conceptual background- Artificial intelligence / humans and cyber-business (detailed with millions of small binary code)O primeiro desafio é instrumentar o data center. O velho ditado “não faça a mesma coisa e espere resultados diferentes” se aplica aqui mais do que nunca. Apesar de sua natureza de “caixa preta”, os algoritmos de aprendizado de máquina e redes neurais profundas não são mágicos. Como qualquer mecanismo de análise, eles precisam de grandes volumes de dados bons para agir. Aqueles com suítes DCIM bem implementadas provavelmente estão em boa forma. Mas parte desse desafio de instrumentar o data center também recai sobre os fornecedores dos equipamentos. Seu hardware coleta e relata as informações necessárias para fazer os algoritmos funcionarem? A Schneider Electric há muito tempo digitaliza e instrumenta seus nobreaks, unidades de resfriamento, PDUs, painéis de distribuição, etc. – na frente de outros na indústria. Porém, à medida que desenvolvemos casos de uso de IA e os algoritmos para apoiá-los, podemos perceber que precisamos de novos sensores em novos lugares que ainda não temos hoje. Por exemplo, talvez tenhamos um sensor de vibração em um local diferente, o que pode nos dar uma visibilidade um pouco mais proativa do ciclo de vida desse sistema que não temos hoje. Coisas como esta evoluirão com o tempo.

O segundo desafio é que tradicionalmente esses dados estão vivendo em sistemas diferentes. Os dados da instalação residem no BMS, informações de qualidade de energia no sistema de monitoramento de energia elétrica (EPMS), informações sobre a infraestrutura de espaço em branco em ferramentas DCIM e recursos virtuais / software de TI em ferramentas de gerenciamento de operações de TI. Para o sistema entender todas as variáveis ​​críticas e como elas estão conectadas e impactam umas às outras, esses dados devem ser consolidados e colocados no modelo de IA. Consolidar todos esses dados distintos ainda não é um desafio totalmente resolvido. A nova Arquitetura e Plataforma do Sistema Schneider Electric EcoStruxure ™, no entanto, ajuda muito a resolver esse desafio. Sem consolidação, os aplicativos de AI são limitados a funções muito mais restritas, como otimização do manipulador de ar ou aviso antecipado sobre falhas do ventilador da unidade de resfriamento. Estas são funções úteis, é claro, mas não atigem seu potencial.

O terceiro desafio de dados é o que nos chamamos de integridade de dados. Todos esses dados precisam ser correlacionados entre si e precisa haver contexto; o modelo precisa saber de onde os dados vêm exatamente. Para um determinado conjunto de dados de um ativo específico, o modelo pode precisar saber coisas como: site, espaço, linha, rack, espaço, caminho de energia, porta de rede e requisitos de política. Os períodos de tempo precisam ser sincronizados de alguma forma. As ferramentas de DCIM exigem que tudo isso seja mapeado e definido, mas é preciso muito esforço e recursos para configurá-lo inicialmente e mantê-lo conforme as coisas mudam com o tempo. Em grande parte, cabe a nós, fornecedores, tentar simplificar tudo isso e ocultar a complexidade.

Quais são as novidades da AI no mercado de data center que os provedores de colocation precisam considerar

O ponto aqui é que esses desafios existem e ainda precisam ser descobertos antes que o uso da IA ​​nos data centers se torne prática comum e os provedores de colocação possam aplicar melhor os benefícios. Ter um sistema DCIM bem implementado e bem mantido é um passo chave para os provedores de colocação. Esse sistema fornecerá os dados necessários de medição e contextuais que farão com que as ferramentas de AI sejam efetivas. Fique atento ao meu próximo blog, no qual compartilharei a forma como acreditamos que a IA será aplicada especificamente em data centers de colocação no curto prazo, bem como por que a confiabilidade da AI terá um impacto maior no crescimento de seus negócios.

Em um mundo mais elétrico, saiba como acelerar a Transformação Digital na sua empresa.


No Responses

Leave a Reply

  • (will not be published)