Mon dernier article de blog traitait du battage dans le milieu au sujet de l’intelligence artificielle (IA) et de l’apprentissage machine (AM). J’y évoquais ce dont sont capables les techniques d’IA actuelles au niveau fondamental; et j’y définissais aussi ces termes souvent mal compris dans le contexte des data centers. Dans l’article d’aujourd’hui, je voudrais élargir le débat en décrivant 3 grandes difficultés que le secteur va devoir résoudre pour que les outils de l’IA soient généralement adoptés et qu’ils donnent toute leur valeur aux fournisseurs de colocation.
3 choses que le marché des data centers va devoir résoudre pour une adoption généralisée de l’IA.
1. La première difficulté consiste à équiper le data center.
Ici, le principe GIGO (« garbage in, garbage out ») s’applique plus que jamais. Malgré leur côté « boîte noire », les algorithmes d’apprentissage machine et les réseaux neuronaux profonds n’ont rien de magique. Comme tout moteur d’analyse, il leur faut d’importants volumes de données sur lesquels agir. Les centres dotés de suites DCIM bien installées sont sans doute bien lotis. Mais la difficulté de l’équipement d’un data center se doit aussi aux vendeurs du matériel. Ces derniers récoltent-ils et transmettent-ils bien les informations nécessaires au fonctionnement des algorithmes ? Schneider Electric a équipé et digitalisé depuis longtemps ses onduleurs, ses unités de refroidissement, ses PDU, ses dispositifs de commutation etc. Nous avons devancé tous nos concurrents. Mais à mesure que nous développons les cas d’utilisation de l’IA et les algorithmes qui les soutiennent, nous allons peut-être constater qu’il nous faut de nouveaux capteurs dans de nouveaux emplacements. Peut-être verrons-nous par exemple que le placement d’un nouveau capteur de vibrations, nous offre une visibilité du cycle de vie de ce système plus proactive que celle dont on dispose aujourd’hui. C’est le genre de choses appelées à évoluer dans le temps.
2. La deuxième difficulté, c’est que ces données résident depuis toujours dans des systèmes disparates.
Les données sur l’installation résident dans des BMS, celles sur la qualité du courant dans le système de surveillance de l’alimentation électrique (EPMS), celles sur l’infrastructure d’espace blanc dans les outils DCIM et les logiciels et ressources visuelles informatiques dans les outils de gestion des opérations informatiques. Pour que le système comprenne toutes les variables critiques ainsi que leurs liens et leur influence mutuelle, il faut que ces données soient consolidées et converties au modèle de l’IA. La consolidation de données aussi disparates est une difficulté qui n’est pas totalement résolue. Toutefois, la nouvelle architecture et plateforme système de Schneider Electric EcoStruxure™, permet de grands progrès en ce sens. Sans consolidation, les applications d’IA sont limitées à des fonctions infiniment plus étroites, comme l’optimisation des appareils de traitement de l’air ou l’alerte précoce pour les pannes de ventilateur d’unité de refroidissement. Ce sont là des fonctions utiles, bien sûr, mais pas transcendantes.
3. La troisième difficulté relative aux données tient à ce qu’on appelle l’intégrité.
Il faut que toutes ces données soient mises en corrélation et il faut du contexte ; le modèle doit précisément savoir d’où viennent les données. Pour un jeu de données d’un actif particulier, le modèle peut avoir besoin de connaître des éléments tels que le site, la salle, la rangée, le rack, l’U-space, le chemin de puissance, le port réseau et les exigences règlementaires. Les périodes doivent être synchronisées d’une façon ou d’une autre. Les outils DCIM exigent que tout cela soit balisé et défini, mais il faut beaucoup de moyens et d’efforts pour la mise en place initiale puis l’entretien au gré des changements survenant dans le temps. C’est essentiellement à nous, vendeurs, de chercher à simplifier tout cela et à en dissimuler la complexité.
Quelles nouveautés de l’IA dans les data centers méritent l’attention des fournisseurs de colocation ?
L’idée ici est que ces difficultés existent et qu’il faudra malgré tout les démêler pour que l’utilisation de l’IA se généralise dans les centres de données et que les fournisseurs de colocation puissent en appliquer au mieux les avantages. Pour les fournisseurs de colocation, il faut déjà commencer par disposer d’un système DCIM correctement mis en œuvre et bien entretenu. Ce système fournira alors les mesures nécessaires et les données contextuelles offrant toute leur efficacité aux outils d’IA. Guettez la parution de mon prochain blog où je vous dirai ce que m’inspire le fait que l’IA sera bientôt spécifiquement appliquée aux centres de colocation – et pourquoi la fiabilité de l’IA aura plus d’incidence sur la croissance de leur activité.
Auteur : Patrick Donovan
Article original : Lire en Anglais
Ajouter un commentaire