Les 2 transformations définitives qu’entraînera l’Intelligence Artificielle dans votre data center

Enfant, j’ai toujours été fasciné par les modèles, et notamment par leurs effets sur les gens.  Que ce soit le martèlement répétitif d’une percussion nous invitant à la danse ou notre aptitude précoce à reconnaître les principaux traits du chat ou du chien, les modèles sont clairement essentiels pour l’être humain; aussi bien à des fins de sociabilité que de navigation dans un monde complexe. Avec sa capacité à reconnaître des modèles très complexes dans des données structurées ou semi-structurées, l’Intelligence Artificielle (IA) est en position de transformer les data centers. J’ai évoqué plusieurs éventualités et l’effet potentiel général de l’IA sur les data centers lors d’un atelier au récent Innovation Day, organisé par Schneider Electric pour les fournisseurs de services Cloud.

L’Intelligence Artificielle, hier et aujourd’hui

L’IA existe depuis un certain temps, mais ses applications étaient jusqu’ici plutôt théoriques. À moins d’utiliser un super ordinateur, les processeurs étaient trop lents pour donner des résultats significatifs. Les premières applications étaient donc le plus souvent réservées aux utilisateurs dotés de budgets hors du commun. L’armée a adopté très tôt la technologie de reconnaissance des imagespour repérer les véhicules camouflés, parmi les masses colossales d’images aériennes et satellites qui ont commencé à parvenir dans les années 1980. Le processeur graphique GPU a tout changé. Tout à coup, tout le monde a pu exploiter des modèles complexes d’apprentissage machine sur des composants de PC grand public.

L’IA nous permet de résoudre des problèmes ou au moins nous donne des réponses approximatives à des problèmes qui ne pouvaient pas être résolus simplement, par la modélisation ou les méthodes techniques traditionnelles. Chez Equinix, nous appliquons déjà l’IA à tous nos data centers.

1. Des modèles axés sur les données pour optimiser le data center

Optimiser un data center n’est pas facile. Les charges informatiques et les conditions du milieu extérieur varient considérablement, parfois de façon imprévisible ; or, en tant qu’utilisateur ou qu’ingénieur, on consacre évidemment beaucoup d’efforts à la modélisation, l’optimisation et l’amélioration des conceptions.

Si l’on souhaite vraiment améliorer l’efficience d’un data center opérationnel, les options sont limitées. On peut élaborer un modèle physique détaillé et conduire des simulations hypothétiques ; mais avec tant de variables et les limites de profondeur habituelles du modèle, il est difficile d’en tirer de réels enseignements. Et puis ce que l’on élabore pour une installation ne s’avèrera pas forcément très utile pour comprendre le rendement d’une autre.

En revanche, l’approche par l’IA (qui dans ce contexte est en fait une approche par les données) prend les données et forme un réseau de façon à ce qu’il puisse modéliser l’indice d’efficacité énergétique (PUE) de votre installation. Les variables entrantes de votre modèle sont les nombreux points de données que vous récoltez via votre infrastructure et de votre « fonction test ».  Ce qui vous sert à déterminer si le réseau modélise avec justesse le rendement de votre installation dans le monde réel; c’est l’écart entre le PUE prédit et le PUE mesuré. Une fois pourvu d’un modèle capable de prédire justement votre PUE, vous pouvez manipuler les variables entrantes pour simuler des scénarios hypothétiques. Par exemple : que se passe-t-il si l’on allume (ou l’on éteint) telle ou telle pompe ? Quelle incidence aurait l’augmentation du volume ou de la température de l’eau de refroidissement ? Qu’advient-il si l’on élève la température d’une unité CRAC (Computer Room Air Conditioners) ? Les ingénieurs spécialistes prennent alors leurs décisions en fonction du modèle de données.

Ensuite, une fois établie la fiabilité des données et des modèles, l’étape suivante consiste à extraire l’humain de l’équation et à laisser l’IA procéder à l’optimisation dynamique du data center en temps réel. L’intégration de l’IA pour pleinement automatiser un data center améliorera d’autant plus l’efficience, lorsque l’on passe à un data center de type à « fly-by-wire » (« pilotage électronique »).

2. L’apprentissage fondé sur les modèles pour une surveillance efficace de l’équipement

L’IA peut aussi contribuer à améliorer la surveillance de l’équipement. De nombreux ingénieurs data centers chevronnés vous raconteront qu’ils ont remarqué un jour qu’un appareil était défectueux (ou qu’il n’allait pas tarder à le devenir) au son ou à l’odeur particuliers, qu’il émettait.

Nous sommes en train de tester dans quelle mesure nous pourrions utiliser cette faculté humaine:

  • Pour prélever des données dans notre infrastructure, en ajoutant au besoin des capteurs additionnels
  • Rechercher des modèles qui pourraient au final signifier « cet appareil fait un drôle de bruit » – bien avant que cela ne soit décelable par des personnes

Le secteur de l’aéronautique est un modèle formidable des grands gains d’efficacité opérationnelle, réalisables en remplaçant  un régime de services prévus par un programme plus souple, axé sur les données. Equinix est ravi d’étendre ses capacités dans ce domaine, avec nos principaux partenaires, comme Schneider Electric.

Bientôt dans un data center près de chez vous: L’IA, c’est dur.

Le déficit de compétences est considérable, mais il est en constante diminution. Beaucoup d’entreprises sont limitées par des questions relatives aux données (disponibilité et qualité). Or, tout repose sur les données; que vous comptiez utiliser l’IA dès à présent ou plus tard. Si vous n’avez pas les données ou, pire encore, si ce ne sont pas bonnes; vous aurez du mal à construire des modèles IA qui soient justes.

L’IA est vouée à se généraliser, à adresser de plus en plus de problèmes catégorisés « insolubles ». D’ici cinq ans, on ne trouvera plus beaucoup de matériel de data center, sans une forme de IA intégrée.

À propos de l’auteur

David Hall EquinixDavid Hall, Directeur Principal de l’Innovation Technologique chez Equinix
David a une longue carrière dans le secteur des data centers, exerçant des fonctions commerciales, techniques et en lien avec l’innovation.

Au Telecity Group, il a dirigé les équipes chargées du développement des capacités et des services hyperscale, du réseau périphérique Edge aux installations informatiques centrales. On lui doit également la création du premier réseau privé, raccordant les réseaux et les entreprises au Cloud public.

Aujourd’hui, David travaille au design de la prochaine génération des data centers Equinix. S’inspirant de certaines des technologies et des méthodes inaugurées par l’hyperscale, il cherche notamment à mettre ces solutions à la portée de fournisseurs de services et d’entreprises de plus petite taille, tout en développant de nouvelles solutions pour les défis du Edge.

David habite Londres avec son bobtail, nommé Oppenheimer.

Tags : , , ,

Ajouter un commentaire

Tous les champs sont requis.

Ce site utilise Akismet pour réduire le spam. Découvrez comment les données de vos commentaires sont traitées.