Lors de l’évènement Innovation Summit organisé à Barcelone par Schneider Electric, les participants ont eu l’occasion d’entendre deux géants de l’industrie des data centers – Google et le fournisseur de services de colocation Equinix – pour découvrir les défis auxquels ils sont confrontés dans le domaine de la digitalisation de leurs data centers. Ce qui m’a frappé au sujet de cette conférence, c’est à quel point leurs contraintes sont similaires à presque tous les fournisseurs de services de colocation ou d’entreprises exploitant des data centers, et ce, quelle que soit leur taille.
J’ai retenu trois grandes leçons de cette session. La première est la façon dont ces entreprises s’appuient sur les algorithmes d’apprentissage automatique et les données (ML : Machine Learning) pour améliorer le fonctionnement de leurs data centers, et notamment grâce à la maintenance prédictive. La deuxième, repose sur l’importance de la standardisation des data centers et le fait qu’elle est en réalité une condition préalable à l’innovation. Et enfin, la troisième leçon, concerne la manière dont ces deux entreprises font face à la pénurie de personnel expérimenté dans la conception de systèmes de contrôle et dans l’exploitation des data centers les plus stratégiques.
Des données efficaces et la maintenance prédictive
À mesure que les data centers continuent de se développer considérablement en termes de taille et de complexité, de plus en plus d’entreprises doivent recourir à la gestion numérique pour optimiser les performances de leurs systèmes. Joe Kava, Vice-président Mondial des Data Centers de Google, a expliqué de quelle manière son entreprise avait déjà presque tout instrumenté dans ses data centers, et comment elle collectait depuis des années de grandes quantités de données. Malheureusement, la plupart de ces informations restait inutilisée, jusqu’à ce qu’un ingénieur ait eu l’idée de développer un modèle de Machine Learning puis d’adapter celui-ci aux données collectées, avec deux objectifs principaux : améliorer l’efficacité énergétique et prévoir les défaillances des équipements.
Quelques années plus tard, près de 100 % des installations de Google utilisent le Machine Learning pour optimiser leur système de refroidissement, et cela, de manière entièrement autonome. (Cela m’a rappelé un article de blog que mon collègue John Niemann a écrit il y a deux ans et qui décrivait des possibilités similaires).
De toute évidence, peu d’entreprises disposent des ressources dont bénéficie Google et ont la faculté de développer par leurs propres moyens un dispositif de Machine Learning permettant à un data centers de fonctionner de manière quasi autonome. Mais la technologie a progressé au point qu’il n’est plus nécessaire de le développer soit même, parce qu’aujourd’hui, des outils existent pour aider les entreprises à faire sensiblement la même chose.
L’essentiel est que les outils en question soient « ouverts », ce qui signifie qu’ils peuvent fonctionner avec l’infrastructure de n’importe quel fournisseur. La plate-forme Schneider Electric EcoStruxure for Cloud & Service Providers est l’un de ces outils. Il permet de fournir le même type d’analyse des données que celui développé par Google, et donne ainsi accès aux entreprises de toutes tailles, à des fonctions d’analyse avancée permettant d’améliorer l’efficacité et les capacités de leur data center, comme l’analyse prédictive.
La standardisation favorise l’innovation
Ces deux entreprises sont également de grands partisans de la standardisation en raison de la flexibilité qu’elle leur procure pour accroître rapidement leurs capacités. Pour Equinix, qui exploite quelque 200 data centers sur cinq continents, la standardisation est essentielle, déclare Diraj Bamola, SVP de la Conception et de la Construction pour l’entreprise.
Equinix a volontairement souhaité mettre en place un cadre de conception et de construction structuré pour ses systèmes de contrôle et ses unités de distribution d’énergie, avec Schneider Electric comme partenaire, a déclaré M. Bamola.
Schneider Electric, bien sûr, est depuis longtemps un partisan de la standardisation. L’entreprise est au cœur des infrastructures modulaires préfabriquées de data centers qu’elle promeut depuis un certain temps comme moyen de construire plus rapidement des data centers, tout en maintenant une fiabilité et des performances de premier ordre.
Mais la standardisation est également essentielle parce qu’elle stimule l’innovation en agissant comme une référence que l’on peut améliorer en continu, a souligné M. Bamola. Des entreprises comme Google et Equinix n’ont pas d’autre choix que d’innover pour suivre une croissance rapide. La bonne nouvelle, c’est que les innovations qu’ils mettent au point, souvent avec notre aide, finissent par profiter au reste du marché.
Le projet Open Compute Project (OCP) en est un bon exemple. Tout a commencé avec les innovations que Facebook a développées en essayant de construire un data center à faible coût doté de nouveaux niveaux d’efficacité énergétique et de performance. Aujourd’hui, OCP propose ces modèles de serveurs, de baies, d’équipements réseau et autres accessibles au plus grand nombre.
La standardisation est également indispensable lorsqu’il s’agit de former le personnel d’exploitation des data centers, a souligné Joe Kava. Si chaque entreprise avait des modèles de conception et des processus d’exploitation différents, « ce serait un désastre » pour tenter de former les équipes à un niveau suffisant, a-t-il déclaré.
L’expertise du data center à un niveau supérieur
Ce qui m’amène au dernier point : le manque d’expertise en matière de data centers.
Lorsqu’on lui a demandé où il identifiait certaines des plus importantes lacunes en matière de data centers, M. Bamola a indiqué vers le fond de la salle où se tenait un ingénieur de Schneider Electric, Julien Moreau. « Julien est un leader dans l’industrie et connaît parfaitement l’ingénierie et la distribution », a-t-il déclaré. « C’est un point particulièrement sensible. Nous avons probablement tous des projets de construction de grande envergure qui dépendent entièrement d’un nombre limité de ces précieuses ressources ».
Ce problème est lié à la croissance rapide de l’industrie des data centers. Alors qu’il y a encore 10 ans, les data centers pouvaient avoir une taille de 5 MW, puis 20 MW il y a seulement 5 ans, nous voyons désormais des data centers de 100 MW et plus. Ces installations sont en fait l’équivalent d’usines de l’industrie lourde, et les contrôles nécessaires pour gérer les infrastructures mécaniques, électriques, de refroidissement et autres sont extrêmement complexes.
Il faut des contrôles de niveau industriel, et c’est ce que des ingénieurs comme Julien permettent d’effectuer. Mais M. Bamola a raison de dire que les ingénieurs ayant son niveau d’expertise sont rares. Même Google a du mal à trouver du personnel qualifié pour ses data centers, a déclaré M. Kava.
La pénurie de talents dans le domaine des data centers rend d’autant plus nécessaires l’utilisation d’outils comme EcoStruxure for Cloud & Service Providers par les entreprises. Ses moteurs d’analyse basés sur le Cloud peuvent aider les personnels des data centers à être plus productifs en les aidant à résoudre les problèmes et à éviter en premier lieu les défaillances, grâce à des applications de maintenance prédictive. EcoStruxure for Cloud & Service Providers met à la disposition de toutes les entreprises, l’expertise que Google et Equinix possèdent dans le domaine de l’exploitation des data centers.
Regardez la conférence de Google et Equinix à l’Innovation Summit
Ce sont les trois points que j’ai retenus de la conférence des experts de Google et Equinix, mais n’hésitez pas à suivre la discussion complète, menée par Mark Bidinger Président du Segment Cloud & Service Providers chez Schneider Electric. Vous pourrez sans doute tirer quelques enseignements supplémentaires de ces géants des data centers, qui pourront vous être utiles dans votre propre entreprise.
Ajouter un commentaire