Si vous suivez un tant soit peu les tendances du secteur, votre flux d’informations a sans doute été envahi d’histoires exaltantes et de prédictions audacieuses concernant l’Intelligence Artificielle (IA), l’Apprentissage Machine (AM) et les réseaux neuronaux. Avec des titres sensationnels comme « Comment l’Intelligence Artificielle gèrera seule les centres de données ? » ou « 2018 verra-t-elle les machines prendre le pouvoir ? ». Nul doute qu’en cliquant sur la nouvelle suivante, la plupart des gens lèvent les yeux au ciel. Toute nouvelle tendance entraîne évidemment son lot de battage, de confusion et d’affirmations trompeuses. Et les entreprises cherchent parfois à s’emparer des choses et à les revendiquer, avant qu’elles soient tout à fait prêtes. Mais tous les discours ne sont pas creux pour autant. Je crois en la capacité de l’IA à améliorer les data centers. Ici, au Data Center Science Center, nous estimons que l’essentiel de l’influence de l’IA portera sur la fiabilité, pas tant sur l’efficience. Nous pensons aussi qu’il faudra un peu plus de temps qu’on peut le penser pour que la valeur de l’IA se fasse réellement sentir; certaines difficultés majeures restent à surmonter avant que la tendance prenne vraiment toute son ampleur.
Qu’est-ce que l’IA?
L’Intelligence Artificielle (IA) et l’Apprentissage Machine (AM) sont deux termes souvent employés indifféremment ou comme synonymes. L’IA désigne généralement le fait qu’une machine ou un système, puisse faire preuve d’« intelligence » en exécutant des tâches ou des opérations, grâce à la programmation et la saisie de données à propos de lui même ou de son environnement. L’AM, en revanche, est une approche, une méthode pour rendre une machine ou un système plus intelligent… pour les rendre plus autonomes et adaptables à des conditions changeantes. L’AM est fondamentalement l’aptitude d’une machine ou d’un système à apprendre et à améliorer son fonctionnement ou ses fonctions automatiquement, sans intervention humaine. On pourrait dire que l’AM est aujourd’hui la plus pointue des façons d’imprégner une machine d’IA.
Pour mettre en œuvre l’AM, le Deep Learning (DL, littéralement apprentissage profond) est une méthode à laquelle on attribue une part importante des progrès actuels de l’IA. Le Deep Learning est une forme d’AM beaucoup plus intensive en calcul. Le Deep Learning, également appelé apprentissage structuré approfondi ou apprentissage hiérarchique, suppose l’analyse algorithmique d’un grand nombre de points de données à plusieurs niveaux, où la sortie d’un niveau est livrée au suivant de manière successive. Cette structure « à plusieurs couches » est souvent désignée sous la notion de « réseau neuronal » artificiel, à cause de sa similarité avec les réseaux de neurones du cerveau humain. Cette approche réduit les erreurs et accélère le processus d’apprentissage.
L’intelligence artificielle couvre un très large éventail de possibilités. Les commandes de systèmes mécaniques employant des PLC et des serveurs automatiques, qui existent depuis des années, sont par exemple une forme d’intelligence artificielle. Mais ce n’est généralement pas de cela, dont on parle quand on utilise ce terme aujourd’hui. Il s’agit plutôt de l’utilisation d’algorithmes d’apprentissage machine et d’apprentissage profond, de réseaux neuronaux pour gérer des automatisations de plus en plus autonomes, fiables, efficientes et adaptatives aux opérations, malgré un environnement évolutif en temps réel.
L’assistance technique accélérée renforce les fondements de l’IA
Ces méthodes de développement de l’IA (apprentissage machine ou profond, réseaux neuronaux, … ) existent depuis des années, mais leur progression a été freinée par les limitations technologiques. Ces dernières années, l’IoT (Internet des Objects), les mégadonnées et la disponibilité des unités de traitement graphique (GPU) en ont considérablement accéléré le développement et la mise en application. À un stade plus avancé, l’Intelligence Artificielle repose en partie sur des volumes massifs de données connexes/corrélées, à partir desquelles sont développés des algorithmes grâce auxquels les machines apprendront et prendront des décisions. Les volumes de données relatives aux appareils et à l’environnement a explosé grâce à la baisse du coût des capteurs, de la connectivité réseau, du stockage et de la bande passante. Les progrès accomplis dans l’analyse des mégadonnées permet aujourd’hui de manipuler et d’extraire la valeur de ces données précieuses plus rapidement et avec moins de moyens qu’autrefois. En outre, le traitement en temps réel de ces données avec un faible taux d’erreur exige une certaine puissance de traitement parallèle, que permettent les GPU d’aujourd’hui. Ces tendances sont les fondations technologiques pour appliquer l’IA aux data centers.
Les méthodes actuelles d’intelligence artificielle, basées sur l’apprentissage machine sont très puissantes dans deux domaines essentiels :
- La reconnaissance de modèles au sein de fichiers de données très vastes et bien étiquetés – la reconnaissance d’images et le traitement automatique du langage naturel, par exemple,
- L’automatisation des processus et des services, pour lesquels la prise de décision réclame des données, par exemple dans le service, la maintenance ou le remplacement de matériel.
Mais pour que l’IA basée sur l’apprentissage machine se développe dans le secteur et soit adoptée par les fournisseurs de colocation, il va falloir résoudre certaines difficultés essentielles liées aux données. J’expliquerai lesquelles dans mon prochain blog.
L’IA va améliorer le rendement des fournisseurs de colocation
Je suis toutefois persuadé que le secteur va trouver la solution à ces problèmes, il s’y emploie d’ailleurs déjà de bien des façons. Les data centers en colocation s’efforcent évidemment de faire preuve d’efficience avec les ressources et de rapidité dans la mise en service des capacités; sans nuire en aucune manière à l’accessibilité de leurs locataires. L’analyse des données et, de plus en plus, l’IA, sont les outils par lesquels les fournisseurs vont progressivement améliorer leurs performances dans ces domaines. Lisez cet autre blog (en Anglais) sur la précocité avec laquelle Schneider a compris et prédit ce que serait l’IA.
Auteur : Patrick Donovan
Article original : Lire en Anglais
Ajouter un commentaire