Google utilise l’intelligence artificielle pour concevoir des puces plus efficaces et moins gourmandes en énergie
qui accéléreront le développement de l’IA, selon l'entreprise
La loi de Moore est soumise à de solides réflexions depuis quelques années pour savoir ce qu’il adviendrait de l’industrie des semiconducteurs si elle venait à prendre fin. Sa fin pourrait ralentir la production de nouvelles puces, ce qui pourrait nuire à l’avancée de technologies comme l’IA. Dans ses recherches sur ce point, Google a présenté récemment un algorithme d’apprentissage par renforcement qu’il a développé dans l’objectif d’optimiser le placement des composants sur une puce. Ceci permettra de la rendre plus efficace et moins gourmande en énergie.
Les puces dédiées à l’intelligence artificielle requièrent beaucoup de financements et mettent assez de temps à être mises en place. Par contre, les algorithmes d’apprentissage automatique évoluent beaucoup plus vite contrairement à la mise en place des puces qui durent généralement entre deux et cinq ans. Il s’agit là d’un décalage temporel très important que les entreprises et les chercheurs cherchent à résoudre depuis longtemps. De plus, le placement des composants sur une puce, encore appelé “chip floor planning”, est un problème de conception tridimensionnelle complexe.
Les concepteurs doivent parfois réussir à faire tenir des milliers de composants dans une zone très restreinte. C’est un travail manuel, ce qui complique davantage les choses. Selon les chercheurs, tout ceci a un effet de ralentissement sur les innovations dans l’IA et ses dérivés. Pour corriger cela, Google a eu l’idée de faire concevoir les puces destinées à l’IA par l’IA elle-même. En d’autres termes, le géant de la recherche sur Internet veut orienter le développement de puces destinées à l’IA vers une conception intelligente en utilisant l’apprentissage par renforcement.
« Nous pensons que c'est l'IA elle-même qui fournira les moyens permettant de réduire le cycle de conception des puces, en créant une relation de symbiose entre le matériel et l'IA, chacun alimentant les avancées de l'autre », ont écrit les chercheurs de Google dans un article décrivant le travail qui a été posté sur Arxiv. En effet, les algorithmes d'apprentissage par renforcement ont recours à des réactions positives et négatives pour apprendre des tâches complexes. Les chercheurs ont donc conçu ce que l'on appelle une “fonction de récompense” pour punir et récompenser l'algorithme en fonction de la performance de ses conceptions.
Ensuite, l'algorithme leur a permis de produire des dizaines, voire des centaines de milliers de nouveaux modèles de placement, chacun en une fraction de seconde. Enfin, la fonction de récompense a servi à les évaluer. Au fil du temps, il a convergé vers une stratégie finale pour placer les composants de la puce de manière optimale. Selon Google, plusieurs algorithmes d’optimisation et de planification des puces ont cherché à accélérer le processus de conception, mais ils ont été limités dans leur capacité d’optimisation pour de multiples objectifs.
Il y a notamment la consommation d’énergie, les performances de calcul et la surface de la puce. « Nous avons déjà vu qu'il existe des algorithmes ou des architectures de réseaux de neurones qui ne fonctionnent pas aussi bien sur les générations d'accélérateurs existantes, parce que les accélérateurs ont été conçus il y a deux ans, et qu'à l'époque ces réseaux de neurones n'existaient pas », a expliqué Azalia Mirhoseini, chercheur principal chez Google. « Si nous réduisons le cycle de conception, nous pouvons combler l'écart ».
Ainsi, l’algorithme de Google entend éliminer ces problèmes. L'équipe espère que des systèmes d'IA comme les leurs permettront de concevoir « plus de puces dans le même laps de temps, et aussi des puces qui fonctionnent plus vite, consomment moins d'énergie, coûtent moins cher à construire et utilisent moins de surface ».
Source : Rapport de l’étude
Et vous ?
Qu'en pensez-vous ?
Voir aussi
Microsoft embarque les accélérateurs d'IA de Graphcore à sa plateforme cloud Azure pour optimiser les calculs liés à l'intelligence artificielle
Coral, la plateforme de Google qui voudrait apporter l'intelligence artificielle sur Raspberry Pi sans faire appel au cloud
Tesla devrait abandonner les puces d'IA de NVIDIA pour ses véhicules autonomes et basculer sur ses propres puces d'IA dès l'année prochaine
Partager