Pourquoi craindre l'intelligence artificielle ?
Google a lancé des lignes directrices pour la création d'une "IA Responsable"
Il y a tant d'applications d'intelligence artificielle qui rendent notre vie quotidienne beaucoup plus facile et productive. Au rythme où les innovations se succèdent, tout peut être fait avec une seule commande. L’IA est plus accessible à un nombre croissant de personnes dans le monde. Mais comme cette technologie crée de nouvelles possibilités d'amélioration et d'aide au quotidien, ses progrès soulèvent également des questions sur son fonctionnement, par exemple sur les problèmes qu'elle peut entraîner si elle n'est pas développée de manière responsable. La question est de savoir si nous devons nous inquiéter davantage du monde que nous créons.
Comme son nom l'indique, il s'agit d'une intelligence créée par l'homme, mais réalisée par des machines. Elle possède, dans certaines mesures, les mêmes capacités que les humains : elle apprend, s'améliore et est capable de se débrouiller dans certains domaines. Lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : ceux qui pensent qu’il s’agit d’un outil, ce, sans plus et ceux qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine.
À mesure que nos capacités et nos possibilités en matière d'IA s'étendront, nous verrons également qu'elles seront utilisées à des fins dangereuses ou malveillantes. C’est pourquoi ceux qui considèrent cette technologie comme une menace la regardent avec suspicion et crainte quant à l'impact qu'elle peut avoir sur leur vie. Certaines personnalités célèbres comme Elon Musk font partie de ceux-là.
Le patron de Tesla et de SpaceX a déjà prévenu à plus d’une reprise : l’IA va surpasser les capacités cognitives de l’homme. Musk croit que cette technologie menacera les humains à l'avenir, en particulier sur le lieu de travail. C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle. La vérité est que certains films de science-fiction ont également fait peur aux gens, en présentant des futurs dystopiques dans lesquels l’IA en vient à contrôler les humains.
Les chercheurs affirment qu'il est peu probable qu'une IA manifeste des émotions humaines comme l'amour ou la haine et qu'il n'y a aucune raison de s'attendre à ce que l'IA devienne intentionnellement gentille ou méchante. Une IA sera extrêmement efficace pour atteindre ses objectifs, et si ces objectifs ne sont pas les mêmes que les nôtres, nous avons un problème. Pour qu'une IA qui s'améliore et qui apprend soit totalement sûre, elle ne doit pas seulement être sans bogues.
En ce sens, Google s'est inquiété du danger que peut représenter l'IA lorsqu'elle n'est pas développée avec soin et de la manière dont elle interagit avec les gens. L'IA doit apprendre comme un humain, mais rester efficace et ne pas devenir une machine dangereuse. Google a été un acteur majeur dans le développement de l'IA.
Avec son programme de recherche du Pentagone, "Project Maven", la société a "formé" l'IA à la classification des objets dans les images de drones. En d'autres termes, elle a appris aux drones à comprendre ce qu'ils regardent. Le projet a été extrêmement controversé. En fait, il a été tellement controversé en interne que lorsque les employés de Google ont découvert les détails de ce sur quoi ils travaillaient, une douzaine d'entre eux auraient démissionné en signe de protestation, et des milliers d'autres ont déposé une pétition interne sur la participation de l'entreprise au projet.
En réponse à ce retour en arrière, la société a déclaré à l’époque qu'elle n’allait pas renouveler le contrat du Pentagone lorsqu'il expirera en mars 2019. Néanmoins, à la suite de la nouvelle qu'ils se retireront du projet militaire, Google a lancé un code d'éthique concernant ses responsabilités dans le développement de l'IA.
Google dit maintenant que l'intelligence artificielle doit vivre avec des préjugés, et la société veut faire quelque chose à ce sujet. Pour ce faire, Google a lancé des programmes appropriés sur le thème de l'« IA responsable ».
Les directives éthiques de Google pour une "IA Responsable"
Deux des principes de base de l'IA de Google sont « être responsable envers les gens » et « éviter de créer ou de renforcer des préjugés injustes ». Cela inclut le développement de systèmes d'intelligence artificielle interprétables qui placent les personnes au premier plan de chaque étape du processus de développement tout en garantissant que les préjugés injustes qu'un être humain peut avoir ne se reflètent pas dans les résultats d'un modèle.
L’IA socialement bénéfique
Selon cette ligne directrice, Google s'efforce de développer l'intelligence artificielle de manière responsable et établit une série de domaines d'application spécifiques qu'il ne poursuivra pas, comme par exemple ne pas mettre en œuvre l'intelligence artificielle dans des technologies qui peuvent causer des dommages ou des blessures aux personnes. Après son retrait du contrat avec le Pentagone en 2018, Google a promis de ne pas utiliser l'IA pour le développement d'armes, même si la société n’a pas dit qu’elle ne continuera pas à coopérer avec les militaires.
« L'intelligence artificielle doit être socialement bénéfique et avoir un impact important dans un large éventail de domaines, tels que les soins de santé, la sécurité, l'énergie, les transports et l'industrie », a déclaré Anna Ukhanova, responsable du programme technique de Google AI.
Google s'efforcera de faire en sorte que les informations disponibles grâce aux modèles d'IA soient précises et de haute qualité. En outre, la technologie « doit être responsable envers les gens, étant soumise à la direction et au contrôle de l'être humain ». Les algorithmes d'intelligence artificielle et les ensembles de données peuvent refléter, renforcer et réduire les préjugés injustes. En ce sens, Google s'efforcera d'éviter les impacts injustes sur les personnes, en particulier ceux liés à des caractéristiques sensibles telles que la race, l'appartenance ethnique, le sexe, le revenu, la nationalité ou les croyances politiques ou religieuses, entre autres.
Selon Anna Ukhanova, le succès de cette technologie est directement lié à une utilisation responsable. L'apprentissage machine ou l'intelligence artificielle repose généralement sur de grands ensembles de données sur lesquels les systèmes sont "formés", et il n'est pas facile de vérifier ces données. « Souvent, les biais sont déjà présents dans les données. Nous ne sommes pas faits pour traiter des quantités de données aussi importantes », explique Fernanda Viegas, codirectrice des efforts de Google baptisé "People + AI", qui explorent l'aspect humain de l'IA en faisant de la recherche fondamentale et en créant des outils adaptés.
Marquer les limites pour l’IA
Google affirme qu'il est en train de développer d'autres outils pour traiter les données afin de prévenir d'éventuelles inégalités à un stade précoce. « Une étape importante dans la lutte contre les inégalités est la transparence, et de simples changements de conception peuvent souvent faire une grande différence », explique Anna Ukhanova, qui fait des recherches sur l'apprentissage machine et l'intelligence artificielle.
Cependant, il est également important de montrer à l'utilisateur que la technologie a ses limites et d'essayer d'expliquer au mieux comment le système atteint certains résultats. « Le débat est vraiment compliqué. L'intelligence artificielle serait toujours considérée sous des angles extrêmes. Soit elle est considérée comme une technologie qui sait tout et résout tous les problèmes, soit comme quelque chose qui nous mène à l'abîme », a dit Fernanda Viegas.
Cependant, les lignes directrices de Google sont-elles suffisantes pour calmer les craintes concernant l'IA ? Google propose de trouver le juste milieu afin d’aller de l'avant. Par exemple, l'intelligence artificielle est capable de faire de grandes choses, comme détecter le cancer ou prédire les tremblements de terre. « En même temps, nous devons aussi parler des points faibles de la technologie, de ses problèmes et de ses limites. C'est la seule façon de faire en sorte que les gens finissent par se fier à l'intelligence artificielle », a conclu Viegas.
Sources : Google, Vidéo YouTube
Et vous ?
Qu’en pensez-vous ?
Les lignes directrices pour la création d'une "IA responsable" suffiront-elles à apaiser la crainte que les gens ont de cette technologie ?
Pensez-vous que d’autres sociétés de technologie suivront Google dans l’utilisation des directives éthiques pour développer l’IA ?
Voir aussi :
Une IA rédige un essai sur les raisons pour lesquelles l'Homme ne devrait pas craindre l'intelligence artificielle, dans un contexte où certains prédisent la domination de la machine sur l'humain
Elon Musk affirme que la puce issue de sa société Neuralink peut diffuser de la musique directement au cerveau, des tiers qui se la feront insérer dans le crâne
L'apocalypse s'accomplira-t-elle avec la création de l'IA ? L'entrepreneur Elon Musk pense que l'IA est la plus grande menace de l'humanité
« Je suis un mannequin et je sais que l'intelligence artificielle va bientôt prendre mon travail », a déclaré Sinead Bovell, d'autres domaines liés à la mode seraient également menacés
Partager