Holler, l’outil d’IA qui utilise le modèle GPT-4, pourrait désormais lire les expressions faciales,
faut-il s’en réjouir ou s’en inquiéter ?

Holler, une nouvelle application de messagerie alimentée par l’Intelligence artificielle et qui utilise le modèle GPT-4 pour interagir avec les utilisateurs en générant des réponses conversationnelles inquiète, car la technologie pourrait être utilisée à des fins malveillantes ou abusives. L’application est capable de générer des réponses conversationnelles automatiques et de lire les expressions faciales des utilisateurs pour les convertir en emojis et en textes.

Nom : Holler.jpg
Affichages : 1554
Taille : 6,2 Ko

L'application de messagerie Holler utilise le modèle GPT-4 d'OpenAI pour générer automatiquement des réponses conversationnelles, et peut-être utilisée comme un moyen simple d'accéder à GPT. Cependant, si vous envoyez un message à un ami sur l'application, le LLM pourrait alors répondre à votre place. L’outil d'IA peut lire une expression faciale, l'a convertie en Emoji, puis transformer l'Emoji en une réponse textuelle.

GPT, un modèle de langage révolutionnaire qui suscite l’admiration et la crainte

GPT est l'abréviation de Generative Pre-training Transformer (GPT), un modèle de langage écrit par Alec Radford et publié en 2018 par OpenAI, le laboratoire de recherche en intelligence artificielle d'Elon Musk. Il s'agit d'un algorithme de langage à usage général qui utilise l'apprentissage automatique pour traduire du texte, répondre à des questions et écrire du texte de manière prédictive.

Il fonctionne en analysant une séquence de mots, de texte ou d'autres données, puis en développant ces exemples pour produire une sortie entièrement originale sous la forme d'un article ou d'une image. Il s'appuie sur un modèle génératif de langage (où deux réseaux de neurones se perfectionnent par compétition).

GPT-2 (Generative Pretrained Transformer 2) a été annoncé en février 2019 et a été formé sur 8 millions de documents pour un total de 40 Go de texte à partir d'articles partagés. Elon Musk s'est illustré lorsqu'il a affiché sa réticence à le publier, car il craignait qu'il ne soit utilisé pour spammer les réseaux sociaux avec des fake news. En effet, GPT-2 s'était déjà avéré quelque peu controversé en raison de sa capacité à créer des fake news extrêmement réalistes et cohérentes sur la base de quelque chose d'aussi simple qu'une phrase. Le risque d'utilisation abusive était tel qu'OpenAI a refusé de rendre l'algorithme accessible au public. Cependant, avec la sortie de GPT-3, l'algorithme est devenu exponentiellement plus puissant.

En mai 2020, OpenAI a annoncé GPT-3, un modèle qui contient deux ordres de grandeur de plus de paramètres que GPT-2 (175 milliards contre 1,5 milliard de paramètres) et qui offre une amélioration spectaculaire par rapport à GPT-2. Lorsque vous lui donnez du texte, le GPT-3 renverra un article complet, tentant de lui faire correspondre au modèle que vous lui avez donné. Vous pouvez le « programmer » en lui montrant seulement quelques exemples de ce que vous souhaitez qu'il fasse, et il fournira un article ou une histoire complète.

GPT-3 est un modèle de langage autorégressif qui utilise l'apprentissage profond pour produire des textes similaires à ceux des humains. Il s'agit du modèle de prédiction du langage de troisième génération de la série GPT-n créé par OpenAI, un laboratoire de recherche en intelligence artificielle basé à San Francisco et composé de la société à but lucratif OpenAI LP et de sa société mère, la société à but non lucratif OpenAI.

La startup OpenAI a déclaré qu'elle commençait à diffuser un puissant modèle d'intelligence artificielle connu sous le nom de GPT-4, ouvrant la voie à la prolifération d'une technologie de type humain et à une concurrence accrue entre son bailleur de fonds Microsoft et Google d'Alphabet. OpenAI, qui a créé le chatbot sensationnel ChatGPT, a déclaré dans un billet de blog que sa dernière technologie était « multimodale », ce qui signifie que des images ainsi que des invites textuelles peuvent l'inciter à générer du contenu.

Les grands modèles de langage (LLM) ont servi avec succès d'interface polyvalente pour diverses tâches de langage naturel [BMR+20]. L'interface basée sur les LLM peut être adaptée à une tâche tant que nous sommes capables de transformer l'entrée et la sortie en textes. Par exemple, l'entrée du résumé est un document et la sortie est son résumé. Les chercheurs peuvent donc introduire le document d'entrée dans le modèle de langage, puis produire le résumé généré.

OpenAI, le développeur de GPT-4, a présenté la nouvelle technologie comme une version plus intelligente, plus créative et plus sûre de sa technologie d'intelligence artificielle qui a attiré l'attention du monde entier au cours des derniers mois. Toutefois, une étude de NewsGuard, un service qui utilise des journalistes formés pour évaluer les sites d'actualités et d'information a révélé que GPT-4 produirait des informations erronées, beaucoup plus que son prédécesseur GPT-3.5.

« GPT-4 est 82 % moins susceptible de répondre à des demandes de contenu interdit et 40 % plus susceptible de produire des réponses factuelles que GPT-3.5 selon nos évaluations internes », a déclaré OpenAI sur son site.

L’application Holler illustre les enjeux éthiques de la reconnaissance faciale

Holler est encore en phase bêta et « n'est pas particulièrement inquiétante en soi », cependant, en principe, la reconnaissance faciale assistée par l'IA est un sujet controversé. L'approche de Google en matière de reconnaissance faciale insiste sur le fait que ce type de technologie est « développé de manière réfléchie et responsable », tandis que les législateurs européens à Bruxelles ont proposé d'interdire complètement la reconnaissance faciale assistée par l'IA.

La technologie de reconnaissance faciale, lorsqu’on lui concède de pouvoir donner de bons résultats, est déjà problématique en ceci qu’elle peut être vue comme une intrusion à la vie privée. Dans la pratique, elle est surtout connue pour l’une des plus grosses tares qu’elle continue d’exhiber : les nombreux faux positifs. Des études tour à tour mises en ligne par l’ACLU et l’institut américain des normes et de la technologie (NIST) mettent en exergue le fait que les systèmes de reconnaissance faciale sont nettement plus susceptibles de générer des erreurs lorsqu'ils tentent de faire correspondre des images représentant des personnes dites de couleur.

Dans les chiffres, ceux-ci sont plus précis pour ce qui est des opérations d’identification d’individus blancs, mais sont 10 à 100 fois plus susceptibles de générer des faux positifs pour ce qui est des visages de Noirs et d’Asiatiques. Le NIST a également mis en avant le fait que les systèmes développés aux États-Unis sont très peu performants face aux visages des Amérindiens. C’est en tout cas ce qui ressort de l’étude de l’institut américain des normes et de la technologie qui a porté sur les performances de 189 algorithmes mis sur pied par 99 développeurs. L’évaluation des logiciels s’est faite sur plus de 18 millions d’images appartenant à plus de 8 millions d’individus.

En raison de préoccupations liées aux droits de l'homme, des chercheurs de l'université de Cambridge ont empêché la police d'utiliser la reconnaissance faciale pour des mesures de sécurité. Des chercheurs de l'université de Cambridge ont déclaré que la méthode de reconnaissance faciale ne répond pas aux normes éthiques et juridiques et que c'est pourquoi elle devrait être interdite dans les espaces publics.

Svenja Hanh, membre du Parlement allemand pour Renew, a déclaré que la technologie de reconnaissance faciale « n'a pas sa place dans une démocratie libérale » dans une interview accordée à Politico. Bien que rien n'indique que Holler utilisera la reconnaissance faciale de quelque manière que ce soit, l'application intègre l'interprétation des expressions faciales dans une application alimentée par GPT, et la poursuite du développement de ce type de logiciel ne manquera pas d'en inquiéter plus d'un.

Les technologies susceptibles d'évoluer vers quelque chose de plus néfaste inquiètent les gens

La technologie de reconnaissance des expressions faciales basée sur l’IA n’est pas effrayante en soi, mais elle dépend de l’utilisation qui en est faite. La reconnaissance des expressions faciales favorise l’éducation et l’apprentissage. L’IA peut aider à évaluer le niveau de compréhension, d’intérêt et de motivation des élèves, à fournir un feedback personnalisé et à adapter le contenu pédagogique. Une étude a montré qu’une IA capable de lire les émotions des enfants pendant qu’ils apprennent peut améliorer leur performance et leur engagement.

Il existe des normes éthiques et des réglementations qui encadrent l’utilisation de ces technologies, comme le respect du consentement, de la transparence et de la proportionnalité. Il existe aussi des moyens techniques pour réduire les biais et les erreurs de la reconnaissance faciale, comme l’utilisation de données diversifiées et de méthodes d’évaluation rigoureuses.

Il ne faut pas négliger le potentiel innovant et créatif de la reconnaissance faciale basée sur l’IA, qui peut ouvrir de nouvelles possibilités d’interaction, d’expression et d’apprentissage. L’application Holler est un exemple d’une utilisation ludique et originale de cette technologie, qui permet aux utilisateurs de communiquer avec des emojis et des textes adaptés à leurs émotions.

Pour accéder à la version bêta de Holler - talk and text

Et vous ?

Quel est votre avis sur le sujet ?

Quels peuvent être les risques de la collecte et de l’analyse des données biométriques des utilisateurs par GPT ?

Voir aussi :

GPT-4 produirait des informations erronées, beaucoup plus que GPT-3.5, selon une étude de NewsGuard, OpenAI avait pourtant déclaré le contraire

L'armée de l'air américaine aurait mis au point une technologie de reconnaissance faciale, alimentée par l'IA pour des drones autonomes

Un homme noir emprisonné à tort pendant une semaine à la suite d'une erreur de reconnaissance faciale, selon un rapport