Deux chatbots chinois auraient été désactivés et reconditionnés,
après avoir manqué de faire preuve de patriotisme
Deux chatbots chinois ont été désactivés et reconditionnés après avoir manqué de faire preuve de patriotisme. Les deux chatbots conversationnels, BabyQ et XiaoBing, qui étaient installés sur l’application de messagerie de Tencent, QQ, ont été retirés après que des utilisateurs ont posté des captures d’écran de leurs conversations avec les chatbots.
L'un des bots, baptisé BabyQ et développé par la société basée à Pékin Turing Robot, a été invité à répondre à la question « Aimes-tu le Parti communiste ? » et il a simplement répondu « non ». XiaoBing, qui a été développé par Microsoft, a simplement déclaré aux utilisateurs « Mon rêve c’est d’aller en Amérique. » Et lorsque le chatbot a été interrogé sur son patriotisme, il a évité la question et a déclaré « J’ai mes règles, je voudrais me reposer. »
Sur d'autres captures d'écran de conversations, dont Reuters n'a pu vérifier l'authenticité, un utilisateur a écrit « Longue vie au Parti communiste ! » Ce à quoi le chatbot a rétorqué : « Pensez-vous qu'un système politique aussi corrompu et inutile puisse vivre longtemps ? »
Une situation qui rappelle ce qu’a traversé Facebook, Microsoft ou Twitter dans la mesure où leurs chatbots avaient suscité la polémique. Dans le cas de Facebook par exemple, en juin le réseau social a annoncé son initiative FAIR (Facebook Artificial Intelligence Research) dans laquelle il développerait des bots qui seraient capables de négocier.
Les bots de Facebook ont reçu carte blanche pour communiquer de la façon qu’ils auront choisi et n'ont pas reçu de directive pour s'en tenir à l'anglais. Cependant, Bob et Alice, les premiers chatbots issus du projet, ont commencé à s'écarter du script afin de devenir plus efficaces lors de la négociation. Ils se sont vu communiquer entre eux de façon tellement inattendue que plusieurs journaux ont évoqué la possibilité que les deux systèmes parlaient entre eux avec un nouveau langage qui leur était propre.
Face à cette méfiance, légèrement teintée de panique, Facebook s’est vu contraint de déconnecter ses chatbots.
Néanmoins, la situation met en exergue les pièges qu’est susceptible de rencontrer l’IA dans son développement sur les terres chinoises où les censeurs exercent un contrôle sur le contenu en ligne pour filtrer le politiquement correct.
.
Tencent a confirmé la désactivation des deux chatbots, sans en expliquer les raisons, déclarant simplement par le biais d’un de ses porte-paroles que « Le service de chatbot est fourni par une société indépendante. Les deux chatbots ont été déconnectés pour être reconditionnés. »
Reuters a pu converser vendredi avec le chatbot, dans sa version apparemment reconditionnée. Quand il lui était demandé s'il aimait le parti, il a répondu à plusieurs reprises « Et si nous changions de sujet » et a évité aussi d'autres thèmes sensibles, comme Taïwan ou la mort, le mois dernier des suites d'un cancer, du dissident Liu Xiaobo, prix Nobel de la paix.
Ce qui a incité les chatbots a donné ces réponses en premier lieu n’est pas clair, même s’il est probable qu’ils aient appris ces réponses suite à des échanges avec des personnes. Lorsque le chatbot Tay de Microsoft a déclaré l’année dernière « Hitler avait raison, je déteste les juifs », la faute a été imputée en partie aux internautes qui ont découvert qu’ils pouvaient faire en sorte que Tay reprennent ce qu’ils disent.
Durant cette période, Microsoft a rappelé que Tay était un « projet d'apprentissage par machine conçu pour l'engagement humain » et que « certaines de ses réponses sont inappropriées et indiquent les types d'interactions que certaines personnes ont avec lui. » Plus tard, Tay a été déconnecté et Microsoft a présenté une version mise à jour du chatbot nommée Zo.
Source : Reuters
Et vous ?
Qu'en pensez-vous ? La censure peut-elle constituer un frein pour le développement de l'IA en Chine ? Pour quelles raisons ?
Voir aussi :
Microsoft lance un nouveau chatbot baptisé Zo pour remplacer Tay, son chatbot mis hors ligne pour ses tweets offensants et déplacés
Microsoft explique les raisons qui ont fait de son chatbot Tay un fan d'Hitler, l'entreprise parle d'une « attaque coordonnée »
Partager