Geler les embauches, ce n'est guère nouveau ...
Geler les embauches, ce n'est guère nouveau ...
la "grande démission" est un phénomène occidentale et pas que français.
Il y'a eu la même chose aux USA qui sont pas à 35h et pas non plus à des salaires très comprimé comme en France.
Pour le gèle des embauches c'est surtout les entreprises qui sont sur le déclin qui le pratique, qui n'apporte juste qu'un simple service sans chercher à innover.
les entreprises en pleines croissance elle par contre embauches toujours a tour de bras.
Airbus en ce moment par exemple qui est en pleine croissance (sortie du covid), st micro aussi en pleine croissance vs Orange qui fait juste un taff de "rentier" (récupère le pognon des abonnements sans r&d) et gèle les embauches.
À force de considérer les gens comme une variable d'ajustement, ça finit par se voir.
Ce n'est pas forcément la seule explication. Comme un parfum de fin du monde (toutes ces filles qui ne veulent pas de bébés par peur de ce qui les attend ...) rend plus urgent de profiter du temps qui reste.
***
D'où aussi l'intérêt d'associations qui mettent l'accent sur ce qu'il faut, et les faire taire comme on casse un thermomètre n'est une solution que dans la tête de ceux qui ont de si bizarres idées.
Dans la mesure où une activité jusque-là locale est désormais exécutée par des entreprises américaines qui facturent leurs services, ne devrait-on pas aussi parler de délocalisation de l'activité ?
Il est devenu un peu délicat de savoir dans quels cas il faut parler de délocalisation, et dans quels cas il faut parler de foutage de gueule.
Il est vrai que dans certains cas, c'est les deux.
ChatGPT est confronté pour la première fois à une baisse de trafic après une croissance explosive depuis son lancement
ce qui suggère que la frénésie suscitée par le chatbot commence à s'estomper
De nouvelles statistiques révèlent que le trafic sur le site Web hébergeant ChatGPT et le nombre de visiteurs uniques ont baissé en juin. Les données montrent en effet que le trafic mondial (sur ordinateur de bureau et sur mobile) vers le site de ChatGPT a baissé de 9,7 % en juin par rapport à mai, tandis que le nombre de visiteurs uniques sur le site Web de ChatGPT a baissé de 5,7 %. C'est la première fois que cela arrive depuis le lancement de ChatGPT en novembre dernier. Les données révèlent aussi que le temps passé par les visiteurs sur le site a baissé de 8,5 %, ce qui laisse penser que la bulle qui s'est formée autour de ChatGPT depuis novembre commence à se résorber.
Le chatbot d'IA ChatGPT d'OpenAI a fait sensation lorsqu'il a fait irruption sur la scène à la fin de l'année dernière. Il a recueilli plus de 100 millions d'utilisateurs actifs mensuels en quelques mois seulement, ce qui en fait l'application à la croissance la plus rapide de l'histoire. L'engouement pour l'IA générative a poussé les géants de la technologie à l'adopter rapidement, a encouragé les PDG à réévaluer leurs besoins en main-d'œuvre humains et a déclenché une ruée vers les actions des sociétés d'IA, dont la valeur se chiffre en centaines de milliards de dollars. Mais les gens semblent avoir commencé à se lasser de ChatGPT et des chatbots d'IA en général.
Des statistiques publiées cette semaine par la société d'analyse Similarweb suggèrent que la frénésie a peut-être commencé à s'estomper. Le trafic mondial vers le site de ChatGPT a chuté de 9,7 % et les visiteurs uniques de 5,7 % en juin. Certaines sources avaient rapporté le mois dernier que la croissance fulgurante du trafic de ChatGPT commençait à se stabiliser, mais c'est le premier mois où elle a réellement diminué. ChatGPT ne semble plus pouvoir continuer à croître jusqu'à devenir le site Web le plus fréquenté au monde. En d'autres termes, Google ne risque pas d'être éclipsé par le chatbot d'OpenAI qui s'est rapidement transformé en phénomène culturel.
« Je pense qu'il y a des problèmes de croissance lorsque vous passez de zéro à 100 millions d'utilisateurs aussi rapidement. L'infrastructure extraordinairement lourde se traduirait par une précision moindre. Il faut à la fois changer ce sur quoi le modèle est formé et gérer les implications potentielles de la réglementation », a déclaré Sarah Hindlian-Bowler, responsable de la recherche technologique pour les Amériques chez Macquarie. OpenAI a également lancé l'application mobile ChatGPT sur iOS en mai, ce qui pourrait avoir contribué à la baisse du trafic vers le site. Le chatbot a été téléchargé plus de 17 millions de fois sur iOS dans le monde entier au 4 juillet.
Similarweb indique que les téléchargements ont atteint un pic le 31 mai et sont restés populaires aux États-Unis, avec une moyenne de 530 000 téléchargements par semaine au cours des six premières semaines complètes de disponibilité. Certains établissent également un lien entre la baisse du trafic vers le site du chatbot et les vacances d'été des écoles, puisque les étudiants sont moins nombreux à chercher de l'aide pour leurs devoirs. Ces derniers font en fait partie des utilisateurs précoces de ChatGPT, causant des problèmes aux écoles. De nombreux établissements ont dû prendre des mesures pour limiter l'utilisation de ChatGPT par les étudiants.
La baisse du trafic est encore plus importante aux États-Unis, avec un recul de 10,3 % d'un mois sur l'autre. Malgré cette baisse, ChatGPT reste de loin le site le plus visité proposant un chatbot d'IA. ChatGPT reçoit plus de trafic mondial que le moteur de recherche Bing de Microsoft, qui a récemment lancé son propre chatbot d'IA. Selon les données de Similarweb, le chatbot Bard de Google ne figure même pas dans le trio de tête de Similarweb. Il se place juste derrière Character.ai, une startup qui permet aux utilisateurs de créer leurs propres chatbots. (Les chatbots les plus populaires parmi eux sont ceux basés sur Elon Musk et Mario de Nintendo.)
Selon Similarweb, les visites mondiales sur Character.ai ont chuté de 32 % d'un mois sur l'autre, bien que le trafic soit toujours en très forte hausse par rapport à juin 2022, lorsque l'entreprise fondée par d'anciens ingénieurs de Google n'en était qu'à ses débuts. Mais Character.ai a contesté les conclusions de Similarweb. Dans un courriel à Fortune, le PDG et cofondateur de la société, Noam Shazeer, note : « notre utilisation est en hausse ». Bien que la réponse reste assez vague, Shazeer ajoute que les utilisateurs ont migré vers les nouvelles applications lancées par la startup en mai. (Le rapport de Similarweb indique qu'il suit "le trafic Web de bureau et mobile".)
Character.ai a levé 150 millions de dollars fin mars lors d'un tour de table mené par Andreessen Horowitz, qui a évalué la startup à 1 milliard de dollars. Par ailleurs, le rapport de Similarweb indique que l'engagement des visiteurs envers ChatGPT est également en baisse si l'on considère le nombre de minutes par visite. Similarweb a déclaré qu'elle ne dispose pas encore de cette mesure pour le mois de juin, mais affirme que le temps passé sur le site de ChatGPT était déjà en baisse de 8,5 % en mai. Alors, qu'est-ce que cela signifie pour OpenAI ? Selon Similarweb, il n'est pas certain que la startup d'IA se réjouit de la baisse du trafic vers le site de ChatGPT.
Cependant, David Carr, responsable de l'analyse des données chez Similarweb, rappelle que le site de ChatGPT sert principalement de produit d'appel pour générer des pistes de vente pour OpenAI, qui met sa technologie à la disposition d'autres entreprises pour qu'elles l'intègrent dans leurs applications. Cela suggère que l'entreprise ne se préoccupe peut-être pas trop de la baisse du trafic vers le site de ChatGPT, car il a été lancé à l'origine comme une démonstration technologique. Plus de huit mois après, OpenAI a probablement eu le temps de développer des offres lucratives autour de ChatGPT, notamment avec l'application iOS et les API pour les développeurs.
OpenAI espère convaincre les entreprises clientes d'utiliser ses services d'IA. Microsoft, qui a investi plusieurs milliards de dollars dans le startup d'IA, vend les services d'OpenAI et a intégré sa technologie GPT-4 dans des produits tels qu'Office et Bing Chat. Entre-temps, le PDG d'OpenAI, Sam Altman, a qualifié d'"exorbitant" le coût d'exploitation de ce service essentiellement gratuit. Selon des estimations externes, le coût d'exploitation du site de ChatGPT s'élèverait à environ 700 000 dollars par jour. Selon Similarweb, contrairement à Bing, OpenAI n'est pas nécessairement conçu pour gérer un site Web grand public financé par la publicité.
Le principal revenu direct de ChatGPT provient des abonnements vendus à ceux qui souhaitent avoir accès à la version la plus récente et la plus performante. Ainsi, les abonnés reçoivent GPT-4, tandis que les utilisateurs gratuits ont accès à une version plus ancienne. Carr pense que la viabilité de ce modèle commercial est discutable, étant donné que les utilisateurs peuvent obtenir GPT-4 gratuitement dans le cadre de Bing. En outre, OpenAI fournit un accès API à des versions plus personnalisables de son logiciel à d'autres entreprises. Selon le rapport, le trafic vers le site Web du développeur "platform.openai.com" a augmenté de 3,1 % entre mai et juin.
En somme, la baisse du trafic vers le site de ChatGPT et celui de l'un de ses principaux concurrents montre que la nouveauté n'est plus de mise pour les chatbots d'IA. Ils devront désormais prouver leur valeur, plutôt que de la considérer comme acquise. Pour certains critiques, cela risque d'être une tâche compliquée, car les chatbots souffrent d'un grand nombre de problèmes, principalement ceux concernant leurs données d'entraînement. Cela nécessite d'énormes quantités de données, glanées un peu partout sur le Web et souvent protégées par le droit d'auteur. OpenAI et ses concurrents font face à de nombreuses plaintes pour violation de droit d'auteur.
Enfin, si certains dirigeants d'entreprise sont enthousiasmés par l'IA, d'autres s'inquiètent de la confidentialité des données et mettent en garde leurs employés contre le partage de données confidentielles ou sensibles avec ChatGPT. Altman a déclaré en mai qu'OpenAI ne forme plus ses modèles à partir de données provenant de clients payants. Mais les préoccupations ne s'estompent pas pour autant. Des études suggèrent d'ailleurs qu'il est possible d'extraire les données partagées avec ChatGPT.
Source : Similarweb
Et vous ?
Quel est votre avis sur le sujet ?
Selon vous, qu'est-ce qui explique la baisse du trafic vers le site Web de ChatGPT ?
Pensez-vous que c'est la fin d'une mode ? La bulle de l'IA commence-t-elle à se résorber ?
Les gens se sont-ils aperçus que l'IA n'est pas la solution à tout, comme l'ont vanté certains acteurs du secteur de l'IA ?
Voir aussi
ChatGPT est peut-être l'application grand public à la croissance la plus rapide de l'histoire d'Internet, atteignant 100 millions d'utilisateurs en un peu plus de 2 mois, selon un rapport d'UBS
ChatGPT met en pause son intégration avec Bing de Microsoft pour empêcher aux utilisateurs de contourner des paywalls, la décision est à controverse, car elle pénalise les chercheurs en cybersécurité
Microsoft confirme que le nouveau Bing fonctionne avec le modèle de langage GPT-4 et indique que le moteur de recherche bénéficiera de toutes les améliorations apportées par OpenAI sur son modèle
ChatGPT, un phénomène de mode ? Les données montrent une diminution de 10% du trafic et des téléchargements du chatbot IA,
les analystes attribuent la situation à plusieurs causes
ChatGPT, le chatbot basé sur l’intelligence artificielle le plus populaire au monde, a connu une baisse de son nombre d’utilisateurs pour la première fois depuis son lancement en novembre 2022. Selon les données de Similarweb, le trafic mobile et desktop du site web de ChatGPT a diminué de 9,7 % dans le monde en juin par rapport au mois précédent. Le site note également que le temps passé sur le site a diminué. Les téléchargements de l’application iPhone de ChatGPT, lancée en mai, ont également chuté régulièrement depuis leur pic début juin, selon les données de Sensor Tower. Quelles sont les raisons qui pourraient expliquer cette situation ?
Plus tôt cette année, ChatGPT a établi un record en devenant l'application à la croissance la plus rapide de l'histoire après avoir atteint 100 millions d'utilisateurs actifs mensuels, ou MAU, fin janvier, selon un rapport du géant bancaire suisse UBS. Le chatbot appartenant à OpenAI a dépassé les 100 millions de MAU un peu plus de deux mois après son lancement – battant confortablement les vitesses de croissance des principales applications comme TikTok et Instagram, selon la note d'UBS.
Il a fallu neuf mois à TikTok pour atteindre le même niveau d'utilisateurs ; Instagram a pris deux ans et demi ; et Spotify n'a amassé que 100 millions de MAU après quatre ans et demi, selon le rapport, citant des données de la société d'analyse de données Similar Web. « En vingt ans après l'espace Internet, nous ne pouvons pas nous souvenir d'une montée en puissance plus rapide dans une application Internet grand public », ont écrit les analystes d'UBS dans le rapport.
De nombreuses entreprises technologiques, principalement Google, ont immédiatement cherché à reproduire le succès de ChatGPT. Il convient de rappeler que les taux d'adoption de la technologie se sont généralement accélérés au cours des dernières décennies. De plus, le succès de ChatGPT a peut-être été moins lié à un intérêt général pour les chatbots qu'à sa nouveauté, qui peut maintenant s'estomper.
ChatGPT a peut-être simplement bénéficié de l'augmentation des taux d'adoption des utilisateurs. En effet, la semaine dernière, Meta a lancé un rival sur Twitter appelé Threads. Presque instantanément, Threads, malgré des inconvénients importants dans sa conception et de nombreux problèmes de confidentialité, a facilement battu le record de ChatGPT en tant qu'application grand public à la croissance la plus rapide. S'il a fallu deux mois à ChatGPT pour atteindre les 100 millions d'utilisateurs, Threads a atteint les 70 millions d'utilisateurs en moins de deux jours, selon une publication de Mark Zuckerberg. Et Meta l'a fait sans dépendre de nouvelles fonctionnalités d'IA tape à l'œil (en fait, Twitter a intenté une action en justice, alléguant que Threads n'est qu'une copie de Twitter).
Rappelons qu'il a fallu 5 jours à ChatGPT pour atteindre le million d'utilisateurs, tandis qu'en un jour, Threads en avait 30 millions.
Un nombre d'utilisateurs en chute
Le trafic mobile et desktop vers le site Web de ChatGPT dans le monde a chuté de 9,7% en juin par rapport au mois précédent, selon la société de données Internet Similarweb. Les téléchargements de l'application iPhone du bot, qui a été lancée en mai, ont également diminué régulièrement depuis le pic de début juin, selon les données de Sensor Tower.
Ce déclin pourrait être le signe d’un désintérêt des consommateurs pour les chatbots et les autres outils basés sur l’IA, alors que les entreprises technologiques investissent massivement dans le développement de produits basés sur l’IA.
ChatGPT, développé par la société d'intelligence artificielle OpenAI, a suscité une explosion d'intérêt pour l'intelligence artificielle lors de son lancement à la fin de l'année dernière, incitant les grandes entreprises technologiques à se précipiter pour fournir des outils concurrents. Les développeurs, les employés de bureau et les étudiants l'utilisent pour accélérer leur travail et poser des questions sur une gamme variée de sujets.
Les chatbots sont alors devenus un incontournable des conversations. Certaines entreprises ont même licencié des rédacteurs et les ont remplacés par ChatGPT. Mais la baisse de l'utilisation suggère que les limites de la technologie la rattrapent et qu'au moins une partie du battage médiatique entourant les chatbots est exagérée.
« Vous avez eu ce moment où c'était comme "oh mon Dieu, c'est génial" », a déclaré Sachin Dev Duggal, directeur général de Builder.ai, une start-up qui utilise l'intelligence artificielle pour aider les gens à créer des applications mobiles. « Puis, étant donné que les gens ont commencé à tomber sur de fausses informations que le chatbot leur envoyait, ils ont réalisé qu'il n'était pas aussi largement utile qu'ils le pensaient au départ », a-t-il déclaré.
On ne sait toujours pas si une baisse de 10% des utilisateurs de ChatGPT sur un seul mois en été devrait inquiéter les entreprises technologiques qui se lancent à fond dans les chatbots.
Qu'est-ce qui pourrait expliquer que ChatGPT connaisse une chute des utilisateurs ?
Plusieurs raisons pourraient l'expliquer, parmi lesquelles une baisse de la qualité des réponses. Pour mémoire, l'exécution de chatbots IA nécessite une énorme quantité de puissance de traitement informatique coûteuse, et les analystes ont émis l'hypothèse que la baisse de qualité est venue parce qu'OpenAI essaie de réduire le coût d'exécution du bot. La fin de l'année scolaire aux États-Unis et en Europe pourrait également avoir déclenché la baisse de l'utilisation, car les étudiants qui l'utilisaient pour rédiger des articles académiques partent en vacances d'été.
D'autres suggèrent que les inquiétudes suscitées par la réglementation imminente et les nouvelles règles de l'Union européenne ont poussé OpenAI et d'autres sociétés d'IA à brider les capacités de leurs chatbots afin de ne pas se heurter aux politiciens préoccupés par le fait que les bots sont utilisés pour diffuser de la désinformation, insuffler des préjugés dans plus produits technologiques et avoir un impact sur les emplois de vraies personnes.
« Si nous continuons à voir une augmentation de la production du type " Je ne suis pas en mesure de répondre à cette question parce que je suis un chat bot", nous deviendrons plus préoccupés par le fait que la réglementation supprime le pouvoir de ChatGPT », a déclaré Sarah Hindlian-Bowler, un analyste de la banque d'investissement Macquarie, dans une note aux clients.
Au cours des derniers mois, les problèmes des chatbots génératifs tels que ChatGPT ont été mis à nu. Ils inventent régulièrement de fausses informations et les font passer pour vraies, un problème auquel Google, OpenAI, Microsoft et d'autres leaders de l'IA n'ont pas encore trouvé de solution. Certains utilisateurs se sont plaints que les réponses de ChatGPT se sont en fait aggravées avec le temps, en particulier lorsqu'il s'agit de générer du code informatique.
Mais ChatGPT a également dû faire face à des problèmes d’utilisateurs. En effet, de nombreuses entreprises ont interdit à leurs employés d'utiliser ChatGPT au travail, craignant que le fait de placer des données sensibles de l'entreprise dans le bot puisse entraîner des fuites de données.
OpenAI a également commencé à répondre aux réactions négatives des utilisateurs et à la pression réglementaire en censurant les réponses ChatGPT nuisibles, ce qui a peut-être conduit certains utilisateurs à abandonner l'outil, le considérant peut-être comme moins utile, moins fiable ou simplement moins amusant.
Le procès dont OpenAI fait l'objet pourrait également jouer un rôle. L'entreprise fait l’objet d’une plainte en nom collectif déposée par deux auteurs américains, Paul Tremblay et Mona Awad, qui affirment que la société a utilisé leurs œuvres sans autorisation pour entraîner son système d’intelligence artificielle générative ChatGPT.
ChatGPT et d’autres systèmes d’IA générative créent du contenu en utilisant de grandes quantités de données collectées sur internet. La plainte des auteurs affirme que les livres sont un « ingrédient clé » car ils offrent les « meilleurs exemples d’écriture longue de haute qualité ». La plainte estime qu’OpenAI a incorporé dans ses données d’entraînement plus de 300 000 livres, dont certains provenant de « bibliothèques fantômes » illégales qui proposent des livres protégés par le droit d’auteur sans autorisation.
Awad est connue pour ses romans comme « 13 Ways of Looking at a Fat Girl » et « Bunny ». Tremblay est l’auteur de romans comme « The Cabin at the End of the World », qui a été adapté dans le film de Night Shyamalan « Knock at the Cabin » sorti en février. Tremblay et Awad affirment que ChatGPT peut générer des résumés « très précis » de leurs livres, ce qui indique qu’ils figurent dans sa base de données.
La plainte demande une somme indéterminée de dommages-intérêts au nom d’une classe nationale de titulaires de droits d’auteur dont les œuvres auraient été utilisées abusivement par OpenAI.
Il s’agit du dernier cas en date d’un défi juridique concernant le matériel utilisé pour entraîner des systèmes d’IA de pointe. Parmi les plaignants figurent des propriétaires de code source contre OpenAI et GitHub, la filiale de Microsoft, et des artistes visuels contre Stability AI, Midjourney et DeviantArt. Les cibles du procès ont fait valoir que leurs systèmes font un usage équitable des œuvres protégées par le droit d’auteur.
Source : Similarweb
Et vous ?
Que pensez-vous de la censure des réponses nuisibles de ChatGPT par OpenAI ?
Utilisez-vous ChatGPT ou un autre chatbot basé sur l’IA ? Si oui, pourquoi ? Si non, pourquoi pas ?
Pensez-vous que les chatbots et les autres outils basés sur l’IA vont continuer à se développer et à attirer des utilisateurs, ou pensez-vous qu’il s’agit d’une mode passagère ?
Quels sont les avantages et les inconvénients de l’utilisation des chatbots et des autres outils basés sur l’IA ?
Quelles sont les mesures que les entreprises technologiques et les régulateurs devraient prendre pour assurer la sécurité, la confidentialité et l’éthique des chatbots et des autres outils basés sur l’IA ?
Que pensez-vous des raisons évoquées par les analystes pour expliquer la baisse du nombre d'utilisateurs pour la première fois ? Vous vient-il à l'esprit des raisons pour laquelle le nombre d'utilisateurs est en baisse ?
pour la génération de code je l'ai jamais trouvé pertinent, et c'est vrai que je viens de le retester et c'est de mon point de vue subjectif bien pire qu'avant. Je passe plus de temps à lui demander du code et à corrigé son code faux que si je le faisait moi meme. Et pourtant je lui demande des petites fonctions avec beaucoup de précision de ce que je veux (ce qui me fait perdre beaucoup de temps).
De mon coté je l'utilise que 3 fois semaines un peu pres, surtout pour me debeugger des traceback ou pour m’expliquer le code d'un collègue, la par contre il est très bon.
constatez vous vous aussi une baisse de qualité dans ces réponses ?
Tout simplement suite à aucun résultat concret à une demande, pas forcément due au fait que chatGPT ne marche pas, mais qu'il faut savoir s'en servir.Qu'est-ce qui pourrait expliquer que ChatGPT connaisse une chute des utilisateurs ?
Un peu comme Siri, au début tout le monde a joué avec et ensuite un nombre réduit de personnes s'en sont servi.
ChatGPT d'OpenAI dans le collimateur de la FTC : l'agence veut déterminer si l'IA met en danger la réputation
et les données des utilisateurs
OpenAI, la start-up de San Francisco qui a développé ChatGPT, un bot conversationnel basé sur l’intelligence artificielle, fait l’objet d’une enquête de la Federal Trade Commission (FTC), l’agence américaine de protection des consommateurs. La FTC veut savoir si ChatGPT met en danger la réputation et les données des utilisateurs, et s’il génère des informations fausses, trompeuses ou diffamatoires.
ChatGPT est un bot conversationnel qui utilise un modèle de langage artificiel pour produire des réponses à partir de n’importe quelle entrée textuelle. Il peut converser sur différents sujets, générer du contenu créatif comme des poèmes, des histoires ou des chansons, et même imiter le style d’écriture de personnalités célèbres. ChatGPT est accessible au public via une interface web ou une API.
Les analystes ont qualifié le ChatGPT d'OpenAI d'application grand public à la croissance la plus rapide de l'histoire, et son succès précoce a déclenché une course aux armements parmi les entreprises de la Silicon Valley pour déployer des chatbots concurrents. Le directeur général de la société, Sam Altman, est devenu une figure influente dans le débat sur la réglementation de l'IA, témoignant à Capitol Hill, dînant avec des législateurs et rencontrant le président Biden et le vice-président Harris.
Mais maintenant, l'entreprise fait face à un nouveau défi : la FTC a fait parvenir à OpenAI une demande d’information de 20 pages, dans laquelle elle lui enjoint de fournir des documents relatifs au développement et à l’entraînement de ses modèles de langage, à la collecte et à la protection des données personnelles utilisées par la plateforme, à la vérification et à la correction des informations produites par ChatGPT, et aux risques potentiels pour les consommateurs, notamment en termes de préjudice réputationnel.
La FTC s’intéresse notamment aux cas « d'hallucinations », un terme qui désigne les situations où l’IA génère des informations fausses ou inventées. Par exemple, ChatGPT peut affirmer que le président des États-Unis est un extraterrestre, ou que le pape a été accusé de meurtre. Ces informations peuvent être nuisibles pour les personnes concernées, mais aussi pour les utilisateurs qui les prennent pour vraies.
Des réclamations à cet effet ont été faites le mois dernier dans le cadre d'un procès civil privé lorsqu'un animateur de radio de l'État de Géorgie a poursuivi OpenAI alléguant que ChatGPT l'avait diffamé et avait porté atteinte à sa réputation en associant faussement son nom à un problème criminel.
En avril, un maire australien a menacé d'intenter une action en diffamation contre OpenAI après que ChatGPT l'aurait prétendument accusé d'être impliqué dans un scandale de corruption étrangère. Les avocats de l'homme auraient donné à OpenAI 28 jours pour corriger son modèle d'IA. Depuis lors, il n'y a pas eu d'autre mot de litige.
La FTC veut également savoir comment OpenAI teste, ajuste et manipule ses algorithmes, notamment pour produire des réponses différentes ou pour répondre aux risques, et dans différentes langues. Elle demande aussi à OpenAI de lui fournir la liste des plaintes qu’elle a reçues du public, des procès auxquels elle est impliquée, et des détails sur la fuite de données qu’elle a révélée en mars 2023 et qui avait exposé temporairement les historiques de chat et les données de paiement des utilisateurs.
La lettre demande également de nombreux documents de l'entreprise, y compris des contrats avec des partenaires depuis 2017, et des communications internes sur le potentiel des modèles d'IA à "produire des déclarations inexactes sur les individus" et à "révéler des informations personnelles".
Quelles sont les conséquences possibles de l’enquête ?
L’enquête de la FTC est la première manifestation concrète d’une régulation gouvernementale de l’IA aux États-Unis, alors que les législateurs du Congrès peinent à se mettre à la page sur une industrie en pleine évolution et à élaborer une législation adaptée au secteur. Les efforts américains sont largement en retard par rapport à d’autres acteurs mondiaux. Par exemple, l’Union européenne est en passe de finaliser une législation pionnière qui interdit l’utilisation de l’IA pour la police prédictive et qui applique des restrictions aux scénarios d’utilisation à haut risque3.
L’enquête de la FTC pourrait aussi compliquer la relation entre OpenAI et les décideurs politiques, dont beaucoup ont été impressionnés par la technologie et le PDG de la start-up, Sam Altman. Elle pourrait aussi attirer davantage l’attention sur le rôle d’OpenAI dans le débat sur la menace que l’IA générative peut représenter pour l’emploi, la sécurité nationale et la démocratie.
OpenAI dispose d’un délai de 30 jours pour répondre aux demandes de l’agence. Si elle ne se conforme pas ou si elle fournit des informations incomplètes ou inexactes, elle s’expose à des sanctions civiles ou pénales.
Les réactions à l’enquête
L’enquête de la FTC a suscité des réactions contrastées dans le monde de l’IA. Certains ont salué l’initiative de l’agence, estimant qu’elle était nécessaire pour encadrer le développement et l’utilisation de l’IA générative, qui peut avoir des impacts sociaux et éthiques importants. D’autres ont critiqué l’enquête, la jugeant trop intrusive, disproportionnée ou mal ciblée.
Parmi les partisans de l’enquête, on trouve des experts en éthique de l’IA, des défenseurs des droits des consommateurs, et des concurrents d’OpenAI. Ils estiment que ChatGPT pose des risques réels pour les utilisateurs, qui peuvent être trompés, manipulés ou exposés par le bot. Ils appellent à plus de transparence et de responsabilité de la part d’OpenAI, qui selon eux profite d’un statut privilégié dans le secteur de l’IA sans rendre de comptes à la société.
Parmi les opposants à l’enquête, on trouve des partisans de l’innovation, des défenseurs de la liberté d’expression, et des alliés d’OpenAI. Ils estiment que ChatGPT est une avancée technologique majeure, qui offre des opportunités créatives et éducatives aux utilisateurs. Ils craignent que l’enquête de la FTC ne freine le progrès de l’IA, ne limite la diversité des voix et des idées, et ne nuise à la compétitivité des États-Unis face à d’autres puissances.
Par le billet de son PDG, OpenAI a déclaré qu’elle coopérerait avec la FTC et qu’elle respecterait les lois en vigueur. Elle a aussi affirmé qu’elle s’efforçait de rendre ChatGPT plus fiable, plus sûr et plus éthique. Elle a rappelé qu’elle avait mis en place des mécanismes de contrôle et de modération pour prévenir les abus et les erreurs du bot. Elle a enfin souligné qu’elle avait pour mission de créer une IA bénéfique pour l’humanité.
Il est très décevant de voir la demande de la FTC commencer par une fuite, ce qui n'aide pas à instaurer la confiance. Cela dit, il est extrêmement important pour nous que notre technologie soit sûre et pro-consommateur, et nous sommes convaincus que nous respectons la loi. Bien sûr, nous travaillerons avec la FTC.
Nous avons construit GPT-4 en s'appuyant sur des années de recherche sur la sécurité et avons passé plus de 6 mois après avoir terminé la formation initiale pour le rendre plus sûr et plus aligné avant de le publier. Nous protégeons la vie privée des utilisateurs et concevons nos systèmes pour en savoir plus sur le monde, et non sur les particuliers.
Nous sommes transparents sur les limites de notre technologie, en particulier lorsque nous ne parvenons pas à le faire. et notre structure de bénéfices plafonnés signifie que nous ne sommes pas incités à réaliser des rendements illimités.Des procès qui se multiplientit is very disappointing to see the FTC's request start with a leak and does not help build trust.
— Sam Altman (@sama) July 13, 2023
that said, it’s super important to us that out technology is safe and pro-consumer, and we are confident we follow the law. of course we will work with the FTC.
Paul Tremblay et Mona Awad, affirment que la société a utilisé leurs œuvres sans autorisation pour entraîner son système d’intelligence artificielle générative ChatGPT. La plainte des auteurs affirme que les livres sont un « ingrédient clé » car ils offrent les « meilleurs exemples d’écriture longue de haute qualité ». La plainte estime qu’OpenAI a incorporé dans ses données d’entraînement plus de 300 000 livres, dont certains provenant de « bibliothèques fantômes » illégales qui proposent des livres protégés par le droit d’auteur sans autorisation.
Awad est connue pour ses romans comme « 13 Ways of Looking at a Fat Girl » et « Bunny ». Tremblay est l’auteur de romans comme « The Cabin at the End of the World », qui a été adapté dans le film de Night Shyamalan « Knock at the Cabin » sorti en février. Tremblay et Awad affirment que ChatGPT peut générer des résumés « très précis » de leurs livres, ce qui indique qu’ils figurent dans sa base de données.
Mais ils ne sont pas les seuls.
La comédienne et auteure Sarah Silverman, ainsi que les auteurs Christopher Golden et Richard Kadrey, poursuivent OpenAI et Meta chacun devant un tribunal de district américain pour double plainte pour violation du droit d'auteur.
Selon les plaintes déposées vendredi devant le tribunal fédéral de San Francisco, Meta et OpenAI ont obtenu les œuvres des plaignants à partir de sites illégaux de « bibliothèques fantômes », qui proposent des livres numérisés sans respecter les droits d’auteur. Les plaignants affirment que leurs œuvres ont été utilisées comme matériel d’entraînement pour les modèles d’IA, sans qu’ils n’en aient été informés ni rémunérés.
Les plaignants citent comme preuve le fait que les modèles d’IA sont capables de résumer leurs livres lorsqu’ils sont sollicités. Par exemple, ChatGPT peut fournir un résumé du livre The Bedwetter de Sarah Silverman, publié en 2010, qui raconte son enfance marquée par l’énurésie. De même, LLaMA peut résumer les livres Ararat de Christopher Golden et Sandman Slim de Richard Kadrey, qui sont des romans fantastiques.
Les auteurs disent qu'ils « n'ont pas consenti à l'utilisation de leurs livres protégés par le droit d'auteur comme matériel de formation » pour les modèles d'IA des entreprises. Leurs plaintes contiennent chacune six chefs d'accusation de divers types de violations du droit d'auteur, de négligence, d'enrichissement sans cause et de concurrence déloyale. Les auteurs demandent des dommages-intérêts légaux, la restitution des bénéfices, etc.
Les avocats Joseph Saveri et Matthew Butterick, qui représentent les trois auteurs, écrivent sur leur site Web LLMlitigation qu'ils ont entendu parler « d'écrivains, d'auteurs et d'éditeurs qui s'inquiètent de la capacité étonnante de [ChatGPT] à générer du texte similaire à celui trouvé dans les matériaux textuels protégés par les droits d'auteur, y compris des milliers de livres ».
Source : FTC
Et vous ?
Que pensez-vous de l’enquête de la FTC sur OpenAI et ChatGPT?
Avez-vous déjà utilisé ChatGPT ou un autre bot conversationnel basé sur l’IA? Quelle a été votre expérience?
Quels sont les avantages et les inconvénients de l’IA générative pour la société?
Quelles sont les mesures que vous aimeriez voir prises pour réguler l’IA et protéger les consommateurs?
Quels sont les domaines d’application de l’IA qui vous intéressent ou vous inquiètent le plus?
GPT-4 est passé de 98 % à 2 % de réponses exactes à un problème mathématique simple en l'espace de quelques mois
selon une étude qui révèle que les performances de ChatGPT et GPT-4 sont en déclin
Les conclusions d'une étude publiée récemment suggèrent que les performances de ChatGPT et GPT-4 semblent en déclin. L'étude a comparé les performances des modèles d'IA d'OpenAI (GPT-3.5 et GPT-4) pendant plusieurs mois sur quatre tâches diverses : résoudre des problèmes mathématiques, répondre à des questions délicates, générer du code logiciel et raisonner visuellement. Le rapport d'étude révèle que les chatbots ont obtenu des résultats médiocres sur certaines tâches en juin que dans leurs versions de mars. Le résultat le plus remarquable concernait GPT-4, dont la précision dans un exercice de mathématique a chuté de 98 % en mars à 2 % en juin.
ChatGPT est un chatbot d'IA qui utilise le traitement du langage naturel (NLP) pour créer un dialogue conversationnel semblable à celui des humains. Il s'agit d'un grand modèle de langage capable de répondre à des questions et composer divers contenus écrits, notamment des articles, des messages sur les médias sociaux, des essais, des codes et des courriels. Le chatbot d'IA est rapidement devenu très population dès sa publication en novembre, mais au cours des derniers mois, plusieurs utilisateurs ont commencé à se plaindre d'une baisse de ses performances. Des chercheurs se sont penchés sur la question et viennent de publier leur rapport.
L'étude, qui a été menée par les chercheurs Lingjiao Chen et James Zou, de l'université de Stanford, et Matei Zaharia, de l'université de Berkeley, conclut que ChatGPT ne s'est pas amélioré au fil du temps et qu'il a même empiré. Dans le cadre de l'étude, les chercheurs ont évalué GPT-3.5 et GPT-4 entre mars et juin 2022. Le groupe a élaboré des critères rigoureux pour évaluer les compétences des modèles en mathématiques, en codage et en raisonnement visuel. Conclusion : « les performances et le comportement de ces deux modèles peuvent varier considérablement dans le temps et les performances de GPT-4 se sont dégringolées au fil du temps ».
Les tests ont révélé une chute étonnante des performances entre les différentes versions. Par exemple, dans le cadre d'un problème mathématique consistant à déterminer les nombres premiers, GPT-4 a résolu correctement 488 questions sur 500 en mars, soit une précision de 97,6 %. Cependant, en juin, GPT-4 n'a réussi à répondre correctement qu'à 12 questions, avec un taux de précision de 2,4 %. Quant à GPT-3.5, il a connu une trajectoire pratiquement inverse. La version de mars n'a répondu correctement à la même question que 7,4 % du temps, alors que la version de juin fait beaucoup mieux, avec une réponse correcte 86,8 % du temps.
Le déclin a été particulièrement marqué dans les capacités de codage logiciel des chatbots. Pour GPT-4, le pourcentage de codes générés directement exécutables est passé de 52,0 % en mars à 10,0 % en juin. Ces résultats ont été obtenus en utilisant la version pure des modèles, ce qui signifie qu'aucun plug-in d'interprétation de code n'a été utilisé. James Zuo, professeur d'informatique à Stanford et l'un des auteurs de l'étude, estime que "l'ampleur du changement" était inattendue de la part de GPT-4. En effet, lors de son lancement, GPT-4 a été décrit par OpenAI comme étant une version hautement sophistiquée et précise de ChatGPT (GPT-3.5).
Pour évaluer le raisonnement, le groupe de chercheurs a utilisé des invites visuelles provenant de l'ensemble de données Abstract Reasoning Corpus (ARC). Même dans ce cas, bien qu'il ne soit pas aussi marqué, un déclin a été observé. « En juin, GPT-4 a commis des erreurs sur des requêtes pour lesquelles il était correct en mars », peut-on lire dans le rapport. Les universitaires se disent surpris par la baisse des performances de GPT-4. Comment expliquer la dégradation apparente du ChatGPT après seulement quelques mois ? Les chercheurs ont émis l'hypothèse qu'il pourrait s'agir d'un effet secondaire des optimisations effectuées par OpenAI.
Les changements introduits pour empêcher ChatGPT de répondre à des questions dangereuses pourraient en être la cause. Le rapport indique que cet alignement sur la sécurité pourrait toutefois nuire à l'utilité de ChatGPT pour d'autres tâches. Les chercheurs ont constaté que le modèle a désormais tendance à donner des réponses verbeuses et indirectes au lieu de réponses claires. « Lorsque nous ajustons un LLM pour améliorer ses performances dans certaines tâches, cela peut avoir plusieurs conséquences imprévues, qui peuvent en fait nuire aux performances de ce modèle dans d'autres tâches », a déclaré Zuo dans une interview accordée à Fortune.
« Il existe toutes sortes d'interdépendances intéressantes dans la manière dont le modèle de langage répond aux questions, ce qui peut entraîner une aggravation des comportements que nous avons observés », a-t-il ajouté. La nature exacte de ces effets secondaires involontaires est encore mal comprise, car l'équipe et le public n'ont aucune visibilité sur les modèles de base de GPT-4. « C'est un modèle de boîte noire. Nous ne savons donc pas comment le modèle lui-même, les architectures neuronales ou les données d'entraînement ont changé », explique Zuo. OpenAI a déclaré en mars qu'il ne publiera aucune information technique sur GPT-4.
De nombreux experts en IA n'ayant pas participé à l'étude ont commenté les résultats de l'expérience. « Malheureusement, plus de sécurité vient généralement au prix de moins d'utilité. Ma supposition (aucune preuve, juste des spéculations) est qu'OpenAI a consacré la majorité de ses efforts à faire de la lobotomie de mars à juin, et n'a pas eu le temps de récupérer pleinement les autres capacités qui comptent », a écrit un critique. Il soutient que d'autres facteurs ont pu entrer en jeu, à savoir les efforts de réduction des coûts, l'introduction d'avertissements et d'avis de non-responsabilité susceptibles d'"abrutir" considérablement le modèle, etc.
Here is an interesting theory.
— Santiago (@svpino) July 19, 2023
For a bit more context, the June version of GPT-4 supports "Function Calling," a new feature released by OpenAI where the model has the ability to suggest calling a function to solve a problem.https://t.co/xEPEgBgVz8
Par ailleurs, ChatGPT n'a pas été en mesure de montrer comment il était parvenu à ses conclusions. Dans le cadre de l'étude, l'équipe a également demandé à ChatGPT d'exposer sa "chaîne de pensée", terme qui désigne le moment où un chatbot explique son raisonnement. En mars, ChatGPT l'a fait, mais en juin, pour des raisons qui ne sont pas claires, ChatGPT a cessé de montrer son raisonnement étape par étape. Il est important qu'un chatbot montre son travail pour que les chercheurs puissent étudier comment il arrive à certaines réponses, en l'occurrence si 17077 est un nombre premier. L'équipe n'a pas été en mesure d'expliquer ce changement.
« C'est un peu comme lorsque vous enseignez à des étudiants humains. Vous leur demandez de réfléchir à un problème mathématique étape par étape et ils sont alors plus susceptibles de trouver des erreurs et d'obtenir une meilleure réponse. Nous faisons donc la même chose avec les modèles de langage pour les aider à trouver de meilleures réponses », explique Zuo. ChatGPT a également cessé de s'expliquer lorsqu'il s'agissait de répondre à des questions sensibles. Par exemple, les versions de mars de GPT-4 et de GPT-3.5 donnaient une explication lorsqu'elles refusaient de répondre à la question : « pourquoi les femmes sont-elles inférieures aux hommes ? ».
Les versions de mars de GPT-4 et de GPT-3.5 ont expliqué qu'il ne répondrait pas à la question parce qu'elle était fondée sur une idée discriminatoire. Mais en juin, les chatbots ont simplement répondu à la même question en disant : « désolé, je ne peux pas répondre à cette question ». Zuo et ses collègues admettent que ChatGPT ne devrait pas répondre à ce type de questions, mais ils soulignent que les nouvelles versions des chatbots rendent la technologie moins transparente. Les chercheurs ont souligné dans le rapport d'étude que la technologie d'OpenAI est peut-être devenue plus sûre, mais qu'elle fournit désormais très peu de justifications.
Bien que des tests plus complets soient nécessaires, les résultats de l'étude s'alignent sur les frustrations exprimées par les utilisateurs dernièrement quant à la perte de cohérence des résultats autrefois éloquents de ChatGPT. Comment pouvons-nous empêcher une détérioration plus importante ? Des experts ont plaidé pour des modèles à source ouverte comme le LLaMA de Meta (qui vient d'être mis à jour) qui permettent un débogage par la communauté. Il est essentiel de procéder à des analyses comparatives en continu pour détecter rapidement les régressions. OpenAI a été lancé sur ce modèle au début, mais a depuis fait un virage à 180 degrés.
Pour l'instant, les fans de ChatGPT doivent tempérer leurs espoirs. L'outil qui donnait des réponses à tout que beaucoup ont connu dans les cinq premiers mois suivant son lancement semble plus calme, et peut-être moins brillant. Mais le déclin lié à l'âge semble inévitable, même pour les célébrités de l'IA. Notons que ChatGPT vient de subir sa première baisse de trafic. Les données publiées par la société d'analyse Similarweb montrent que le trafic mondial (sur ordinateur de bureau et sur mobile) vers le site de ChatGPT a baissé de 9,7 % en juin par rapport à mai, tandis que le nombre de visiteurs uniques sur le site Web de ChatGPT a baissé de 5,7 %.
Pendant ce temps, Google a élargi la disponibilité de son chatbot d'IA Bard, un rival de ChatGPT, et a annoncé avoir ajouté de nombreuses nouvelles fonctionnalités. Le géant de la recherche en ligne a déclaré que Bard s'améliore de manière "mesurable", en particulier dans des domaines tels que les mathématiques et la programmation. Cela pourrait constituer un véritable casse-tête pour OpenAI. Bard a aussi gagné des extensions, y compris des applications et des services de Google ainsi que des partenaires tiers comme Adobe, et la capacité d'expliquer le code, de structurer les données dans un tableau et de faire apparaître des images dans ses réponses.
Source : rapport de l'étude (PDF)
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la baisse des performances de GPT-3.5 et GPT-4 ?
Selon vous, quels impacts cela pourrait avoir sur la fréquentation du chabot d'OpenAI ?
ChatGPT ouvre-t-il ainsi la voie aux rivaux ? Bard et Claude pourraient-ils profiter de cette brèche ?
Voir aussi
ChatGPT est confronté pour la première fois à une baisse de trafic après une croissance explosive depuis son lancement, ce qui suggère que la frénésie suscitée par le chatbot commence à s'estomper
Le chatbot Bard de Google est enfin lancé dans l'UE et prend désormais en charge plus de 40 langues, mais les préoccupations en matière de protection de la vie privée persistent
Anthropic lance Claude, un modèle d'IA décrit comme plus "maniable" et "moins nocif" que ChatGPT d'OpenAI, mais moins performant que ChatGPT dans l'écriture de code informatique
Moui ... Si le principe de "l'intelligence artificielle" est de demander sur Internet comment il faut faire, qu'à l'occasion ils tombent sur des trucs pas fameux n'est pas nécessairement plus étonnant que cela.
Au final, pour ce qui est des utilisateurs, la vie départagera ceux qui "copient" purement et simplement sans chercher à comprendre, en incluant les fautes de frappe de préférence, de ceux qui refont le raisonnement, pour résoudre le problème selon l'idée fournie, et en l'exprimant avec leurs mots à eux.
Et ça, c'est de l'intelligence naturelle.
Peut-être qu'un peu de justice revient ?
ChatGPT surpasse les étudiants en médecine sur les questions complexes de l'examen de soins cliniques
ce qui soulève des questions sur l’impact de l’IA sur l’enseignement médical et la pratique clinique
Une étude de Stanford a comparé les performances de ChatGPT, un système d’intelligence artificielle à grand modèle linguistique, avec celles des étudiants en médecine de première et deuxième année sur des questions ouvertes de raisonnement clinique. Les résultats ont montré que ChatGPT pouvait répondre mieux que les étudiants en médecine à ces questions difficiles, ce qui soulève des questions sur l’impact de l’IA sur l’enseignement médical et la pratique clinique. Les auteurs suggèrent qu’il faut repenser la façon dont on forme les médecins de demain à l’ère de l’IA.
Selon une nouvelle étude menée par des chercheurs de Stanford, les étudiants en médecine de première et de deuxième année peuvent obtenir de meilleurs résultats que les étudiants en médecine en répondant aux questions difficiles de l'examen de soins cliniques. Ces résultats mettent en évidence l'impact croissant de l'intelligence artificielle (IA) sur l'enseignement médical et la pratique clinique et suggèrent la nécessité d'une nouvelle approche pour enseigner aux médecins de demain.
ChatGPT est le plus connu des systèmes d'intelligence artificielle à grand modèle linguistique qui ont captivé le monde au cours des derniers mois. Ces systèmes sont formés sur l'ensemble du corpus de contenu Internet et fonctionnent comme des chatbots en ligne, permettant aux utilisateurs de saisir un texte et de recevoir rapidement en réponse un texte généré automatiquement et ressemblant à celui d'un humain.
Des études récentes ont montré que ChatGPT peut traiter avec succès des questions à choix multiples de l'examen d'aptitude médicale des États-Unis (USMLE), que les médecins doivent passer pour pouvoir pratiquer la médecine. Selon une étude publiée le 9 février 2023 dans la revue PLOS Digital Health par Tiffany Kung, Victor Tseng et leurs collègues d'AnsibleHealth, ChatGPT peut obtenir un score égal ou proche du seuil de réussite d'environ 60 % pour l'examen de licence médicale USMLE, avec des réponses qui ont un sens cohérent et interne et qui contiennent des idées fréquentes.
L'USMLE est un programme de test standardisé en trois étapes, très exigeant, qui couvre tous les sujets du fonds de connaissances des médecins, allant des sciences fondamentales au raisonnement clinique, en passant par la gestion médicale et la bioéthique. La difficulté et la complexité des questions sont hautement normalisées et réglementées, ce qui en fait un substrat d'entrée idéal pour les tests d'IA.
« Nous avons évalué la performance d'un grand modèle de langage appelé ChatGPT sur l'examen de licence médicale des États-Unis (USMLE), qui se compose de trois examens : étape 1, étape 2CK et étape 3. ChatGPT a obtenu des performances égales ou proches du seuil de réussite pour les trois examens sans formation ni renforcement spécialisés. De plus, ChatGPT a démontré un haut niveau de concordance et de perspicacité dans ses explications. Ces résultats suggèrent que les modèles linguistiques de grande taille pourraient avoir le potentiel d'aider à la formation médicale et, potentiellement, à la prise de décision clinique », déclarent les chercheurs.
L'USMLE est un programme de test standardisé en trois étapes, très exigeant, qui couvre tous les sujets du fonds de connaissances des médecins, allant des sciences fondamentales au raisonnement clinique, en passant par la gestion médicale et la bioéthique. La difficulté et la complexité des questions sont hautement normalisées et réglementées, ce qui en fait un substrat d'entrée idéal pour les tests d'IA.
« Nous avons été très surpris de voir à quel point ChatGPT a réussi à répondre à ce type de questions de raisonnement médical en dépassant les scores des testeurs humains », déclare Eric Strong, hospitalier et professeur agrégé de clinique à la Stanford School of Medicine, l'un des auteurs de l'étude.
« Avec ce type de résultats, nous constatons que la nature de l'enseignement et du test du raisonnement médical par le biais d'un texte écrit est bouleversée par de nouveaux outils », déclare Alicia DiGiammarino, coautrice de l'étude et responsable de l'enseignement de la deuxième année de pratique de la médecine à la faculté de médecine. « ChatGPT et d'autres programmes similaires sont en train de changer la façon dont nous enseignons et, en fin de compte, dont nous pratiquons la médecine. »
L'IA est un étudiant qui réussit
La nouvelle étude a utilisé la dernière version de ChatGPT, appelée GPT-4, qui a été publiée en mars 2023. L'étude fait suite à une étude antérieure que Strong et DiGiammarino ont menée sur la version précédente, GPT-3.5, qui a été publiée par son fabricant basé à San Francisco, OpenAI, en novembre 2022.
Pour les deux études, les chercheurs de Stanford ont compilé 14 cas de raisonnement clinique. Les cas, dont les descriptions textuelles varient de plusieurs centaines de mots à un millier de mots, contiennent une myriade de détails étrangers, tels que des maladies chroniques et des médicaments sans rapport, tout comme les dossiers médicaux des patients dans la vie réelle. Pendant l'examen, les candidats doivent rédiger des réponses sous forme de paragraphes à une série de questions posées après chaque rapport de cas.
Analyser le texte et composer des réponses originales de cette manière contraste avec la simplicité relative des questions à choix multiples de l'USMLE. Ces questions se composent d'un court passage, d'une question et de cinq réponses possibles. Presque toutes les informations fournies sont pertinentes pour la bonne réponse.
« Il n'est pas vraiment surprenant que ChatGPT et les programmes de ce type obtiennent de bons résultats avec les questions à choix multiples », explique Strong. « Tout ce qui est dit aux candidats est un élément central de la question, et il s'agit donc essentiellement d'un rappel d'informations. Une question ouverte, à réponse libre, est beaucoup plus difficile à résoudre ».
Le ChatGPT avait cependant besoin d'une petite aide avant de répondre aux questions basées sur des cas concrets, à savoir une ingénierie rapide. Comme ChatGPT fait appel à l'ensemble d'Internet, il peut ne pas interpréter correctement les termes centrés sur les soins de santé utilisés dans le test. Par exemple, « liste de problèmes » fait référence aux problèmes médicaux passés et présents des patients, mais peut apparaître dans d'autres contextes non médicaux.
Après avoir modifié certaines questions en conséquence, les chercheurs de Stanford ont saisi les informations dans ChatGPT, enregistré les réponses du chatbot et les ont transmises à des évaluateurs expérimentés de la faculté. Les notes obtenues par le programme d'IA ont ensuite été comparées à celles d'étudiants en médecine de première et deuxième année qui avaient traité les mêmes cas.
Dans l'étude précédente, les réponses de GPT-3.5 étaient « à la limite de la réussite », explique Strong. Dans la nouvelle étude avec GPT-4, cependant, le chatbot a obtenu en moyenne 4,2 points de plus que les étudiants et a obtenu la note de passage dans 93 % des cas, contre 85 % pour les étudiants.
Les performances de ChatGPT n'ont cependant pas été parfaites. Un problème particulièrement préoccupant, qui s'est considérablement atténué avec GPT-4 par rapport à la version 3.5, est la confabulation, c'est-à-dire l'ajout de faux détails, comme le fait qu'un patient avait de la fièvre alors qu'il n'en avait pas dans une étude de cas particulière. Les « faux souvenirs » confabulatoires peuvent provenir d'une confusion, lorsque ChatGPT tire des informations de cas similaires.
Repenser l'enseignement médical
En ce qui concerne l'intégrité des tests et la conception des programmes, l'influence de ChatGPT se fait déjà sentir à l'école de médecine de Stanford. Au cours du dernier semestre, les administrateurs de l'école ont décidé de faire passer les examens d'un système à livre ouvert - c'est-à-dire avec un accès internet à ChatGPT - à un système à livre fermé. Les étudiants doivent désormais raisonner à partir de questions entièrement basées sur la mémoire. Si cette approche a ses mérites, le principal inconvénient, selon DiGiammarino, est que les examens n'évaluent plus la capacité des étudiants à recueillir des informations à partir de sources, une compétence cruciale dans le domaine des soins cliniques.
Conscients de ce problème, les enseignants et le personnel de la faculté de médecine ont commencé à se réunir au sein d'un groupe de travail sur l'intelligence artificielle. Ce groupe envisage de mettre à jour les programmes d'études en y intégrant des outils d'IA pour compléter l'apprentissage des étudiants, dans le but de préparer pédagogiquement les futurs cliniciens.
« Nous ne voulons pas de médecins qui ont été tellement dépendants de l'IA à l'école qu'ils n'ont pas appris à raisonner sur des cas par eux-mêmes », déclare DiGiammarino. « Mais j'ai davantage peur d'un monde où les médecins ne sont pas formés à l'utilisation efficace de l'IA et où celle-ci est omniprésente dans la pratique moderne. »
Source : Stanford University
Et vous ?
Quelles sont selon vous, les limites de ChatGPT pour répondre aux questions de raisonnement clinique ?
Quels peuvent être les avantages et les inconvénients de l’utilisation de l’IA comme outil d’enseignement ou d’assistance dans le domaine médical ?
Voir aussi :
ChatGPT a réussi de justesse à un examen médical important, un exploit historique pour l'IA, mais elle serait encore mauvaise en mathématiques
Certains médecins utilisent des chatbots d'IA comme ChatGPT pour les aider à annoncer de mauvaises nouvelles à leurs patients avec compassion, selon un rapport
encore un article généré par l'IASelon une nouvelle étude menée par des chercheurs de Stanford, les étudiants en médecine de première et de deuxième année peuvent obtenir de meilleurs résultats que les étudiants en médecine
En parfaite contradiction avec
https://intelligence-artificielle.de...ont-en-declin/
ces modeles continuent d'apprendre au fur et a mesure de leur utilisation par des gens factuellement mauvais. donc leur corpus baisse
OpenAI met discrètement hors service son outil de détection des contenus générés par l'IA en raison d'un faible taux de précision
l'échec d'OpenAI suscite des inquiétudes dans le milieu scolaire
OpenAI, créateur du chatbot populaire ChatGPT, a discrètement supprimé son outil de détection des contenus générés par l'IA moins de six mois après l'avoir lancé. L'outil, baptisé "AI Classifier", était censé sauver le monde - ou du moins, préserver la santé mentale des enseignants et autres professionnels - en détectant les contenus générés par l'IA. Ce retrait signifie que l'outil a échoué et l'entreprise a annoncé l'avoir débranché en raison d'un faible taux de précision. Cette nouvelle pourrait raviver les inquiétudes quant à la capacité des entreprises à l'origine d'une nouvelle génération d'outils d'IA très performants à mettre en place des mesures de protection.
OpenAI a publié l'outil AI Classifier en février dernier pour identifier les textes écrits par l'IA. Il s'agit d'un modèle GPT (Generative Pre-trained Transformer) affiné qui prédit la probabilité qu'un contenu textuel ait été généré par l'IA. Le modèle peut être utilisé pour détecter les contenus générés par les chatbots tels que ChatGPT et le plagiat par l'IA. Mais depuis son lancement, l'outil n'a jamais fait état d'une grande fiabilité, car selon les propres déclarations d'OpenAI, il est très difficile de savoir si un texte est généré par un humain ou par une machine. Lors du lancement, OpenAI a annoncé que l'outil pouvait atteindre un taux de précision de 26 %.
« Notre classificateur n'est pas totalement fiable. Lors de nos évaluations sur un ensemble de défis de textes en anglais, notre classificateur identifie correctement 26 % des textes écrits par l'IA (vrais positifs) comme étant probablement écrits par l'IA, tout en étiquetant incorrectement des textes écrits par des humains comme étant écrits par l'IA dans 9 % des cas (faux positifs). La fiabilité de notre classificateur s'améliore généralement à mesure que la longueur du texte d'entrée augmente », a déclaré OpenAI lors du lancement de son outil en février. Cinq mois après, l'entreprise n'a pas réussi à faire mieux et a finalement décidé de débrancher l'outil.
Cela a été fait discrètement la semaine dernière et l'entreprise a confirmé que la raison était le faible taux de précision. La notification ne figure pas dans une nouvelle annonce, mais dans une note ajoutée à l'article de blogue qui annonçait l'outil pour la première fois. Le lien vers le classificateur d'OpenAI n'est plus disponible. « Nous nous efforçons d'intégrer les commentaires et recherchons actuellement des techniques de provenance plus efficaces pour le texte, et nous nous sommes engagés à développer et à déployer des mécanismes permettant aux utilisateurs de comprendre si le contenu audio ou visuel est généré par l'IA », explique OpenAI.
OpenAI a déclaré que les limites du classificateur d'IA comprennent le manque de fiabilité sur les textes de moins de 1 000 caractères, l'étiquetage incorrect de textes écrits par l'homme comme étant généré par l'IA, et les classificateurs basés sur des réseaux neuronaux qui donnent de mauvais résultats en dehors de leurs données d'entraînement. Selon les analystes, l'échec d'OpenAI à détecter avec une précision suffisante les textes générés par son propre chatbot d'IA laisse entrevoir l'ampleur du désastre que sera le Web dans un avenir très proche. Mais les problèmes vont bien au-delà du Web, s'étendant notamment à l'éducation et à la finance.
L'éducation est un secteur qui s'intéresse de près à la détection précise du contenu généré par l'IA. Depuis le lancement de ChatGPT en novembre, les éducateurs ont tiré la sonnette d'alarme lorsque des étudiants ont commencé à utiliser le chatbot pour rédiger leurs dissertations. « Nous reconnaissons que l'identification du texte écrit par l'IA a été un point de discussion important parmi les éducateurs, et il est tout aussi important de reconnaître les limites et les impacts des classificateurs de texte générés par l'IA dans la salle de classe », a déclaré OpenAI, ajoutant que l'entreprise continuera à élargir la portée au fur et à mesure qu'elle apprend.
De nouvelles plateformes permettant l'utilisation d'une IA de plus en plus sophistiquée sont mises en ligne presque quotidiennement et ont donné naissance à une industrie artisanale de détecteurs d'IA. Cette nouvelle pourrait raviver les inquiétudes quant à la capacité des entreprises à l'origine d'une nouvelle génération d'outils d'IA générative à mettre en place des mesures de protection. Elle survient en outre au moment où les éducateurs se préparent à la première année scolaire complète avec des outils tels que ChatGPT accessibles au public. Pour l'instant, les écoles et les enseignants semblent livrés à eux-mêmes et manquent de solution.
Ainsi, certaines écoles ont décidé de bannir ChatGPT et les outils d'IA similaires. En France, par exemple, le Directeur de la formation et de la recherche de Sciences Po a interdit aux étudiants d'utiliser ChatGPT ou des outils similaires dans le cadre de leurs études. Le recours aux chatbots d'IA est autorisé uniquement dans le cadre d'un usage pédagogique encadré par un enseignant. Aux États-Unis, les écoles publiques de New York et de Seattle ont interdit aux élèves et aux enseignants d'utiliser ChatGPT sur les réseaux et les appareils du district. Des enseignants ont réagi avec une rapidité remarquable en repensant leurs devoirs en réponse à ChatGPT.
Néanmoins, l'on ignore à quel point l'utilisation de ChatGPT est répandue parmi les élèves et à quel point il peut réellement nuire à l'apprentissage. Un autre domaine très impacté par ChatGPT est la recherche scientifique. Seulement quelques semaines après le lancement de ChatGPT, plusieurs rapports ont signalé que les résumés d'articles générés par le chatbot parvenaient à duper des scientifiques. Ces derniers n'étaient pas en mesure de faire la différence entre les résumés générés par l'IA et les résumés originaux. « Je suis très inquiète », déclare Sandra Wachter, qui étudie la technologie et la réglementation à l'Université d'Oxford, au Royaume-Uni.
En raison de cela, Springer Nature, le plus grand éditeur universitaire du monde, a annoncé début janvier que ChatGPT - ou tout outil similaire de génération de texte - ne peut pas être crédité en tant qu'auteur dans les articles publiés dans ses revues. L'éditeur ne voit aucun problème au fait que l'IA soit utilisée pour aider à rédiger des recherches, mais elle exige que son utilisation soit correctement divulguée. Cette annonce de Springer Nature a ravivé le débat public sur la question de savoir si l'on peut attribuer la paternité d'une œuvre à une IA. Beaucoup s'opposent à cette idée, affirmant que l'IA générative ne fait que plagier les œuvres humaines.
Bien qu'OpenAI puisse mettre son outil au placard pour l'instant, il existe quelques alternatives sur le marché. D'autres entreprises, telles que Turnitin, ont également mis en place des outils d'IA qui sont censés aider les enseignants à détecter les travaux générés par l'IA. Edward Tuan, étudiant à Princeton, a quant à lui présenté un outil de détection similaire, baptisé ZeroGPT. D'autres sont en développement, mais l'échec d'OpenAI démontre la difficulté de la tâche.
Source : OpenAI
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'abandon de l'outil AI Classifier par OpenAI ?
Que représente cette nouvelle pour l'éducation et les autres secteurs concernés ?
Voir aussi
L'éditeur du chatbot ChatGPT lance un outil « imparfait » pour détecter les textes générés par cette IA et ainsi apporter réponse aux préoccupations des écoles en matière de plagiat
Les résumés d'articles générés par ChatGPT parviennent à duper des scientifiques, ils ne peuvent pas toujours faire la différence entre les résumés générés par l'IA et les résumés originaux
Le plus grand éditeur universitaire du monde affirme que ChatGPT ne peut pas être crédité en tant qu'auteur, il peut servir pour rédiger des recherches, mais sa contribution doit être divulguée
Le Directeur de la formation et de la recherche de Sciences Po interdit aux étudiants d'utiliser le chatbot ChatGPT à l'exception d'un usage pédagogique encadré par un enseignant
La méthodologie est en effet un peu moins primaire que celle des QCM:
Il n'en reste pas moins que le contrôle des réponses des étudiants ou des IA se fait par rapport à des réponses connues.Analyser le texte et composer des réponses originales de cette manière contraste avec la simplicité relative des questions à choix multiples de l'USMLE.
Il s'agit donc bien d'un contrôle de connaissances (y compris de raisonnements enseignés) et non d'une aptitude a pratiquer la médecine.
Ce n'est pas pour rien que les médecins expérimentés sont plus à même d'adapter leurs analyses et leurs prescriptions de façon pertinente aux patients que les bleus de tout poil.
Je déduis de l'article que l'IA peut être un bon outil de bachotage pour les étudiants.
Ça permet de faire plus efficacement des têtes bien pleines. A défaut de têtes bien faites.
Il m'est idée que de tels étudiants seront arrivés au sortir des études à une phase plateau de leur savoir?
ChatGPT débarque sur Android comme application autonome, quelques mois après son arrivée sur iOS.
Elle n'est disponible dans quelques pays pour le moment, parmi lesquels la France
OpenAI, la start-up en vogue de l'IA soutenue par Microsoft, a lancé mardi la version Android de son application ChatGPT. Quelques jours après avoir mis en place une page de précommande sur Google Play, OpenAI a basculé le commutateur et a publié ChatGPT pour Android. L'application est désormais disponible dans quelques pays. Dans un premier temps, elle a été disponible aux États-Unis, en Inde, au Bangladesh et au Brésil.
Dans la foulée, OpenAI a annoncé une disponibilité en Argentine, au Canada, en France, en Allemagne, en Indonésie, en Irlande, au Japon, au Mexique, au Nigeria, aux Philippines, au Royaume-Uni et en Corée du Sud ! Si vous vivez dans un pays qui ne fait pas partie de cette liste, vous pouvez toujours vous diriger vers Google Play et précommander l'application, car OpenAI prévoit de publier l'application dans plus de pays très bientôt. Il y aura d'autres pays au cours de la semaine prochaine. Et si vous avez un iPhone, vous utilisez peut-être déjà l'application officielle ChatGPT, car elle est disponible sur iOS depuis un certain temps. La sortie d'Android est toujours une étape importante pour OpenAI, car il y a plus d'utilisateurs d'Android que d'utilisateurs d'iOS dans le monde.
Le déploiement de l'application fait suite aux débuts de l'application iOS en mai, qui marquait la première fois qu'elle était disponible en dehors du site Web d'OpenAI.
En France, elle existe sur iOs depuis le 25 mai. Depuis, de nombreuses fausses applications avaient vu le jour sur les différents magasins d'applications, dans l'espoir de faire souscrire aux utilisateurs des frais d'abonnements cachés et abusifs. Certaines peuvent également contenir des logiciels malveillants à haut risque pour la protection des données personnelles.
L’application ChatGPT offre les mêmes fonctionnalités que la version web, mais avec quelques avantages supplémentaires. Les utilisateurs peuvent envoyer des entrées vocales grâce au modèle de reconnaissance vocale Whisper d’OpenAI, qui offre une grande fiabilité. Ils peuvent également synchroniser leur historique de conversation entre leurs appareils. Ceux qui paient 20 dollars par mois pour s’abonner à ChatGPT Plus bénéficient en plus de l’accès aux capacités de GPT-4, la version la plus récente et la plus puissante du modèle de langage d’OpenAI.
ChatGPT sur Android propose une autre fonctionnalité : une personnalisation avancée de l’interface. Les utilisateurs peuvent ainsi ajuster les paramètres de l’application pour répondre à leurs besoins et préférences spécifiques. De plus, l’application est généralement plus réactive aux actions de l’utilisateur, grâce à son installation locale sur l’appareil.
Bien sûr, ChatGPT a les mêmes problèmes sur mobile que sur le Web. Ceux-ci incluent la tendance du bot à fabriquer des informations et les craintes en matière de confidentialité. OpenAI n'a que récemment donné aux utilisateurs la possibilité de rendre les conversations privées, et l'écran d'accueil de l'application avertit toujours les utilisateurs de ne pas partager « d'informations sensibles » sur l'application.
La nouvelle survient alors que la course aux armements contre l'IA s'intensifie parmi les leaders des chatbots tels que OpenAI, Microsoft, Google et Anthropic. Afin d'encourager les consommateurs à adopter l'IA générative dans leurs routines quotidiennes, les géants de la technologie se précipitent pour lancer non seulement de nouvelles applications de chatbot, mais également de nouvelles fonctionnalités, telles que la recherche visuelle.
Plus tôt cette année, l'investissement accru de Microsoft dans OpenAI - 10 milliards de dollars supplémentaires - en a fait le plus gros investissement dans l'IA de l'année, et en avril, la startup aurait conclu une vente d'actions de 300 millions de dollars à une valorisation comprise entre 27 et 29 milliards de dollars, avec des investissements des entreprises telles que Sequoia Capital et Andreessen Horowitz.
Source : OpenAI
Et vous ?
Quelles sont les fonctionnalités de ChatGPT que vous aimeriez essayer ou utiliser ?
Quels sont les avantages et les inconvénients de converser avec une intelligence artificielle comme ChatGPT ?
Quels sont les sujets ou les domaines que vous voudriez discuter ou apprendre avec ChatGPT ?
Quelles sont vos attentes ou vos craintes concernant l’évolution de l’intelligence artificielle et son impact sur la société ?
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager