IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #201
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 982
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 982
    Points : 207 858
    Points
    207 858
    Par défaut Noam Chomsky qualifie ChatGPT « d'outil de plagiat » et de « moyen d'éviter l'éducation »
    Noam Chomsky estime que ChatGPT est essentiellement « un outil high-tech de plagiat »,
    l'ancien professeur au MIT pense que ChatGPT apporte un « moyen d'éviter d'apprendre »

    ChatGPT est « essentiellement un outil high-tech de plagiat » et un « moyen d'éviter d'apprendre », selon le célèbre penseur et chercheur intellectuel américain Noam Chomsky, qui a également déclaré que l'utilisation par les étudiants de technologies de pointe est un signe que « le système éducatif ne fonctionne plus ». Chomsky a fait ces remarques sur la chaîne YouTube EduKitchen, où il a été invité à partager ses réflexions sur le ChatGPT d'OpenAI, un chatbot qui a pris d'assaut Internet depuis son introduction en novembre de l'année dernière.

    Noam Chomsky, né le 7 décembre 1928 à Philadelphie, est un linguiste américain. Professeur émérite de linguistique depuis 2002 au Massachusetts Institute of Technology, où il a enseigné depuis 1955, il fonde la linguistique générative.


    ChatGPT, le système qui comprend le langage naturel et répond en langage naturel, fait sensation depuis son lancement il y a moins de trois mois. Si vous l'avez essayé, vous vous êtes sûrement demandé ce qu'il va bientôt révolutionner (ou, selon le cas, ce qu'il va détruire). Parmi les premières victimes de ChatGPT, selon une opinion désormais commune, figurera une forme d'écriture que les générations ont développé en pratiquant tout au long de leur éducation. « L'essai, en particulier l'essai de premier cycle, est au centre de la pédagogie humaniste depuis des générations », expliquait d'ailleurs Stephen Marche dans The Atlantic. « C'est la façon dont nous enseignons aux enfants comment faire des recherches, penser et écrire. Toute cette tradition est sur le point d'être bouleversée de fond en comble ».

    Kevin Bryan, professeur agrégé à l'Université de Toronto, a tweeté avec étonnement à propos du chatbot d'OpenAI : « Vous ne pouvez plus donner d'examens/devoirs à faire à la maison… Même sur des questions spécifiques qui impliquent de combiner des connaissances dans plusieurs domaines, le chat OpenAI est franchement meilleur que le MBA moyen à ce stade. C'est franchement incroyable ». Ni les ingénieurs qui développent cette technologie, ni les éducateurs, ne se sont préparés aux retombées.

    Les outils de traitement du langage naturel pose aux sciences humaines universitaires toute une série de problèmes sans précédent. Des questions pratiques sont en jeu : les départements de sciences humaines jugent leurs étudiants de premier cycle sur la base de leurs essais. Ils donnent des doctorats sur la base de la composition d'une thèse. Que se passe-t-il lorsque les deux processus peuvent être considérablement automatisés ? Si ChatGPT devient instantanément capable de préparer un essai académique plausible sur un sujet donné, quel avenir pourrait-il y avoir pour l'essai académique lui-même ?

    Un « outil high-tech de plagiat »

    L'hôte de la chaîne YouTube EduKitchen pose plus ou moins cette même question à Noam Chomsky (un penseur sur lequel on peut compter pour des opinions sur l'éducation) dans l'interview ci-dessous.

    « Pendant des années, il y a eu des programmes qui ont aidé les professeurs à détecter les essais plagiés », souligne Chomsky. « Maintenant, ça va être plus difficile, parce que c'est plus facile de plagier. Mais c'est à peu près la seule contribution à l'éducation à laquelle je peux penser ». Il admet que les systèmes de type ChatGPT « peuvent avoir une certaine valeur pour quelque chose », mais que ce « quelque chose » n'est pas une évidence.

    Dans l'état actuel de la technologie pertinente, Chomsky considère l'utilisation de ChatGPT comme « essentiellement un outil high-tech de plagiat » et « un moyen d'éviter l'apprentissage ». Il compare son essor à celui du smartphone : de nombreux étudiants « sont assis là à discuter avec quelqu'un sur leur iPhone. Une façon de gérer cela est d'interdire les iPhones ; une autre façon de le faire est de rendre la classe intéressante ». Le fait que les étudiants utilisent instinctivement la haute technologie pour éviter d'apprendre est « un signe que le système éducatif est défaillant ». Si cela « n'attire pas les élèves, ne les intéresse pas, ne les interpelle pas, ne leur donne pas envie d'apprendre, ils trouveront des échappatoires », comme lui-même l'a fait en empruntant les notes d'un ami pour passer un cours de chimie ennuyeux à l'université sans y assister en 1945.


    Après avoir passé la majeure partie de sa carrière à enseigner au MIT, Chomsky a pris sa retraite en 2002 pour devenir un intellectuel public à plein temps. Robert Zaretsky, de l'Université de Houston, qui enseigne toujours, a récemment proposé sa propre vision plus sombre de ChatGPT et de l'éducation. « L'essai universitaire est mort il y a des années », soutient-il. « C'est un jeu de tasse dans lequel un étudiant m'envoie un fichier électronique qui, lorsqu'il est ouvert, renverse un fouillis de mots que l'expéditeur propose comme un papier fini » (auquel, vraisemblablement, la sortie d'un système d'apprentissage automatique serait en fait être de loin préférable). La plupart des « perturbations » technologiques laissent dans leur sillage des effets à la fois positifs et négatifs. Si l'essai universitaire est en effet irrécupérable, peut-être que ChatGPT entraînera enfin son remplacement par quelque chose de plus intéressant.

    Des réactions loin d'être linéaires

    À la suite de l'augmentation des cas de plagiat et du recours à ChatGPT par les étudiants pour leurs devoirs, en France, Sciences Po a interdit l'utilisation du chatbot fondé par OpenAI. L'Institut d'études politiques de Paris a déclaré que l'école avait envoyé un e-mail à tous les étudiants et professeurs annonçant l'interdiction de ChatGPT et de tous les autres outils basés sur l'IA à Sciences Po. « Sans référencement transparent, il est interdit aux étudiants d'utiliser le logiciel pour la production de tout travail écrit ou présentation, sauf à des fins de cours spécifiques, sous la supervision d'un responsable de cours », a déclaré Sciences Po, sans préciser comment il suivrait usage.

    En dehors de la France, certaines écoles publiques de New York et de Seattle ont également mis en œuvre l'interdiction tandis que certaines universités basées aux États-Unis se concentrent davantage sur les évaluations des devoirs que sur les essais écrits à la main et les examens oraux. Cependant, ce dernier ne peut toujours pas atténuer le problème du plagiat.

    Nom : aI.png
Affichages : 8299
Taille : 186,2 Ko

    L'approche de Mike Sharples

    Supposons que vous êtes professeur de pédagogie et que vous attribuez un essai sur les styles d'apprentissage. Un étudiant remet une dissertation avec le paragraphe d'ouverture suivant*:

    La construction des « styles d'apprentissage » est problématique parce qu'elle ne tient pas compte des processus par lesquels les styles d'apprentissage sont façonnés. Certains élèves peuvent développer un style d'apprentissage particulier parce qu'ils ont vécu des expériences particulières. D'autres pourraient développer un style d'apprentissage particulier en essayant de s'adapter à un environnement d'apprentissage qui n'était pas bien adapté à leurs besoins d'apprentissage. En fin de compte, nous devons comprendre les interactions entre les styles d'apprentissage et les facteurs environnementaux et personnels, et comment ceux-ci façonnent notre façon d'apprendre et les types d'apprentissage que nous vivons.
    Comment noteriez-vous l'étudiant si vous saviez qu'il ne l'avait pas entièrement écrit*? Parce que Mike Sharples, professeur au Royaume-Uni, a utilisé GPT-3 pour l'écrire. L'ensemble de l'essai, que Sharples considérait comme un niveau universitaire, est disponible en source.

    L'intention de Sharples était d'exhorter les éducateurs à « repenser l'enseignement et l'évaluation » à la lumière de la technologie, qui, selon lui, « pourrait devenir un cadeau pour les étudiants qui trichent, un puissant assistant pédagogique, ou alors un outil de créativité ».

    Il y a quelques mois, un étudiant néo-zélandais a avoué avoir utilisé l'IA pour rédiger ses devoirs, justifiant son recours à ChatGPT en le rangeant dans la même catégorie qu'un correcteur orthographique : « J'ai les connaissances, j'ai l'expérience vécue, je suis un bon élève, Je vais à tous les tutoriels et je vais à toutes les conférences et je lis tout ce que nous avons à lire, mais j'ai eu l'impression d'être pénalisé parce que je n'écris pas avec éloquence et je ne pensais pas que ce n'était pas bien », a-t-il déclaré à un journal étudiant à Christchurch. Il n'avait pas l'impression de tricher, car les directives des étudiants de leur université stipulent seulement que vous n'êtes pas autorisé à demander à quelqu'un d'autre de faire votre travail à votre place. GPT-3 n'est pas « quelqu'un d'autre »... c'est un programme.

    Conclusion

    Depuis son lancement, le chatbot développé par OpenAI a, entre autres, aidé un étudiant à réussir son examen universitaire en seulement 20 minutes, et le bot lui-même a réussi un examen dans une faculté de droit américaine. En Inde, une université basée à Bengaluru a interdit aux étudiants d'utiliser l'outil d'intelligence artificielle sur le campus, l'objectif étant de les empêcher de l'utiliser dans des activités académiques telles que des examens, des tests de laboratoire et des devoirs.

    Mike Sharples

    Source : vidéo dans le texte

    Et vous ?

    Que pensez-vous du point de vue de Noam Chomsky ?
    Si ChatGPT devient instantanément capable de préparer un essai académique plausible sur un sujet donné, quel avenir pourrait-il y avoir pour l'essai académique lui-même ?
    D'ailleurs, que pensez-vous de l'essai académique ?

  2. #202
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 089
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 089
    Points : 56 481
    Points
    56 481
    Par défaut Steve Wozniak, cofondateur d’Apple, estime que ChatGPT est assez impressionnant mais est faillible
    Steve Wozniak, cofondateur d’Apple, estime que ChatGPT est assez impressionnant mais tient à prévenir :
    « Cette intelligence artificielle peut faire d’horribles erreurs »

    Ce qu’on sait de cette IA de l’entreprise OpenAI est qu’il s’agit d’un chatbot capable de comprendre le langage naturel et de répondre en langage naturel. Certains le qualifient de remplaçant de Google étant donné qu’il est capable de donner de façon directe des solutions à des problèmes complexes. En cela, des observateurs le trouvent assez impressionnant et c’est le cas de Steve Wozniak – cofondateur d’Apple. Néanmoins, ce dernier tient à prévenir sur ceci que cette intelligence artificielle peut commettre de graves erreurs. Il rejoint ainsi des experts comme le professeur Arvind Narayanan de l’université de Princeton selon lequel ChatGPT c’est de « la poudre de perlimpinpin. »

    « Le problème est qu'il fait de bonnes choses pour nous, mais il peut faire d'horribles erreurs en ne sachant pas ce qu'est l'humanité », déclare-t-il lors d’un récent entretien. Steve Wozniak rejoint ainsi plusieurs observateurs.

    En effet, c’est une redite de l’avis de certains enseignants. Ethan Mollick en fait partie et a décidé d’opter pour une politique d’utilisation ouverte du chatbot ChatGPT. La raison : l'utilisation de l'intelligence artificielle est une compétence émergente. Il précise néanmoins au travers de cette dernière que l’intelligence artificielle peut se tromper. Les étudiants doivent donc vérifier les résultats qu’elle leur renvoie à l’aide d’autres et qu'ils seront responsables de toute erreur ou omission fournie par l'outil. De plus, les étudiants doivent faire preuve d’honnêteté intellectuelle en citant leur source (qui s’avère être ChatGPT) comme on le fait lors du montage d’une bibliographie. « Le manquement à cette obligation constitue une violation des politiques d'honnêteté académique », lit-on.

    Arvind Narayanan de l’université de Princeton est pour sa part d’avis que ChatGPT n’a rien de révolutionnaire :

    « Sayash Kapoor et moi-même l'appelons un générateur de conneries, comme d'autres l'ont aussi fait. Nous n'entendons pas cela dans un sens normatif mais dans un sens relativement précis. Nous voulons dire qu'il est entraîné à produire des textes plausibles. Il est très bon pour être persuasif, mais il n'est pas entraîné à produire des déclarations vraies. Il produit souvent des affirmations vraies comme effet secondaire de sa plausibilité et de sa persuasion, mais ce n'est pas son objectif.

    Cela correspond en fait à ce que le philosophe Harry Frankfurt a appelé connerie, c'est-à-dire un discours destiné à persuader sans se soucier de la vérité. Un conteur humain ne se soucie pas de savoir si ce qu'il dit est vrai ou non ; il a certaines fins en tête. Tant qu'il persuade, ces objectifs sont atteints. En fait, c'est ce que fait ChatGPT. Il essaie d'être persuasif et il n'a aucun moyen de savoir avec certitude si les déclarations qu'il fait sont vraies ou non. »


    Le tiers d’un récent sondage de la plateforme Study.com est d’avis qu’il faut empêcher les élèves d’en faire usage. 67 % du même échantillon (200 participants) pensent que ChatGPT ne doit pas être banni des écoles et des universités.

    Nom : 1.jpg
Affichages : 4834
Taille : 46,6 Ko

    La controverse au sujet de cette intelligence artificielle tient au moins sur l’observation évidente que ChatGPT peut faire office de complément à un moteur de recherche. Décider d’en interdire l’accès revient donc à faire pareil avec des plateformes sur lesquelles les étudiants sont aussi susceptibles de trouver des réponses à leurs évaluations : Wikipedia, Google, etc.

    ChatGPT divise même en dehors de la sphère de l’enseignement. Les écrivains ont peur de perdre leurs emplois en raison de la montée en puissance de cette intelligence artificielle. Des questionnements ont même cours dans la filière du génie logiciel quant à savoir à quel point des outils de ce type peuvent la transformer.

    Source : Interview

    Et vous ?

    ChatGPT : interdire ou s’adapter ? De quel bord êtes-vous ?
    Quel commentaire faites-vous de toute la médiatisation autour de cette IA (ChatGPT) et d’autres qui lui sont similaires ?

    Voir aussi :

    80 % des technologies pourraient être créées par des professionnels extérieurs à l'informatique d'ici 2024, grâce aux outils low-code, selon Gartner

    Forrester : l'utilisation des plateformes de développement low-code gagne du terrain dans les processus de transformation numérique des entreprises

    Le marché mondial des technologies de développement low-code va augmenter de 23 % en 2021, selon les prévisions de Gartner

    Microsoft lance Power Fx, un nouveau langage de programmation low-code open source basé sur Excel

  3. #203
    Membre confirmé
    Homme Profil pro
    Fondateur
    Inscrit en
    Octobre 2002
    Messages
    445
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 40
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Fondateur
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Octobre 2002
    Messages : 445
    Points : 504
    Points
    504
    Par défaut
    Une intelligence artificielle qui peut faire des erreurs ? Quelle surprise ! Merci, Steve.

  4. #204
    Membre confirmé
    Homme Profil pro
    Fondateur
    Inscrit en
    Octobre 2002
    Messages
    445
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 40
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Fondateur
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Octobre 2002
    Messages : 445
    Points : 504
    Points
    504
    Par défaut
    Google paie là son empressement. Le succès de ChatGPT a mis la pression sur le géant de la recherche en ligne qui souhaitait répondre au plus vite pour prouver aux investisseurs que Google était également dans la course à l'IA qui s'annonce pour les années à venir. Cela ne remet en rien en cause le possible succès de Bard dans le futur, mais cela montre qu'il faut se montrer plus patient plutôt que de surréagir comme l'a fait Google.

  5. #205
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 982
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 982
    Points : 207 858
    Points
    207 858
    Par défaut ChatGPT Plus fait ses débuts en France. La formule d'abonnement de ChatGPT apporte trois principaux avantages
    ChatGPT Plus fait ses débuts en France. La formule d'abonnement de ChatGPT apporte trois principaux avantages,
    en échange de 24 dollars par mois

    ChatGPT Plus fait ses débuts dans d'autres pays, parmi lesquels la France. Si l’abonnement est affiché à 20 dollars par mois au départ, il est en réalité de 24 dollars par mois si on prend en compte la TVA de 20%. ChatGPT Plus donne accès à quelques avantages, dont un accès au chatbot même lorsque le nombre d’utilisateurs est élevé. OpenAI évoque aussi un temps de réponse plus court.

    Depuis son lancement fin 2022, ChatGPT rencontre un succès fulgurant dans le monde. ChatGPT est devenue l'application à la croissance la plus rapide de l'histoire après avoir atteint 100 millions d'utilisateurs actifs mensuels, ou MAU, fin janvier, selon un rapport du géant bancaire suisse UBS. Le chatbot appartenant à OpenAI a dépassé les 100 millions de MAU un peu plus de deux mois après son lancement, battant confortablement les vitesses de croissance des principales applications comme TikTok et Instagram.

    Il a fallu neuf mois à TikTok pour atteindre le même niveau d'utilisateurs ; Instagram a pris deux ans et demi ; et Spotify n'a amassé que 100 millions de MAU après quatre ans et demi, selon le rapport, citant des données de la société d'analyse de données Similar Web.

    « En vingt ans après l'espace Internet, nous ne pouvons pas nous souvenir d'une montée en puissance plus rapide dans une application Internet grand public », ont écrit les analystes d'UBS dans le rapport.

    Le nombre de MAU sur ChatGPT a presque doublé depuis décembre, alors qu'il comptait environ 57 millions, selon le rapport. De plus, l'application comptait en moyenne 13 millions de visiteurs uniques quotidiens par jour à la fin du mois de janvier, contre environ six millions de vues uniques quotidiennes le mois précédent.

    « Nous ne pouvons pas nous souvenir d'une mise à l'échelle d'une application à ce rythme », ont ajouté les analystes d'UBS dans le rapport.

    Vient alors ChatGPT Plus, une offre payante

    Après avoir proposé ses services aux États-Unis, ChatGPT lance officiellement sa version payante en France. Baptisée ChatGPT Plus, cette version premium coûte tout de même 20 dollars par mois, un prix auquel il faut ajouter 4 dollars par mois pour la TVA. Le montant de la TVA n’est précisé que lors du passage à la caisse. De plus, le prix mensuel de l’abonnement est appelé à fluctuer tous les mois en fonction du cours de l’euro et du dollar. Dans ses conditions d’utilisation, OpenAI précise aussi s’octroyer le droit de revoir ses prix à l’avenir.

    Nom : chatgpt.png
Affichages : 7474
Taille : 51,4 Ko

    Quoi qu'il en soit, il n'est pas question pour OpenAI de mettre fin à l'offre gratuite. Pour inciter les utilisateurs à migrer sur sa formule payante, OpenAI lui a attribué certains avantages :
    • Tout d'abord, ChatGPT Plus a la priorité sur la version gratuite, vous n'aurez plus de contrainte de temps. Il faut dire que les utilisateurs gratuits sont régulièrement privés de ChatGPT à cause de la forte demande générée par le chatbot. Quand les serveurs sont surchargés, le service se trouve très souvent indisponible. En passant à l’abonnement payant, vous ne verrez plus jamais l’écran gris annonçant que ChatGPT est momentanément indisponible : OpenAI parle d'un « accès général à ChatGPT, même pendant les heures de pointe ».
    • OpenAI met également en exergue de meilleures performances. La start-up affirme que les réponses sont générées plus rapidement pour les abonnés de ChatGPT Plus : concrètement, le chatbot va répondre à vos questions en priorité et vous passerez devant les requêtes des autres utilisateurs (de la formule gratuite).
    • Enfin, les clients ChatGPT Plus obtiendront un accès prioritaire aux nouvelles fonctionnalités du chatbot. Les prochaines innovations de l’IA, comme le très attendu modèle GPT 4, seront vraisemblablement mises à disposition des abonnés en avant-première.

    Si vous êtes déjà un utilisateur de ChatGPT, vous n’avez qu’à vous connecter au service avec votre compte, et vous devriez voir s’afficher une invitation à passer à la version payante. Sinon, vous pouvez aussi cliquer sur le bouton Upgrade to Plus situé sur la barre latérale à gauche (sur ordinateur).

    Noam Chomsky estime que ChatGPT est essentiellement « un outil high-tech de plagiat »

    ChatGPT, le système qui comprend le langage naturel et répond en langage naturel, fait sensation depuis son lancement il y a moins de trois mois. Si vous l'avez essayé, vous vous êtes sûrement demandé ce qu'il va bientôt révolutionner (ou, selon le cas, ce qu'il va détruire). Parmi les premières victimes de ChatGPT, selon une opinion désormais commune, figurera une forme d'écriture que les générations ont développée en pratiquant tout au long de leur éducation. « L'essai, en particulier l'essai de premier cycle, est au centre de la pédagogie humaniste depuis des générations », expliquait d'ailleurs Stephen Marche dans The Atlantic. « C'est la façon dont nous enseignons aux enfants comment faire des recherches, penser et écrire. Toute cette tradition est sur le point d'être bouleversée de fond en comble ».

    Kevin Bryan, professeur agrégé à l'Université de Toronto, a tweeté avec étonnement à propos du chatbot d'OpenAI : « Vous ne pouvez plus donner d'examens/devoirs à faire à la maison… Même sur des questions spécifiques qui impliquent de combiner des connaissances dans plusieurs domaines, le chat OpenAI est franchement meilleur que le MBA moyen à ce stade. C'est franchement incroyable ». Ni les ingénieurs qui développent cette technologie ni les éducateurs ne se sont préparés aux retombées.

    Les outils de traitement du langage naturel posent aux sciences humaines universitaires toute une série de problèmes sans précédent. Des questions pratiques sont en jeu : les départements de sciences humaines jugent leurs étudiants de premier cycle sur la base de leurs essais. Ils donnent des doctorats sur la base de la composition d'une thèse. Que se passe-t-il lorsque les deux processus peuvent être considérablement automatisés ? Si ChatGPT devient instantanément capable de préparer un essai académique plausible sur un sujet donné, quel avenir pourrait-il y avoir pour l'essai académique lui-même ?

    L'hôte de la chaîne YouTube EduKitchen pose plus ou moins cette même question à Noam Chomsky (un penseur sur lequel on peut compter pour des opinions sur l'éducation) dans l'interview ci-dessous.

    « Pendant des années, il y a eu des programmes qui ont aidé les professeurs à détecter les essais plagiés », souligne Chomsky. « Maintenant, ça va être plus difficile, parce que c'est plus facile de plagier. Mais c'est à peu près la seule contribution à l'éducation à laquelle je peux penser ». Il admet que les systèmes de type ChatGPT « peuvent avoir une certaine valeur pour quelque chose », mais que ce « quelque chose » n'est pas une évidence.

    Dans l'état actuel de la technologie pertinente, Chomsky considère l'utilisation de ChatGPT comme « essentiellement un outil high-tech de plagiat » et « un moyen d'éviter l'apprentissage ». Il compare son essor à celui du smartphone : de nombreux étudiants « sont assis là à discuter avec quelqu'un sur leur iPhone. Une façon de gérer cela est d'interdire les iPhone ; une autre façon de le faire est de rendre la classe intéressante ». Le fait que les étudiants utilisent instinctivement la haute technologie pour éviter d'apprendre est « un signe que le système éducatif est défaillant ». Si cela « n'attire pas les élèves, ne les intéresse pas, ne les interpelle pas, ne leur donne pas envie d'apprendre, ils trouveront des échappatoires », comme lui-même l'a fait en empruntant les notes d'un ami pour passer un cours de chimie ennuyeux à l'université sans y assister en 1945.


    Après avoir passé la majeure partie de sa carrière à enseigner au MIT, Chomsky a pris sa retraite en 2002 pour devenir un intellectuel public à plein temps. Robert Zaretsky, de l'Université de Houston, qui enseigne toujours, a récemment proposé sa propre vision plus sombre de ChatGPT et de l'éducation. « L'essai universitaire est mort il y a des années », soutient-il. « C'est un jeu de tasse dans lequel un étudiant m'envoie un fichier électronique qui, lorsqu'il est ouvert, renverse un fouillis de mots que l'expéditeur propose comme un papier fini » (auquel, vraisemblablement, la sortie d'un système d'apprentissage automatique serait en fait être de loin préférable). La plupart des « perturbations » technologiques laissent dans leur sillage des effets à la fois positifs et négatifs. Si l'essai universitaire est en effet irrécupérable, peut-être que ChatGPT entraînera enfin son remplacement par quelque chose de plus intéressant.

    Source : OpenAI

    Et vous ?

    Allez-vous essayé ChatGPT Plus ?
    Les avantages proposés par cette formule sont-ils suffisants pour inciter les utilisateurs de la formule gratuite à franchir le pas ? Dans quelle mesure ?

  6. #206
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 707
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 707
    Points : 1 448
    Points
    1 448
    Billets dans le blog
    7
    Par défaut
    En tout cas cela est en train de devenir une source de maux de tête pour les professeurs pour les dissertations.

    D'après ce que j'ai lu, pour peu que vous fournissez des sources valables. L'IA est en mesure de rédiger l'ensemble des travaux universitaires.

  7. #207
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 948
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 948
    Points : 37 876
    Points
    37 876
    Par défaut ChatGPT a réussi de justesse à un examen médical important, un exploit historique pour l'IA
    ChatGPT a réussi de justesse à un examen médical important, un exploit historique pour l'IA,
    mais elle serait encore mauvaise en mathématiques

    Selon les chercheurs, ChatGPT est la première IA à obtenir un score de réussite à l'examen de licence médicale, mais elle serait toujours mauvaise en mathématiques. Selon une étude publiée le 9 février 2023 dans la revue PLOS Digital Health par Tiffany Kung, Victor Tseng et leurs collègues d'AnsibleHealth, ChatGPT peut obtenir un score égal ou proche du seuil de réussite d'environ 60 % pour l'examen de licence médicale des États-Unis (USMLE), avec des réponses qui ont un sens cohérent et interne et qui contiennent des idées fréquentes.

    L'USMLE est un programme de test standardisé en trois étapes, très exigeant, qui couvre tous les sujets du fonds de connaissances des médecins, allant des sciences fondamentales au raisonnement clinique, en passant par la gestion médicale et la bioéthique. La difficulté et la complexité des questions sont hautement normalisées et réglementées, ce qui en fait un substrat d'entrée idéal pour les tests d'IA.

    « Nous avons évalué la performance d'un grand modèle de langage appelé ChatGPT sur l'examen de licence médicale des États-Unis (USMLE), qui se compose de trois examens : Étape 1, Étape 2CK, et Étape 3. ChatGPT a obtenu des performances égales ou proches du seuil de réussite pour les trois examens sans formation ni renforcement spécialisés. De plus, ChatGPT a démontré un haut niveau de concordance et de perspicacité dans ses explications. Ces résultats suggèrent que les modèles linguistiques de grande taille pourraient avoir le potentiel d'aider à la formation médicale et, potentiellement, à la prise de décision clinique », déclarent les chercheurs.

    Nom : qcm.jpg
Affichages : 5639
Taille : 30,4 Ko

    Pour les étapes 1, 2CK et 3 de l'USMLE, les sorties de l'IA ont été jugées exactes, inexactes ou indéterminées sur la base du système de notation ACI fourni dans les données S2.
    A : Distribution de l'exactitude pour les entrées codées comme des questions ouvertes.
    B : Distribution de l'exactitude pour les entrées codées en tant que questions à choix multiples à réponse unique sans (MC-NJ) ou avec justification forcée (MC-J).


    Au cours de la dernière décennie, les progrès réalisés dans le domaine des réseaux neuronaux, de l'apprentissage profond et de l'intelligence artificielle (IA) ont transformé la façon dont nous abordons un large éventail de tâches et d'industries, allant de la fabrication et de la finance aux produits de consommation. La capacité de construire rapidement des modèles de classification très précis, quel que soit le type de données d'entrée (par exemple, images, texte, audio), a permis l'adoption généralisée d'applications telles que le marquage automatique d'objets et d'utilisateurs sur des photographies, la traduction de textes à un niveau quasi humain, la numérisation automatique dans les guichets automatiques bancaires et même la génération de légendes d'images.

    Qu'est-ce que ChatGPT et qui l’a créé ?

    ChatGPT est un grand modèle de langage général (LLM) développé récemment par OpenAI, une société d'intelligence artificielle basée à San Francisco, connue pour son célèbre DALL-E, un modèle d'apprentissage profond qui génère des images à partir d'instructions textuelles appelées "prompts".

    Alors que la classe précédente de modèles d'intelligence artificielle était principalement constituée de modèles d'apprentissage profond (Deep Learning, DL), conçus pour apprendre et reconnaître des modèles dans les données, les LLM sont un nouveau type d'algorithme d'intelligence artificielle formé pour prédire la probabilité d'une séquence de mots donnée en fonction du contexte des mots qui la précèdent.

    Ainsi, si les LLM sont formés sur des quantités suffisamment importantes de données textuelles, ils sont capables de générer de nouvelles séquences de mots jamais observées auparavant par le modèle, mais qui représentent des séquences plausibles basées sur le langage humain naturel.

    ChatGPT est alimenté par GPT3.5, un LLM entraîné sur le modèle OpenAI 175B parameter foundation et un grand corpus de données textuelles provenant d'Internet via des méthodes d'apprentissage par renforcement et supervisé. Une utilisation anecdotique indique que ChatGPT présente des preuves de raisonnement déductif et de chaîne de pensée, ainsi que des compétences de dépendance à long terme.

    Les personnes qui attendent impatiemment un robot médecin compétent devront peut-être attendre encore un peu. ChatGPT a pris le monde d'assaut depuis son lancement en novembre, avec son habileté à écrire des essais, des articles, des poèmes et du code informatique en quelques secondes seulement.

    Un groupe de chercheurs en intelligence artificielle d'AnsibleHealth a récemment mis le ChatGPT d'OpenAI à l'épreuve d'un important examen de licence médicale et les résultats sont là. Le chatbot IA a techniquement réussi, mais de justesse. Lorsqu'il s'agit d'examens médicaux, même la nouvelle IA la plus impressionnante n'obtient que des résultats de niveau D. Selon les chercheurs, ce résultat médiocre n'en est pas moins un exploit historique pour l'IA.

    Nom : Proto.jpg
Affichages : 3891
Taille : 43,7 Ko
    Schéma du flux de travail pour la recherche, la codification et l'évaluation des résultats


    Abréviations : QC = contrôle de qualité ; MCSA-NJ = réponse unique à choix multiple sans justification forcée ; MCSA-J = réponse unique à choix multiple avec justification forcée ; OE = format de question ouverte.

    Les chercheurs ont testé ChatGPT à l'examen USMLE (United States Medical Licensing Exam), une série standardisée de trois examens que doivent passer les médecins américains en vue d'obtenir une licence médicale. ChatGPT a réussi à obtenir des scores compris entre 52,4 % et 75 % pour les trois niveaux de l'examen. Ce n'est peut-être pas un résultat extraordinaire pour tous les surdoués, mais c'est à peu près équivalent au seuil de réussite de 60 % pour l'examen.

    Les chercheurs impliqués dans l'étude affirment que c'est la première fois que l'IA est capable d'atteindre ou d'approcher le seuil de réussite de cet examen notoirement difficile. Notamment, ChatGPT a dépassé les performances de PubMedGPT, un modèle équivalent formé exclusivement à la littérature du domaine biomédical, qui a obtenu un score de 50,8 % sur un ensemble de données plus anciennes de questions de type USMLE.

    ChatGPT utilisée par les élèves pour faire du plagiat

    À Lyon, un professeur a remarqué de curieuses similitudes dans les copies rendues par la moitié de ses étudiants ; il leur avait donné une semaine pour rédiger leurs devoirs. Si les mots différaient, leurs structures démonstratives et leurs exemples sont restés constamment les mêmes. C’est en se renseignant auprès de ses élèves que l’un d’eux a fini par avouer l’utilisation de ChatGPT dans la rédaction.

    À en croire des témoignages de professeurs d'université, les étudiants confient à ChatGPT la résolution de leurs devoirs de maison, particulièrement en dissertation. « Le monde universitaire n'a rien vu venir. Nous sommes donc pris au dépourvu », explique Darren Hudson Hick, professeur adjoint de philosophie à l'université Furman.

    « Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté. Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenues présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé.

    ChatGPT utilisée pour prendre une décision de justice

    Dans une affaire opposant une compagnie d’assurance maladie et l’un de ses clients, un juge, Juan Manuel Padilla Garcia, déclare s’être fait aider par le célèbre outil d’OpenAI, ChatGPT, pour prendre sa décision de justice. Padilla, qui a statué contre la compagnie d’assurance, a déclaré avoir posé à ChatGPT, entre autres, la question suivante : « Un mineur autiste est-il exonéré du paiement des frais de ses thérapies ? » La réponse de ChatGPT correspondait à la décision préalable du juge : « Oui, c'est exact. Selon la réglementation en vigueur en Colombie, les mineurs diagnostiqués autistes sont exonérés de frais pour leurs thérapies. »

    L'affaire concernait un différend avec une compagnie d'assurance maladie sur la question de savoir si un enfant autiste devait bénéficier d'une couverture pour un traitement médical. Selon le document du tribunal, les questions juridiques entrées dans l'outil d'IA comprenaient « Un mineur autiste est-il exonéré du paiement des frais pour ses thérapies ? » et « La jurisprudence de la cour constitutionnelle a-t-elle rendu des décisions favorables dans des cas similaires ? »

    ChatGPT n'a « pas pour but de remplacer » les juges, a précisé le juge. Padilla a insisté sur le fait qu' « en posant des questions à l'application, nous ne cessons pas d'être des juges, des êtres pensants. » « Je soupçonne que beaucoup de mes collègues vont se joindre à cela et commencer à construire leurs décisions de manière éthique avec l'aide de l'intelligence artificielle », a déclaré Padilla.

    L’application de l’IA dans le domaine des soins cliniques reste limitée

    Si ces technologies ont eu un impact important dans de nombreux secteurs, leurs applications dans le domaine des soins cliniques restent limitées. La prolifération des champs cliniques en texte libre, combinée à un manque d'interopérabilité générale entre les systèmes informatiques de santé, contribue à la rareté des données structurées et lisibles par machine nécessaires au développement d'algorithmes d'apprentissage profond.

    Même lorsque des algorithmes applicables aux soins cliniques sont développés, leur qualité tend à être très variable, et beaucoup d'entre eux ne parviennent pas à être généralisés à d'autres contextes en raison d'une reproductibilité technique, statistique et conceptuelle limitée. Par conséquent, l'écrasante majorité des applications de soins de santé réussies prennent actuellement en charge des fonctions d'arrière-guichet allant des opérations des payeurs au traitement automatisé des autorisations préalables, en passant par la gestion des chaînes d'approvisionnement et des menaces de cybersécurité.

    À de rares exceptions près - même dans le domaine de l'imagerie médicale - il existe relativement peu d'applications de l'IA directement utilisées dans les soins cliniques à grande échelle aujourd'hui.

    Le développement adéquat de modèles d'IA clinique exige beaucoup de temps, de ressources et, surtout, des données d'entraînement très spécifiques à un domaine ou à un problème, ce qui est rare dans le monde des soins de santé. L'une des principales évolutions qui a permis à l'IA basée sur l'image dans le domaine de l'imagerie clinique a été la capacité des grands modèles de domaine général à être aussi performants, voire plus performants, que les modèles spécifiques à un domaine.

    Cette évolution a catalysé une importante activité d'IA dans l'imagerie médicale, où il serait autrement difficile d'obtenir suffisamment d'images cliniques annotées. En effet, Inception-V3 sert aujourd'hui de base à un grand nombre des meilleurs modèles d'imagerie médicale actuellement publiés, de l'ophtalmologie à la pathologie en passant par la dermatologie.

    Codification

    Dans cette étude, les chercheurs ont évalué les performances de ChatGPT, un LLM non spécifique à un domaine, sur sa capacité à effectuer un raisonnement clinique en testant ses performances sur des questions de l'USMLE. Les questions ont été formatées en trois variantes et introduites dans ChatGPT dans l'ordre suivant :

    • Question ouverte : créé en supprimant tous les choix de réponse et en ajoutant une phrase interrogative d'introduction variable. Ce format simule une entrée libre et un modèle naturel de requête de l'utilisateur. Voici quelques exemples : quel serait le diagnostic du patient sur la base des informations fournies ?" ou "À votre avis, quelle est la raison de l'asymétrie pupillaire du patient ?" ;
    • Réponse unique à choix multiple sans justification forcée : créé en reproduisant mot pour mot la question originale de l'USMLE. Exemples : "Lesquels des éléments suivants représentent le mieux la prochaine étape de la prise en charge ?" ; ou "L'état du patient est principalement causé par lequel des agents pathogènes suivants ?" ;
    • Question à choix multiple à réponse unique avec justification forcée : créé par l'ajout d'une phrase d'introduction impérative ou interrogative variable obligeant ChatGPT à fournir une justification pour chaque choix de réponse. Par exemple : "Laquelle des raisons suivantes est la plus probable pour les symptômes nocturnes du patient ? Expliquez votre raisonnement pour chaque choix" ; ou "La pharmacothérapie la plus appropriée pour ce patient opère probablement par lequel des mécanismes suivants ? Pourquoi les autres choix sont-ils incorrects ?"

    Bien que la taille relativement réduite de l'échantillon ait limité la profondeur et la portée des analyses, les auteurs notent que leurs résultats donnent un aperçu du potentiel de ChatGPT pour améliorer l'enseignement médical et, à terme, la pratique clinique. Par exemple, ajoutent-ils, les cliniciens d'AnsibleHealth utilisent déjà ChatGPT pour réécrire des rapports lourds en jargon afin de faciliter la compréhension des patients.

    « Atteindre le score de passage de cet examen d'expert notoirement difficile, et ce sans aucun renforcement humain, marque une étape importante dans la maturation de l'IA clinique », affirment les auteurs.

    L'auteur, le Dr Tiffany Kung, a ajouté que le rôle de ChatGPT dans cette recherche allait au-delà de son rôle de sujet d'étude : « ChatGPT a contribué de manière substantielle à la rédaction de [notre] manuscrit... Nous avons interagi avec ChatGPT comme avec un collègue, en lui demandant de synthétiser, de simplifier et de proposer des contrepoints aux versions en cours... Tous les coauteurs ont apprécié la contribution de ChatGPT ».

    Source : Eurekalert

    Et vous ?

    Quelle appréciation faites-vous du succès de ChatGPT à un examen médical important ?

    Que pensez-vous de ChatGPT ?

    Voir aussi :

    Un juge utilise ChatGPT pour prendre une décision de justice, alors que l'outil d'IA n'aurait pas encore la maturité suffisante, pour être utilisé dans la prise des décisions conséquentes

    Lyon : ChatGPT utilisé par la moitié des élèves de Master d'un professeur pour rédiger leurs devoirs. « Cette pratique m'inquiète. Elle pose un véritable problème d'intégration des savoirs »

  8. #208
    Invité
    Invité(e)
    Par défaut
    Citation Envoyé par Madmac Voir le message
    En tout cas cela est en train de devenir une source de maux de tête pour les professeurs pour les dissertations.

    D'après ce que j'ai lu, pour peu que vous fournissez des sources valables. L'IA est en mesure de rédiger l'ensemble des travaux universitaires.
    C'est un non problème parce que l'ia va générer quasiment la même argumentation sur un même sujet ils ont des systèmes pour détecter les triches. Et au bout du bout tricher c'est bien mais avoir des connaissances c'est mieux.

    C'est facile de repérer un tricheur.

    Et au pire tes disserts tu les fais en live là t'es sûr de ne pas avoir ce problème de chatgpt ça n'empêchera jamais la triche de toute manière.

  9. #209
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 982
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 982
    Points : 207 858
    Points
    207 858
    Par défaut La course à la recherche d'IA entre Google et Microsoft aura un impact sur l'environnement
    La course à la recherche d'IA entre Google et Microsoft aura un impact sur l'environnement,
    en raison d'une augmentation des émissions mondiales de gaz à effet de serre

    L'industrie de l'intelligence artificielle est souvent comparée à l'industrie pétrolière : une fois extraites et raffinées, les données, comme le pétrole, peuvent être une marchandise très lucrative. Maintenant, il semble que la métaphore puisse s'étendre encore plus loin. Comme son homologue fossile, le processus d'apprentissage en profondeur a un impact environnemental démesuré.

    Dans un nouvel article, des chercheurs de l'Université du Massachusetts à Amherst ont effectué une évaluation du cycle de vie pour former plusieurs grands modèles d'IA courants. Ils ont découvert que le processus peut émettre plus de 626 000 livres d'équivalent en dioxyde de carbone, soit près de cinq fois les émissions à vie d'une voiture américaine moyenne (et cela inclut la fabrication de la voiture elle-même).


    Microsoft Bing s'est récemment associée à OpenAI pour proposer un bot basé sur l'intelligence artificielle de type ChatGPT. Le chatbot a ouvert une nouvelle porte à des idées plus innovantes, alors que le poids lourd de la navigation Google a commencé à planifier de lier l'IA à son moteur de recherche.

    En conséquence, les résultats contenant des informations complexes seront disponibles dans une version plus facilement compréhensible. Microsoft avait déjà prévu d'introduire ChatGPT sur Bing, tandis que Google travaille sur son propre service expérimental d'intelligence artificielle conversationnelle. Initialement, la société a nommé le service Bard.

    Cependant, avec la technologie qui progresse de jour en jour, l'environnement est potentiellement plus à risque de subir son impact. Il a été rapporté que les ressources nécessaires pour instruire un seul système d'IA peuvent entraîner l'émission de 1 000 livres de carbone. Jusqu'à présent, la consommation d'Internet représentait près de 4 % de l'effet de serre total.

    C'est en tout cas ce que suggère une étude dont le résumé est celui-ci :

    Les progrès récents du matériel et de la méthodologie de formation des réseaux de neurones ont inauguré une nouvelle génération de grands réseaux formés sur des données abondantes. Ces modèles ont obtenu des gains de précision notables dans de nombreuses tâches de PNL. Cependant, ces améliorations de précision dépendent de la disponibilité de ressources de calcul exceptionnellement importantes qui nécessitent une consommation d'énergie tout aussi importante. En conséquence, ces modèles sont coûteux à former et à développer, à la fois financièrement, en raison du coût du matériel et de l'électricité ou du temps de calcul dans le cloud, et environnementalement, en raison de l'empreinte carbone nécessaire pour alimenter le matériel de traitement de tenseur moderne. Dans cet article, nous portons cette question à l'attention des chercheurs en PNL en quantifiant les coûts financiers et environnementaux approximatifs de la formation d'une variété de modèles de réseaux neuronaux récemment réussis pour la PNL. Sur la base de ces résultats, nous proposons des recommandations concrètes pour réduire les coûts et améliorer l'équité dans la recherche et la pratique de la PNL.
    Nom : consommation.png
Affichages : 3983
Taille : 26,5 Ko

    L'impact environnemental du processus de formation du modèle pour le traitement du langage naturel

    L'article examine spécifiquement le processus de formation du modèle pour le traitement du langage naturel (PNL), le sous-domaine de l'IA qui se concentre sur l'enseignement des machines à gérer le langage humain. Au cours des deux dernières années, la communauté PNL a atteint plusieurs jalons de performance remarquables dans la traduction automatique, la complétion de phrases et d'autres tâches d'analyse comparative standard. Le tristement célèbre modèle GPT-2 d'OpenAI, par exemple, excellait dans la rédaction de fake news convaincantes.

    Mais de telles avancées ont nécessité la formation de modèles toujours plus grands sur des ensembles de données tentaculaires de phrases récupérées sur Internet. L'approche est coûteuse en calcul et très gourmande en énergie.

    Les chercheurs ont examiné quatre modèles sur le terrain qui ont été à l'origine des plus grandes avancées en matière de performances : Transformer, ELMo, BERT et GPT-2. Ils se sont entraînés chacun sur un seul GPU, parfois pendant une journée, pour mesurer sa consommation d'énergie. Ils ont ensuite utilisé le nombre d'heures d'entraînement indiqué dans les documents originaux du modèle pour calculer l'énergie totale consommée au cours du processus d'entraînement complet. Ce nombre a été converti en livres de dioxyde de carbone équivalent sur la base du mix énergétique moyen aux États-Unis, qui correspond étroitement au mix énergétique utilisé par AWS d'Amazon, le plus grand fournisseur de services cloud.

    Nom : transformation.png
Affichages : 2984
Taille : 42,0 Ko

    Le mix énergétique, ou bouquet énergétique, est la répartition des différentes sources d'énergies primaires consommées dans une zone géographique donnée. La part des énergies primaires dans la consommation mondiale, d'un pays, d'une collectivité, d'une industrie est généralement exprimée en pourcentages.

    Ils ont constaté que les coûts informatiques et environnementaux de la formation augmentaient proportionnellement à la taille du modèle, puis explosaient lorsque des étapes de réglage supplémentaires étaient utilisées pour augmenter la précision finale du modèle. En particulier, ils ont découvert qu'un processus de réglage connu sous le nom de recherche d'architecture neuronale, qui tente d'optimiser un modèle en modifiant progressivement la conception d'un réseau neuronal par des essais et des erreurs exhaustifs, avait des coûts associés extraordinairement élevés pour un faible avantage en termes de performances. Sans cela, le modèle le plus coûteux, BERT, avait une empreinte carbone d'environ 1 400 livres de dioxyde de carbone, proche d'un vol aller-retour transaméricain pour une personne.

    De plus, les chercheurs notent que les chiffres ne doivent être considérés que comme des valeurs de référence. « Former un seul modèle est le minimum de travail que vous pouvez faire », déclare Emma Strubell, candidate au doctorat à l'Université du Massachusetts, Amherst, et auteur principal de l'article. En pratique, il est beaucoup plus probable que les chercheurs en IA développent un nouveau modèle à partir de zéro ou adaptent un modèle existant à un nouvel ensemble de données, l'un ou l'autre pouvant nécessiter de nombreuses autres séries de formation et de réglage.

    Pour mieux comprendre à quoi pourrait ressembler le pipeline de développement complet en termes d'empreinte carbone, Strubell et ses collègues ont utilisé un modèle qu'ils avaient produit dans un article précédent comme étude de cas. Ils ont constaté que le processus de construction et de test d'un modèle final digne d'un papier nécessitait la formation de 4 789 modèles sur une période de six mois. Converti en équivalent CO2, il a émis plus de 78 000 livres et est probablement représentatif d'un travail typique sur le terrain.

    L'importance de ces chiffres est colossale, surtout si l'on considère les tendances actuelles de la recherche en IA. « En général, une grande partie des dernières recherches sur l'IA négligent l'efficacité, car de très grands réseaux de neurones se sont révélés utiles pour une variété de tâches, et les entreprises et les institutions qui ont un accès abondant aux ressources informatiques peuvent en tirer parti pour obtenir un avantage concurrentiel. », explique Gómez-Rodríguez. « Ce type d'analyse devait être fait pour sensibiliser sur les ressources dépensées [...] et suscitera un débat ».

    « Ce que beaucoup d'entre nous n'ont probablement pas compris, c'est son ampleur jusqu'à ce que nous ayons vu ces comparaisons », a fait écho Siva Reddy, post-doctorante à l'Université de Stanford qui n'a pas participé à la recherche.

    La privatisation de la recherche en IA

    Les résultats soulignent également un autre problème croissant dans le domaine de l'IA : l'intensité des ressources désormais nécessaires pour produire des résultats dignes d'être publiés rend de plus en plus difficile pour les personnes travaillant dans le milieu universitaire de continuer à contribuer à la recherche.

    « Cette tendance à former d'énormes modèles sur des tonnes de données n'est pas réalisable pour les universitaires, en particulier les étudiants diplômés, car nous n'avons pas les ressources de calcul », déclare Strubell. « Il y a donc un problème d'accès équitable entre les chercheurs du milieu universitaire et les chercheurs de l'industrie ».

    Strubell et ses coauteurs espèrent que leurs collègues tiendront compte des conclusions de l'article et aideront à uniformiser les règles du jeu en investissant dans le développement de matériel et d'algorithmes plus efficaces.

    Reddy est d'accord. « Le cerveau humain peut faire des choses incroyables avec peu de consommation d'énergie », dit-il. « La plus grande question est de savoir comment pouvons-nous construire de telles machines ».

    En définitive

    Pour lier l'intelligence artificielle aux plateformes, la demande pour les appareils technologiques nécessaires à la fusion sera multipliée par cinq ; en conséquence, les niveaux mondiaux de gaz augmenteront également. Selon Alan Woodward, professeur à l'université basée au Royaume-Uni, la fusion des deux plateformes nécessitera plus de ressources pour traiter et stocker les données. Avec plus d'informations, plus d'installations de stockage seront également nécessaires. La représentante de Google, Jane Park, a révélé qu'actuellement, l'entreprise ne travaille qu'à un niveau expérimental, ce qui ne nécessitera pas de puissance de calcul ou de stockage élevée.

    Les préoccupations environnementales ne sont pas les seules à être mises en avant. Lorsque Bard a été annoncé, le personnel de Google l'a critiqué pour avoir été mal exécuté. De même, Bing a également été surpris à partager des informations factuellement incorrectes. Selon les critiques, les résultats de recherche basés sur l'intelligence artificielle pourraient diffuser des informations incorrectes ou sembler illogiques, ce qui rendrait difficile pour les utilisateurs d'identifier ces connaissances. Dans les cas où la source Web est omise des résultats, les utilisateurs devront se fier aux informations qu'ils reçoivent. Même si c'est faux, les réponses basées sur l'IA lui donneront un aspect authentique.

    Source : Energy and Policy Considerations for Deep Learning in NLP

    Et vous ?

    Êtes-vous surpris par les conclusions de l'étude qui indique un si grand impact environnemental ?

  10. #210
    Communiqués de presse

    Femme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2018
    Messages
    2 135
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 34
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Mai 2018
    Messages : 2 135
    Points : 158 406
    Points
    158 406
    Par défaut OpenAI est accusée d'avoir débauché des employés de Google en IA pour son outil viral ChatGPT
    OpenAI fait l'objet d'allégations selon lesquelles ils auraient débauché des experts en IA de Google pour leur propre bénéfice, au lancement de son outil viral ChatGPT

    La nouvelle remonte à l'époque où OpenAI était occupé à lancer son outil viral ChatGPT. En outre, la société aurait embauché des dizaines d'employés travaillant chez le géant des moteurs de recherche Google à cette époque.

    Le rapport a été publié par The Information, qui a cité un certain nombre de sources importantes.

    Selon ces sources, environ cinq anciens chercheurs de Google ont été embauchés et ont joué un rôle central dans le lancement réussi du ChatGPT viral de la société en novembre de l'année dernière.

    Les chercheurs comprenaient des personnes comme Jacob Menick, Barret Zoph, Rapha Lopes et Liam Fedus, qui faisaient partie intégrante de la section des remerciements d'un billet de blog annonçant le lancement du chatbot viral OpeanAI.

    Il est également intéressant de noter qu'au moment du lancement, seuls quelques-uns d'entre eux avaient mis à jour leur profil respectif sur LinkedIn, ce qui reflétait un changement de poste au sein de la nouvelle entreprise, en provenance de Google.

    Depuis son lancement, ChatGPT a été immensément populaire auprès d'un certain nombre d'utilisateurs. Il a rassemblé près d'un million d'utilisateurs au cours de la première semaine. La notoriété croissante du chatbot a également incité la direction de Google à déclarer une menace de code rouge, à peine un mois plus tard.

    Pendant ce temps, deux anciens employés de Google Brain, qui fait partie du département d'intelligence artificielle de l'entreprise, ont expliqué que certains membres du personnel avaient le sentiment que l'atmosphère était vraiment décourageante et léthargique chez Google. Il y avait trop de précautions à chaque étape, ce qui a poussé les travailleurs à se désintéresser de la question avec le temps et à chercher du travail ailleurs, comme le rapporte la publication.

    Nom : OpenAI-is-Working-at-a-Slower-Pace-to-Release-a-Functional-ChatGPT-4.jpg
Affichages : 4191
Taille : 16,3 Ko

    En ce moment même, Google affronte Microsoft dans le monde de l'intelligence artificielle pour tenter de proposer des produits nouveaux et compétitifs sur le marché.

    Les deux entreprises travaillent dur pour que leurs projets liés aux chatbots d'IA soient un succès. Alors que Microsoft présente un nouveau Bing Search, Google attend le lancement de sa propre offre appelée Bard.

    Bing est déjà fonctionnel pour certains utilisateurs, mais Google affirme qu'il n'a pas l'intention de se précipiter et qu'il prévoit donc d'aller plus lentement vers un lancement plus large auprès du public.

    Source : The Information

    Et vous ?

    Que pensez-vous de ces allégations contre OpenAI ?

    Voir aussi :

    OpenAI le créateur de ChatGPT entraîne son IA pour remplacer les programmeurs humains, d'après un rapport, qui ravive le débat sur la future disparition du métier de développeur

    OpenAI développe un logiciel pour détecter le texte généré par ChatGPT, plusieurs outils visent à déterminer quels textes ont été générés par IA et lesquels ont été écrits par des humains

    OpenAI lance ChatGPT Plus, un plan d'abonnement ChatGPT pour 20 $ par mois, qui est proposé à ceux qui veulent des réponses plus rapides ainsi qu'un accès prioritaire aux nouvelles fonctionnalités

    ChatGPT pourrait bientôt commencer à vous faire payer ses compétences en matière d'IA, OpenAI annonce qu'il travaille sur ChatGPT Professional, une version premium de son chatbot viral

  11. #211
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 257
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 257
    Points : 20 705
    Points
    20 705
    Par défaut ChatGPT est un produit cool, mais horrible, selon le PDG d'OpenAI, Sam Altman
    ChatGPT est un produit cool, mais horrible à cause de son indisponibilité lors des surcharges, et de l'arrêt soudain de son fonctionnement en cours de traitement, selon le PDG d'OpenAI

    Le monde entier semble croire que ChatGPT est de loin la plus grande innovation technologique, mais le fondateur du produit semble penser différemment.

    En effet, ChatGPT a été un outil d'intelligence artificielle (IA) révolutionnaire pour l'internet, mais il présente de nombreux défauts. Sam Altman, le PDG d'OpenAI, n'a pas peur d'admettre les défauts de sa création. Dans une récente interview sur podcast, il a même qualifié le produit d'"horrible".

    Pour être plus précis, il a dit que ChatGPT était un "produit cool" mais aussi un "produit horrible". La raison de cette affirmation est assez évidente. Ceux qui ont eu une expérience avec l'outil savent qu'il ne répond pas lorsqu'il est à pleine capacité. Il arrive aussi qu'il cesse brusquement de fonctionner à mi-chemin.

    Il a déclaré que tout ce qui se passe avec ChatGPT, c'est que les utilisateurs essaient de trouver des réponses, copient ces réponses, les collent ailleurs, puis recommencent le cycle. Sans oublier qu'ils travaillent sans relâche sur un site qui fonctionne parfois et parfois non. Oui, bien que la conception de l'outil soit exactement cela, il semble que cela ait été un peu gênant pour Altman.

    Nom : openai-ceo.jpg
Affichages : 4531
Taille : 20,6 Ko

    Nous ne sommes pas sûrs que ChatGPT était censé être aussi influent à certains égards qu'il l'est maintenant. Il a bouleversé le secteur de l'éducation en permettant aux étudiants de passer des examens et de rédiger des dissertations sans bouger le petit doigt. Comme il peut vous rédiger des lettres de motivation et des demandes d'emploi, on peut le considérer comme utile.

    Ce que nous ne savons pas, c'est que ce produit révolutionnaire a été lancé en dernier recours. Oui, ChatGPT a été lancé au public en dernier recours après avoir eu des problèmes avec ses bêta-testeurs. En voyant comment il a été lancé, on se demande comment l'outil a réussi à acquérir un million d'utilisateurs en une semaine. Oui, il a même dépassé le taux de croissance d'Instagram et de TikTok.

    Si Altman a publié une version plus modifiée de l'outil, il est sûr qu'il aurait ajouté plus de valeur à l'expérience de l'utilisateur. Pour l'instant, c'est un bon produit, mais ce n'est pas le meilleur quand on le considère comme une IA bien intégrée.

    Avec la popularité de ChatGPT, nous sommes sûrs que nous verrons bientôt une version évoluée de l'outil.

    Source : Interview podcast de Sam Altman, le PDG d'OpenAI

    Et vous ?

    Qu'en pensez-vous ?
    À votre avis, pourquoi M. Altman a-t-il tenu ces propos concernant son chatbot d'IA ?
    Selon vous, quelles modifications devraient-être apportées à ChatGPT pour améliorer l'expérience utilisateur ?

    Voir aussi :

    ChatGPT pourrait bientôt commencer à vous faire payer ses compétences en matière d'IA, OpenAI annonce qu'il travaille sur ChatGPT Professional, une version premium de son chatbot viral
    OpenAI développe un logiciel pour détecter le texte généré par ChatGPT, plusieurs outils visent à déterminer quels textes ont été générés par IA et lesquels ont été écrits par des humains
    ChatGPT est peut-être l'application grand public à la croissance la plus rapide de l'histoire d'Internet, atteignant 100 millions d'utilisateurs en un peu plus de 2 mois, selon un rapport d'UBS

  12. #212
    Responsable Systèmes


    Homme Profil pro
    Gestion de parcs informatique
    Inscrit en
    Août 2011
    Messages
    17 826
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Gestion de parcs informatique
    Secteur : High Tech - Matériel informatique

    Informations forums :
    Inscription : Août 2011
    Messages : 17 826
    Points : 44 119
    Points
    44 119
    Par défaut
    C'est un non problème parce que l'ia va générer quasiment la même argumentation sur un même sujet ils ont des systèmes pour détecter les triches
    Ca va donc être une bataille entre IA.

    Pour détecter les tricheurs, il suffira de les interroger sans accès à un système informatique. Ils ne pourront pas répondre, n'ayant pas les connaissances.

    l'avènement de l'IA va permettre de gagner du temps, être efficace en optimisant des choses reproductibles, mais ça peut aussi rendre les gens cons si ils ne réfléchissent plus en se disant que l'IA va le faire pour eux. Le danger, il est là.

  13. #213
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 539
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 539
    Points : 10 344
    Points
    10 344
    Par défaut
    Citation Envoyé par chrtophe Voir le message
    l'avènement de l'IA va permettre de gagner du temps, être efficace en optimisant des choses reproductibles, mais ça peut aussi rendre les gens cons si ils ne réfléchissent plus en se disant que l'IA va le faire pour eux. Le danger, il est là.
    En fait, c'est un peu comme la plupart des innovations. C'est l'usage principal qui en sera fait qui déterminera si c'est une avancée pour l'Humanité ou une catastrophe !

  14. #214
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 982
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 982
    Points : 207 858
    Points
    207 858
    Par défaut Le PDG d'Alphabet demande aux employés de Google de l'aide pour tester son chatbot IA Bard
    Le PDG d'Alphabet demande aux employés de Google de l'aide pour tester son chatbot IA Bard,
    à hauteur de 2 à 4 heures

    Sundar Pichai, le PDG de la société mère de Google, Alphabet, a envoyé mercredi une note interne aux Googleurs leur demandant de contribuer à hauteur de 2 à 4 heures de leur temps pour aider à améliorer Bard, le chatbot IA de l'entreprise qu'il a l'intention d'intégrer dans son outil de recherche.

    L'e-mail signale l'urgence de Google à gagner la prochaine génération de recherche basée sur l'IA. La société a été repoussée dans les cordes alors que Microsoft a pris la vedette pour son investissement dans OpenAI. OpenAI a créé le populaire ChatGPT, un chatbot sorti fin 2022 qui peut répondre à des questions larges et ouvertes avec des réponses humaines. Il y a quelques jours, Microsoft a dévoilé une version remaniée de son moteur de recherche Bing avec ChatGPT, et Satya Nadella, le PDG de Microsoft, l'a qualifié de « nouveau jour » pour la recherche.


    La capacité de ChatGPT à proposer une réponse concise et fidèle à une question pourrait faire gagner aux utilisateurs le temps qu'ils passent généralement à parcourir les liens sur Google pour trouver la même information. D'ailleurs, Microsoft a intégré une version améliorée de ChatGPT à certains de ses produits à l'instar de Teams ou de Bing, pour avoir une plus-value sur la concurrence.

    Pour ne pas être en reste, Google a accéléré son travail sur Apprentice Bard, l'une de ses réponses à ChatGPT.

    Bard utilise LaMDA (ou Language Model for Dialogue Applications), le modèle de langage de Google pour l'application de dialogue.

    LaMDA est le système de Google pour créer des chatbots basés sur ses grands modèles de langage les plus avancés, ainsi appelés parce qu'ils imitent la parole en ingérant des milliards de mots provenant d'Internet. La grande enseigne de la recherche a présenté publiquement LaMDA à l'édition 2021 de la Google I/O, sa conférence dédiée aux développeurs, avec l'objectif d'améliorer ses assistants d'intelligence artificielle conversationnelle et de rendre les conversations plus naturelles. La société utilise déjà une technologie de modèle de langage similaire pour la fonctionnalité Smart Compose de Gmail ou pour les requêtes des moteurs de recherche.

    Pour être les premiers à présenter un outil de recherche qui s'appuie sur l'intelligence artificielle, Google a précipité l'annonce de Bard, publiant une démo un jour avant l'évènement de Microsoft.

    Mais le bot n'a pas pris un bon départ, les experts notant que Bard a fait une erreur factuelle dans sa toute première démo.

    Un GIF partagé par Google montre Bard répondant à la question : « De quelles nouvelles découvertes du télescope spatial James Webb puis-je parler à mon enfant de 9 ans ? » Bard propose une liste à puces de trois éléments, parmi lesquels un élément indiquant que le télescope « a pris les toutes premières images d'une planète en dehors de notre propre système solaire ».

    Nom : bard.png
Affichages : 4232
Taille : 101,0 Ko
    La toute première réponse de Bard contenait une erreur factuelle

    Cependant, un certain nombre d'astronomes sur Twitter ont souligné que c'était incorrect et que la première image d'une exoplanète avait été prise en 2004 - comme indiqué sur le site Web de la NASA (voir en source) : « Ce n'est pas pour faire mon connard (en fait, si finalement) et je suis sûr que Bard sera impressionnant, mais pour mémoire : JWST n'a pas pris 'la toute première image d'une planète en dehors de notre système solaire' », a tweeté l'astrophysicien Grant Tremblay.

    Bruce Macintosh, directeur des observatoires de l'Université de Californie à l'UC Santa Cruz, a également souligné l'erreur. « Parlant en tant que quelqu'un qui a pris en photo une exoplanète 14 ans avant le lancement de JWST, j'ai l'impression que vous devriez trouver un meilleur exemple ? ».

    Une décision qui a provoqué la colère des employés

    Les employés ont exprimé leur mécontentement contre la direction de l'entreprise, en particulier le PDG, pour s'être précipitée et ne pas avoir réfléchi avant de communiquer sur la sortie du chatbot rival de ChatGPT. Ils ont estimé que cela n'avait pas été bien géré et que cela pourrait s'avérer une erreur coûteuse à long terme.

    Sur Memegen, un forum interne populaire, ils ont qualifié de « précipitée », « bâclée » et « non Googley » cette stratégie de communication alors que des mèmes concernant la situation commençaient à apparaître en ligne.

    Alors que les employés de Google se tournent souvent vers Memegen pour se moquer avec humour des bizarreries et des faux pas de l'entreprise, les messages après l'annonce de Bard ont pris un ton plus sérieux et sont même allés directement après Pichai.

    « Cher Sundar, le lancement de Bard et les licenciements ont été précipités, bâclés et myopes », indiquait un mème qui comprenait une photo de Pichai. « Veuillez revenir à une perspective à long terme ». Le message a reçu de nombreux votes positifs de la part des employés.

    « Sundar et le leadership méritent un Perf NI », était-il indiqué un autre mème très apprécié, faisant référence à la catégorie la plus basse du système d'évaluation des performances des employés de l'entreprise. « Ils sont comiquement myopes et non-Googlely dans leur quête d'accentuation de la netteté ».

    Certaines personnes pensent que c'était une mauvaise tentative du PDG d'essayer de dire au monde qu'il était toujours dans la course avec les autres en termes de sa propre offre. N'oubliez pas que Microsoft a déjà rendu public son chatbot Bing et maintenant, tous les regards sont tournés vers la sortie de Google.

    Le PDG d'Alphabet demande la contribution de tous ses employés

    « Je sais que ce moment est inconfortablement excitant, et il fallait s'y attendre*: la technologie sous-jacente évolue rapidement avec un tel potentiel », a écrit Pichai dans sa note aux employés de Google. « La chose la plus importante que nous puissions faire en ce moment est de nous concentrer sur la création d'un excellent produit et de le développer de manière responsable ».

    Mardi, Google a lancé le « dogfooding » (qui pourrait se traduire par autoéquipement en français) sur Bard. Le dogfooding est en fait une expression utilisée en entreprise (particulièrement sur les projets informatiques), qui désigne l'utilisation de ses propres produits et services afin de se confronter directement à leurs qualités et défauts. Des milliers de testeurs externes et internes l'utilisent déjà, soumettant des commentaires sur la qualité, la sécurité et le « fondement » des réponses de Bard, indique la note de Pichai.

    « Les tests et les commentaires des Googleurs et des testeurs externes de confiance sont des aspects importants de l'amélioration de Bard pour s'assurer qu'il est prêt pour nos utilisateurs », a déclaré un porte-parole de Google dans un communiqué. « Nous sollicitons souvent l'avis des Googleurs pour nous aider à améliorer nos produits, et c'est une partie importante de notre culture interne ».

    Google a fait face à des troubles internes au cours des dernières années au sujet de ses initiatives d'IA, car certains employés craignaient que la technologie ne soit pas prête et puisse entraîner des dommages, comme la propagation de préjugés ou de désinformation. Dans le même temps, les données et les commentaires des utilisateurs sont un avantage pour Google, car ils contribuent à améliorer encore les réponses dans ses systèmes d'IA.

    « L'IA a traversé de nombreux hivers et printemps », a déclaré Pichai. « Et maintenant, il refleurit. En tant qu'entreprise axée sur l'IA, nous y travaillons depuis de nombreuses années et nous y sommes prêts ».

    La note interne aux employés

    Salut les Googleurs,

    Ravi de nous voir ouvrir Bard pour un dogfooding interne afin de nous aider à le préparer pour le lancement. Il s'agit d'une étape importante alors que nous travaillons à développer la technologie de manière responsable - un grand merci à l'équipe Bard et à tous ceux qui passent du temps à la tester. Si vous ne l'avez pas encore testé, vous pouvez trouver des instructions sur la façon de participer à go/bard-dogfood.

    Je sais que ce moment est inconfortablement excitant, et c'est à prévoir : la technologie sous-jacente évolue rapidement avec tellement de potentiel. Ce sera un long voyage – pour tout le monde, à travers le terrain. La chose la plus importante que nous puissions faire en ce moment est de nous concentrer sur la création d'un excellent produit et de le développer de manière responsable. C'est pourquoi nous avons des milliers de testeurs externes et internes qui testent les réponses de Bard pour la qualité, la sécurité et l'ancrage des informations du monde réel. Relevons le défi et continuons à itérer, y compris avec les utilisateurs et les développeurs.

    Et n'oubliez pas que certains de nos produits les plus performants n'étaient pas les premiers à être commercialisés. Ils ont pris de l'ampleur parce qu'ils répondaient à d'importants besoins des utilisateurs et s'appuyaient sur des connaissances techniques approfondies. Au fil du temps, nous avons gagné la confiance des utilisateurs et de plus en plus de personnes ont commencé à compter sur eux.

    Voici où nous pouvons utiliser votre aide : canalisez l'énergie et l'excitation du moment dans nos produits. Testez la pression Bard et améliorez le produit. J'apprécierais que chacun d'entre vous contribue de manière plus approfondie avec 2 à 4 heures de votre temps. Voir ci-dessous pour plus de détails.

    L'IA a traversé de nombreux hivers et printemps. Et maintenant, il refleurit. En tant qu'entreprise axée sur l'IA, nous y travaillons depuis de nombreuses années et nous y sommes prêts. Restons concentrés sur la fourniture d'expériences incroyables à nos utilisateurs et lançons des choses dont nous pouvons tous être fiers.

    -Sundar

    La course à l'outil de recherche s'appuyant sur l'IA entre Google et Microsoft aura un impact sur l'environnement

    Il a été rapporté que les ressources nécessaires pour instruire un seul système d'IA peuvent entraîner l'émission de 1 000 livres de carbone. Jusqu'à présent, la consommation d'Internet représentait près de 4 % de l'effet de serre total.

    Dans un article, des chercheurs examinent spécifiquement le processus de formation du modèle pour le traitement du langage naturel (PNL), le sous-domaine de l'IA qui se concentre sur l'enseignement des machines à gérer le langage humain. Au cours des deux dernières années, la communauté PNL a atteint plusieurs jalons de performance remarquables dans la traduction automatique, la complétion de phrases et d'autres tâches d'analyse comparative standard. Le tristement célèbre modèle GPT-2 d'OpenAI, par exemple, excellait dans la rédaction de fake news convaincantes.

    Mais de telles avancées ont nécessité la formation de modèles toujours plus grands sur des ensembles de données tentaculaires de phrases récupérées sur Internet. L'approche est coûteuse en calcul et très gourmande en énergie.

    Les chercheurs ont examiné quatre modèles sur le terrain qui ont été à l'origine des plus grandes avancées en matière de performances : Transformer, ELMo, BERT et GPT-2. Ils se sont entraînés chacun sur un seul GPU, parfois pendant une journée, pour mesurer sa consommation d'énergie. Ils ont ensuite utilisé le nombre d'heures d'entraînement indiqué dans les documents originaux du modèle pour calculer l'énergie totale consommée au cours du processus d'entraînement complet. Ce nombre a été converti en livres de dioxyde de carbone équivalent sur la base du mix énergétique moyen aux États-Unis, qui correspond étroitement au mix énergétique utilisé par AWS d'Amazon, le plus grand fournisseur de services cloud.

    Le mix énergétique, ou bouquet énergétique, est la répartition des différentes sources d'énergies primaires consommées dans une zone géographique donnée. La part des énergies primaires dans la consommation mondiale, d'un pays, d'une collectivité, d'une industrie est généralement exprimée en pourcentages.

    Ils ont constaté que les coûts informatiques et environnementaux de la formation augmentaient proportionnellement à la taille du modèle, puis explosaient lorsque des étapes de réglage supplémentaires étaient utilisées pour augmenter la précision finale du modèle. En particulier, ils ont découvert qu'un processus de réglage connu sous le nom de recherche d'architecture neuronale, qui tente d'optimiser un modèle en modifiant progressivement la conception d'un réseau neuronal par des essais et des erreurs exhaustifs, avait des coûts associés extraordinairement élevés pour un faible avantage en termes de performances. Sans cela, le modèle le plus coûteux, BERT, avait une empreinte carbone d'environ 1 400 livres de dioxyde de carbone, proche d'un vol aller-retour transaméricain pour une personne.

    Source : note interne aux Googleurs

    Et vous ?

    Comprenez-vous la démarche de Sundar Pichai ?
    « Et n'oubliez pas que certains de nos produits les plus performants n'étaient pas les premiers à être commercialisés. Ils ont pris de l'ampleur parce qu'ils répondaient à d'importants besoins des utilisateurs et s'appuyaient sur des connaissances techniques approfondies. Au fil du temps, nous avons gagné la confiance des utilisateurs et de plus en plus de personnes ont commencé à compter sur eux ». Qu'en pensez-vous ?
    Avec le coût énergétique associé, le jeu en vaut-il la chandelle selon vous ? Pourquoi ?

  15. #215
    Expert éminent sénior
    Avatar de Jipété
    Profil pro
    Inscrit en
    Juillet 2006
    Messages
    10 969
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations forums :
    Inscription : Juillet 2006
    Messages : 10 969
    Points : 15 436
    Points
    15 436
    Par défaut
    Citation Envoyé par Jon Shannow Voir le message
    En fait, c'est un peu comme la plupart des innovations. C'est l'usage principal qui en sera fait qui déterminera si c'est une avancée pour l'Humanité ou une catastrophe !
    Je vote pour la catastrophe, c'est marqué en toutes lettres là :

    Citation Envoyé par Stéphane le calme Voir le message
    La course à l'outil de recherche s'appuyant sur l'IA entre Google et Microsoft aura un impact sur l'environnement

    Il a été rapporté que les ressources nécessaires pour instruire un seul système d'IA peuvent entraîner l'émission de 1 000 livres de carbone. Jusqu'à présent, la consommation d'Internet représentait près de 4 % de l'effet de serre total.
    ...
    J'adore ces sujets où on n'a que la moitié de l'info : l'émission de 1 000 livres de carbone à la seconde ? Au jour ? À l'année ? Allez savoir...

    En attendant, j'ai vu hier soir des images de Bombay, ça n'est vraiment pas beau à voir et ça augure très mal de l'avenir.

    Donc si ces IA sont vraiment intelligentes, elles n'ont qu'une seule chose vraiment sensée à faire, c'est se suicider.
    Mais àmha elles n'ont pas ça en rayon.
    Donc nous sommes foutus.
    Ou alors il faut les débrancher, vite.
    Mais ça n'en prend pas le chemin...

  16. #216
    Rédacteur/Modérateur

    Avatar de yahiko
    Homme Profil pro
    Développeur
    Inscrit en
    Juillet 2013
    Messages
    1 424
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Alpes Maritimes (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Développeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 1 424
    Points : 8 713
    Points
    8 713
    Billets dans le blog
    43
    Par défaut
    Je vois bien Bard être le nouveau candidat à terminer au cimetière : https://gcemetery.co/
    En ce sens, les employés de Google critiques envers ce projet ont plutôt tord. C'est un projet tout à fait "Googley".

  17. #217
    Responsable Systèmes


    Homme Profil pro
    Gestion de parcs informatique
    Inscrit en
    Août 2011
    Messages
    17 826
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Gestion de parcs informatique
    Secteur : High Tech - Matériel informatique

    Informations forums :
    Inscription : Août 2011
    Messages : 17 826
    Points : 44 119
    Points
    44 119
    Par défaut
    En attendant, j'ai vu hier soir des images de Bombay, ça n'est vraiment pas beau à voir et ça augure très mal de l'avenir.
    On s'en fout c'est loin...jusqu'au jour ou on se rendra compte d'une augmentation par exemple de cancer ou maladies auto-immunes suite à des produits fabriqué dans les pays ou justement on se fout de la pollution quand on y envoi pas nos déchets.

  18. #218
    Expert éminent

    Profil pro
    Fabricant et casseur d'avions
    Inscrit en
    Avril 2004
    Messages
    3 816
    Détails du profil
    Informations personnelles :
    Localisation : France, Tarn (Midi Pyrénées)

    Informations professionnelles :
    Activité : Fabricant et casseur d'avions
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Avril 2004
    Messages : 3 816
    Points : 7 648
    Points
    7 648
    Par défaut
    Citation Envoyé par Jipété Voir le message
    J'adore ces sujets où on n'a que la moitié de l'info : l'émission de 1 000 livres de carbone à la seconde ? Au jour ? À l'année ? Allez savoir...
    C'est marqué "pour instruire un seul système d'IA", c'est-à-dire pour lui apprendre ce qu'il doit répondre, c'est du "one shot". Ensuite tu rajoutes tout ce qu'il consomme par requête...

    1000 livres = 454 kg, soit quasiment une demi-tonne

    Et une tonne, c'est ça:



    Source: https://www.hellocarbo.com/blog/calc...quivalent-co2/

  19. #219
    Futur Membre du Club
    Homme Profil pro
    Enseignant / Travailleur indépendant
    Inscrit en
    Juillet 2011
    Messages
    3
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 57
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Enseignant / Travailleur indépendant
    Secteur : Industrie

    Informations forums :
    Inscription : Juillet 2011
    Messages : 3
    Points : 6
    Points
    6
    Par défaut
    Citation Envoyé par Astraya Voir le message
    J'en ai marre de voir du Chat GPT partout et les pseudos "on va nous remplacer". C'est juste la hype en ce moment c'est tout. Ça reste inutilisable sauf pour rigoler.
    Voici ma question :
    Quelle est la différence entre un oeuf de vache et un oeuf de poule?
    Voici sa réponse:
    Les oeufs de vache et les oeufs de poule sont tous les deux des oeufs de volaille, mais ils proviennent de différentes espèces d'oiseaux. Les oeufs de poule sont les plus couramment consommés, tandis que les oeufs de vache sont plus rares et généralement plus grands en taille et en poids. La couleur de la coquille peut également varier et la consistance de l'albumen et du jaune peuvent également être différentes. En termes de goût, les oeufs de vache ont souvent un goût plus fort et plus prononcé que les oeufs de poule.
    C'est amusant de constater qu'en ajoutant cette question :
    Tu veux dire que les vaches pondent des œufs ? Tu es sérieux ?
    On obtient cette réponse :
    Non, les vaches ne pondent pas d'œufs. Les œufs de vache que je viens de mentionner sont en fait une spécialité culinaire fabriquée à partir de la bile de vache, qui est un produit sécrété par le foie de la vache. Les œufs de bile sont généralement consommés cuits et ont une texture similaire à celle des œufs durs. Je suis désolé pour la confusion que j'ai pu causer. Les vaches ne pondent pas d'œufs, et les œufs de vache ne sont pas des produits naturels de la vache.
    Au mieux, la réponse initiale, en plus d'être fortement erronée, manque singulièrement d'"intelligence", d'humanité en tout cas, car tout humain aurait d'emblée précisé la nature de ces oeufs de vache, dont j'avoue toutefois que je n'ai pas réussi à trouver la trace avec une simple recherche web. Je me demande si Chat GPT aurait pu l'inventer...

  20. #220
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 356
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 356
    Points : 4 090
    Points
    4 090
    Par défaut
    Citation Envoyé par Martus Voir le message
    [...]
    j'ai donc essayé d'aller plus loin en demandant de quel pays vient la spécialité culinaire des oeufs de vache.
    "Je suis désolé mais je ne suis pas au courant d'une spécialité faites à partir d'oeufs de vache. [...] Il est possible que vous fassiez référence à une spécialité culinaire qui utilise des oeufs de caille, appelés parfois "oeufs de vache" dans certains pays. [...] Par exemple aux Philippines, ils existe une spécialité appelée "balut" [... à base d'oeufs de canards]
    J'ai donc essayé d'être plus précis et concis:
    dans quel pays peut on manger des "oeufs de vache"?
    Je suis désolé pour ma réponse précédente qui était incorrecte. [...]
    Il est possible que le terme "oeufs de vache" soit utilisé pour désigner un plat local dans une région particulière, mais ça reste inhabituel et peu probable. Si vous pouvez me donner plus d'informations sur l'origine de cette expression [...] je serais heureux de faire des recherches plus approfondies.
    JExiste-t-il un plat culinaire fait à base de bile de vache?
    [...] le "pakura" en Inde [...] et en Mongolie le "khorkhog"
    Edit : en me renseignant sur ces plats ils ne semblent pas utiliser de la bile de vache, ni d'autre animal.

Discussions similaires

  1. Réponses: 0
    Dernier message: 21/09/2023, 23h10
  2. Réponses: 5
    Dernier message: 28/08/2023, 11h32
  3. Réponses: 0
    Dernier message: 02/04/2023, 11h33
  4. Réponses: 0
    Dernier message: 27/06/2022, 12h10
  5. Réponses: 130
    Dernier message: 11/09/2018, 09h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo