IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #101
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 160
    Points : 567
    Points
    567
    Par défaut
    Salut,

    voilà une vidéo de Monsieur Phi et Science4All que j'ai trouvé intéressante. Ils parlent du principe de fonctionnement de ChatGPT et expliquent pourquoi on se retrouve parfois (souvent ?) avec des réponses complètement délirantes :


    C'est marrant de voir comme la quasi intégralité des gens présentent cet outil comme un outil sur lequel on peut se reposer pour répondre à toute sorte de questions alors qu'en fait son seul rôle c'est de générer du texte intelligible, pas de répondre à des questions, ni de savoir quoi que ce soit.
    C'est la première fois que je vois ChatGPT présenté de cette façon et même si j'y connais rien en IA, leur façon de le présenter me semble beaucoup plus honnête.

  2. #102
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 992
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 992
    Points : 208 009
    Points
    208 009
    Par défaut ChatGPT : un professeur estime que « c'est une chance de repenser complètement l'évaluation »
    ChatGPT : un professeur reconnaît que les étudiants pourraient utiliser l'IA pour tricher,
    et estime que « c'est une chance de repenser complètement l'évaluation » au lieu de chercher à bannir l'IA

    Selon un sondage anonyme mené par The Stanford Daily parmi les étudiants de Stanford, beaucoup ont admis avoir utilisé ChatGPT, un programme d'intelligence artificielle qui peut aider à rédiger des essais, lors de leurs examens finaux.

    Toutefois, pour un professeur, les enseignants ont là l'occasion de restructurer le système d'évaluation.


    Le Stanford Daily a rapporté que les administrateurs sont au courant de l'utilisation de ChatGTP sur le campus et étudient si le code d'honneur de l'école doit être révisé. Le journal a également signalé que plusieurs enseignants de Stanford avaient déjà modifié leurs cours en prévision des étudiants utilisant ChatGTP pour terminer leurs devoirs.

    « Les étudiants sont censés terminer leurs cours sans aide non autorisée », a écrit le porte-parole Dee Mostofi. « Dans la plupart des cours, les aides non autorisées incluent des outils d'IA comme ChatGPT ».

    ChatGPT a été lancé à l'origine par la société d'intelligence artificielle OpenAI basée à San Francisco en novembre 2022 et a laissé les étudiants et les éducateurs de tout le pays se demander si cette nouvelle forme d'apprentissage automatique est utile ou nuisible. Certains disent que cela pourrait profiter aux étudiants ayant des capacités de lecture inférieures ou dont la langue maternelle est autre que l'anglais, selon Forbes. D'autres s'inquiètent du plagiat potentiel assisté par intelligence artificielle.

    Parmi les autres districts qui ont réprimé son utilisation, le département de l'éducation de la ville de New York a bloqué le site sur ses réseaux, invoquant « des inquiétudes concernant les impacts négatifs sur l'apprentissage des élèves et des inquiétudes concernant la sécurité et l'exactitude du contenu », selon le porte-parole du département de l'éducation, Jenna Lyle dans une déclaration à Chalkbeat New York.

    La controverse au sujet de cette décision tient au moins sur l’observation évidente que ChatGPT peut faire office de complément à un moteur de recherche. Décider d’en interdire l’accès revient donc à faire pareil avec des plateformes sur lesquels les étudiants sont aussi susceptibles de trouver des réponses à leurs évaluations : Wikipedia, Google, etc.

    La sensibilisation à la technologie a également atteint la faculté de Stanford, a confirmé Mostofi, le porte-parole de l'université. Mostofi, citant une histoire récente dans le rapport de Stanford mettant en vedette des professeurs qui pesait le pour et le contre de ChatGPT, a écrit : « De nombreux professeurs de Stanford sont très engagés dans la recherche de nouveaux grands modèles de langage et les implications de l'IA dans l'environnement d'apprentissage ». Mostofi a déclaré que les devoirs des étudiants continueront d'être conçus pour « aider les étudiants à développer des compétences liées à la pensée et à l'écriture », y compris les processus de rédaction et de révision, ainsi que la citation de sources.

    Certains collèges et universités ont déjà intégré la nouvelle technologie dans leurs politiques d'intégrité académique. L'Université de Washington à St. Louis et l'Université du Vermont à Burlington font partie des institutions qui ont modifié leurs politiques d'intégrité académique pour inclure l'utilisation d'outils d'IA comme ChatGPT.

    Mostofi a écrit qu'à Stanford, des conversations seront bientôt en cours sur ChatGPT et le code d'honneur : « Le Conseil des affaires judiciaires (BJA - Board on Judicial Affairs) surveille ces outils émergents et discutera de la manière dont ils peuvent être liés aux directives de notre code d'honneur », a écrit Mostofi.

    Les étudiants pourraient utiliser ChatGPT pour tricher, mais peut-être est-ce le moment de repenser complètement l'évaluation

    Il est possible que ChatGPT soit utilisé pour tricher lors d'examens ou de devoirs. Puisqu'il est capable de générer du texte de type humain, ChatGPT pourrait être utilisé pour écrire des devoirs ou des essais entiers, ce qui rend difficile pour les éducateurs de détecter la tricherie.

    Sam Illingworth, Professeur agrégé de l'Université Napier d'Édimbourg, pense que c'est le moment de repenser le système d'évaluation. Ci-dessous, un extrait de son billet où il partage sa réflexion :

    Dans mes recherches et mon enseignement, je suis impliqué dans le développement de processus d'évaluation et de rétroaction qui enrichissent l'expérience des étudiants, tout en les dotant des compétences dont ils ont besoin après l'obtention de leur diplôme.

    La vérité est que si je regardais 200 travaux soumis par des étudiants de première année sur ce sujet, je donnerais probablement un laissez-passer aux efforts de ChatGPT. Mais loin de m'inquiéter des défis que ce programme d'IA pourrait poser, j'y vois plutôt une opportunité d'améliorer la façon dont nous évaluons les apprentissages dans l'enseignement supérieur.


    Trouver des opportunités

    Pour moi, le défi majeur que présente ChatGPT est celui que je devrais considérer de toute façon : comment puis-je rendre mes évaluations plus authentiques - significatives, utiles et pertinentes. Les évaluations authentiques sont conçues pour mesurer les connaissances et les compétences des élèves d'une manière particulièrement adaptée à leur propre vie et à leur future carrière.

    Ces évaluations impliquent souvent des tâches ou des activités qui reflètent étroitement les défis que les étudiants peuvent rencontrer dans la vie réelle, les obligeant à appliquer des connaissances et des compétences dans un contexte pratique ou de résolution de problèmes. Des exemples spécifiques pourraient inclure le fait de demander à un groupe d'étudiants en génie de collaborer sur un problème communautaire dans le cadre du défi Ingénieurs sans frontières, ou d'inviter des étudiants en sciences de l'environnement à organiser une exposition d'art dans une galerie locale qui explore l'impact local de la crise climatique.

    Bien qu'il y aura toujours un besoin d'essais et de travaux écrits - en particulier dans les sciences humaines, où ils sont essentiels pour aider les étudiants à développer une voix critique - avons-nous vraiment besoin que tous les étudiants rédigent les mêmes essais et répondent aux mêmes questions*? Pourrions-nous plutôt leur donner de l'autonomie et de l'agence et, ce faisant, contribuer à rendre leurs évaluations plus intéressantes, inclusives et finalement authentiques*?

    En tant qu'éducateurs, nous pouvons même utiliser ChatGPT directement pour nous aider à développer de telles évaluations. Ainsi, plutôt que de poser la question qui a généré le début de cet article, je pourrais plutôt présenter aux étudiants la réponse de ChatGPT avec quelques instructions de notation, et leur demander de fournir une critique sur la note que mérite la réponse automatisée et pourquoi.

    Une telle évaluation serait beaucoup plus difficile à plagier. Cela inviterait également les étudiants à développer leur esprit critique et leurs compétences en matière de rétroaction, deux éléments essentiels lorsqu'ils obtiennent leur diplôme sur le marché du travail, quelle que soit leur profession. Alternativement, ChatGPT pourrait être utilisé pour générer des tâches basées sur des scénarios qui obligent les étudiants à analyser et à résoudre les problèmes qu'ils pourraient rencontrer dans leur future carrière.


    Cela ressemble à l'ouverture d'une boîte de Pandore pour l'évaluation dans l'enseignement supérieur. Que nous décidions d'adopter ChatGPT dans notre quête d'une évaluation authentique ou de reconnaître passivement les dilemmes éthiques qu'il pourrait présenter pour l'intégrité académique, il existe une réelle opportunité ici. Cela pourrait nous aider à réfléchir à la façon dont nous évaluons nos élèves et pourquoi cela pourrait devoir changer. Ou, selon les propres mots de l'IA*:

    « ChatGPT pourrait être un outil utile pour créer des évaluations authentiques, mais il appartiendrait toujours à l'instructeur de concevoir et de mettre en œuvre l'évaluation d'une manière significative et pertinente pour ses étudiants ».

    La sophistication et la capacité des technologies d'IA s'accélèrent. Plutôt que de réagir avec inquiétude, nous devons trouver et embrasser les points positifs. Cela nous aidera à réfléchir à la manière dont nous pouvons adapter spécifiquement l'évaluation des élèves et fournir un soutien meilleur et plus créatif pour leur apprentissage.

    ChatGPT déjà aux portes des écoles européennes

    Des étudiants néerlandais se servent de ChatGPT pour faire leurs devoirs sans se faire prendre

    Aux Pays-Bas, des élèves utilisent le générateur de texte AI avancé ChatGPT pour faire toutes sortes de devoirs sans que leurs enseignants ne s'en aperçoivent, rapporte NOS après avoir parlé aux élèves. Plus de 250 ont déclaré utiliser ChatGPT pour les devoirs scolaires et, dans presque tous les cas, ils ne se sont pas fait prendre. Les étudiants utilisent ChatGPT pour répondre à des parties de questions, rédiger des paragraphes, rédiger des essais entiers, supprimer les fautes d'orthographe de leurs textes ou même proposer des idées. Ils l'utilisent souvent pour les devoirs de néerlandais.

    Un étudiant du groupe 3 de HAVO a déclaré à NOS qu'il utilise l'outil tout le temps : « Je l'utilise pour faire rapidement mes devoirs », a-t-il reconnu. « Il est souvent dit dans un devoir : racontez-le dans vos propres mots. Alors un enseignant ne peut vraiment pas vérifier ce que sont mes propres mots ».

    Un autre étudiant utilise ChatGPT pour copier les devoirs de ses amis. Leurs devoirs sont mis en entrée et ChatGPT génère une version entièrement nouvelle avec exactement le même contenu mais dans des mots différents.

    Un étudiant du groupe quatre de VWO a déclaré au diffuseur qu'il avait demandé à ChatGPT de faire une analyse de poésie : « Selon le libellé de l'exercice, je devais donner mon avis. ChatGPT n'est pas encore très bon dans ce domaine. J'ai du réécrire ce qu'il m'a proposé. Mais la partie théorique était bonne. Je pourrais même la copier comme ça ».

    Le conférencier de Nimègue Furkan Sogut est inquiet. Il enseigne le néerlandais, l'une des matières pour lesquelles les étudiants déclarent souvent utiliser ChatGPT. « Je ne veux pas supposer de mauvaises intentions venant des étudiants, mais je n'ai pas de moyen de vérifier s'ils ont écrit quelque chose eux-mêmes ». Il faut dire que les outils de détection de plagiat, qui vérifient si les textes sont identiques dans les articles d'autres étudiants ou en ligne, ne fonctionnent pas face à ChatGPT car le bot AI génère lui-même du texte.

    Selon Sogut, il est essentiel que les élèves écrivent leurs propres textes car c'est ainsi que les enseignants jugent s'ils maîtrisent bien la langue, « pas si ChatGPT a une bonne maîtrise du néerlandais ».

    Robert Charmulaun, enseignant de néerlandais et président du département néerlandais de l'association professionnelle Levende Talen, a déclaré à NOS que certaines écoles envisageaient déjà des mesures : « Les élèves doivent ensuite écrire des textes à l'école, par exemple ». Ou ils doivent utiliser des sources récentes (ChatGPT ne connaît actuellement que les sources jusqu'en 2021 inclus, vous pouvez donc contrecarrer les étudiants en exigeant des sources à partir de 2022. Cependant, cela ne sera efficace que jusqu'à ce que le bot IA soit mis à jour.

    En France

    Le journal lyonnais Le Progrès nous fait déjà part d’un premier cas connu d’utilisation de l’IA chez les étudiants dans l'Hexagone.

    Stéphane Bonvallet, enseignant en handicapologie (matière enseignée dans certains cursus de santé du secondaire), a demandé à ses élèves de faculté de Lyon de « Définir les grands traits de l’approche médicale du handicap en Europe ». Il leur a laissé une semaine pour travailler sur le sujet.

    Cependant, lors de la correction, il s'est aperçu que sept copies sur les quatorze de sa classe font appel à une construction identique, avancent des arguments qui se ressemblent, mais sans jamais tourner au plagiat : « Il ne s’agissait pas de copier-coller. Mais les copies étaient construites exactement de la même manière », relate-t-il. « On y retrouvait les mêmes constructions grammaticales. Le raisonnement était mené dans le même ordre, avec les mêmes qualités et les mêmes défauts ».

    Stéphane Bonvallet raconte au Progrès en avoir discuté directement avec une étudiante. Elle reconnaît alors que la moitié de la promotion de 14 élèves ont eu recours à ChatGPT.

    Les étudiants n’ont pas reçu de blâme pour cet usage, puisque l’utilisation d'outil de la même trempe que ChatGPT n'est pas proscrit par le milieu scolaire : « n’ayant pas de cadre interdisant actuellement cette pratique, j’ai été contraint de les noter », explique-t-il au quotidien. Puisque les autres notes étaient comprises entre 10 et 12,5, le professeur a choisi d'attribuer la même note de 11,75 à tous ces travaux qui se sont appuyés sur ChatGPT.

    En se renseignant auprès de ses collègues, il a fait le constat que ce cas était loin d’être isolé.

    « Cette pratique m’inquiète. Elle pose un véritable problème d’intégration des savoirs, car les élèves n’ont plus besoin d’effectuer la moindre recherche pour composer », a regretté le professeur.

    Nom : azure.png
Affichages : 6136
Taille : 29,5 Ko

    ChatGPT a encore de beaux jours devant lui, grâce à son partenariat avec Microsoft

    Microsoft a annoncé que son partenariat avec OpenAI permettrait aux entreprises d'avoir accès à des outils tels que ChatGPT dans les courriels, les diaporamas et les feuilles de calcul sur le lieu de travail. En lançant son nouveau service Azure OpenAI, Microsoft affirme que les entreprises de toute taille et de tous les domaines peuvent désormais demander à avoir accès aux modèles d'IA les plus avancés au monde. La firme de Redmond veut être une tête de file dans l'adoption des modèles de langages de nouvelle génération afin d'améliorer ses produits et faciliter le travail des utilisateurs. ChatGPT devrait renforcer la compétitivité de Microsoft Azure face à AWS et Google Cloud.

    « Avec le service Azure OpenAI désormais disponible de manière générale, davantage d'entreprises peuvent demander à accéder aux modèles d'IA les plus avancés au monde », explique Microsoft. S'exprimant lors d'un panel du Wall Street Journal (WSJ) au Forum économique mondial (FEM) de Davos, en Suisse, la semaine dernière, le PDG de Microsoft, Satya Nadella, a déclaré que l'entreprise prévoyait bientôt de commercialiser largement des outils d'IA dans l'ensemble de ses produits. « Chaque produit de Microsoft aura certaines des mêmes capacités d'IA pour transformer complètement le produit », a déclaré Nadella, selon un compte rendu du WSJ.

    Nadella a poursuivi en disant que les travailleurs devraient embrasser les nouveaux outils d'IA au lieu de les craindre. « La meilleure façon de s'y préparer est de ne pas parier contre cette technologie, et cette technologie vous aidant dans votre travail et votre processus commercial », a déclaré Nadella. En outre, le PDG de Microsoft a également prédit que la génération actuelle d'IA entraînera un changement majeur dans l'industrie. Lors de la table ronde organisée par le WSJ la semaine dernière, il a déclaré que les outils d'IA augmenteront la productivité humaine, ce qui favorisera la croissance économique et les salaires des employés.

    Sources : Stanford Daily, Sam Illingworth (1, 2)

    Et vous ?

    Que pensez-vous des propos de Sam Illingworth qui voit là un signal pour que le système éducatif évolue en restructurant le système éducatif ?

  3. #103
    Membre averti
    Profil pro
    Inscrit en
    Septembre 2012
    Messages
    199
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2012
    Messages : 199
    Points : 316
    Points
    316
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Que pensez-vous des propos de Sam Illingworth qui voit là un signal pour que le système éducatif évolue en restructurant le système éducatif ?
    Il a le mérite d'ouvrir le débat. Personnellement je pense qu'il faut que l'évaluation se fasse en classe pour éviter toutes tricheries et qu'une partie de l'enseignement se fasse à la maison pour ne pas surcharger le travail des enseignants.

  4. #104
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 360
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 360
    Points : 4 115
    Points
    4 115
    Par défaut
    Citation Envoyé par eric44000 Voir le message
    L'intérêt de ChatGPT est qu'il est généraliste (ou multi-spécialisé plutôt). Les IA qui sont bons pour traduire, jouer aux échecs, au go... sont dépassées. ChatGPT les remplace tous.[...]
    ChatGPT est il vraiment un meilleur joueur de go ou d'échec que les IA spécialisées dedans? J'ai de sérieux doutes. Certains ont essayé de jouer à pierre papier ciseaux avec lui et il n'y arrive pas alors des jeux complexes comme les échecs et le go je suis curieux de voir.
    Je penses qu'on doit déjà redéfinir à chaque coup pour lui l'ensemble du plateau ce qui rend la chose rapidement chiante.

  5. #105
    Membre émérite
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    951
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 951
    Points : 2 909
    Points
    2 909
    Par défaut
    comment puis-je rendre mes évaluations plus authentiques - significatives, utiles et pertinentes. Les évaluations authentiques sont conçues pour mesurer les connaissances et les compétences des élèves d'une manière particulièrement adaptée à leur propre vie et à leur future carrière. Ces évaluations impliquent souvent des tâches ou des activités qui reflètent étroitement les défis que les étudiants peuvent rencontrer dans la vie réelle, les obligeant à appliquer des connaissances et des compétences dans un contexte pratique ou de résolution de problèmes. Des exemples spécifiques pourraient inclure le fait de demander à un groupe d'étudiants en génie de collaborer sur un problème communautaire dans le cadre du défi Ingénieurs sans frontières, ou d'inviter des étudiants en sciences de l'environnement à organiser une exposition d'art dans une galerie locale qui explore l'impact local de la crise climatique.
    Ben je sais pas comment ça se passe outre atlantique, mais on en est loin ici

    Perso il a fallu attendre l'école d'ingénieur pour avoir un peu de préparation au monde professionnel : un peu de droit du travail, d'économie/comptabilité et de la gestion de risque (optionnel) et de la communication.

  6. #106
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 992
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 992
    Points : 208 009
    Points
    208 009
    Par défaut Développé par la filiale de Google DeepMind, Sparrow passera en bêta privée plus tard cette année
    Google prépare sa réponse à ChatGPT : développé par sa filiale DeepMind, Sparrow passera en bêta privée plus tard cette année.
    Contrairement à l’IA d'OpenAI, ce dernier devrait citer ses sources

    Le fondateur et PDG de Deepmind, Demis Hassabis, a fait part de la perspective que le chatbot Sparrow de Deepmind passera en « bêta privée » plus tard cette année. Ceci est remarquable car Deepmind a jusqu'à présent fonctionné principalement comme un institut de recherche sur l'IA, développant des technologies que Google intègre ensuite dans des produits destinés aux consommateurs.

    Sparrow est basé sur le modèle de langage Chinchilla de Deepmind, qui a moins de paramètres que les plus grands modèles d'OpenAI (mais a été formé avec beaucoup de données). Le modèle de langage, qui a été introduit en avril 2022, a surpassé GPT-3 dans les benchmarks de langage commun. Cependant, ChatGPT est basé sur la version 3.5 plus avancée de GPT.

    Dans tous les cas, il y a de bonnes raisons de croire que Sparrow fonctionnerait de manière similaire ou meilleure que ChatGPT (et Google aurait également des modèles de langage plus puissants comme PaLM dans sa manche). La société d'intelligence artificielle se concentre également sur la contrainte de comportement de Sparrow. L'entreprise a mis l'accent sur sa volonté de refuser de répondre aux questions dans des contextes où il convient de s'en remettre aux humains ou lorsque cela peut dissuader les comportements nuisibles.


    Google pourrait donner sa réponse à ChatGPT. L'entreprise a montré de grands modèles de langage optimisés pour le dialogue, tels que LaMDA et Flamingo, avant même le produit à succès d'OpenAI. Avec Meena, Google avait déjà un chatbot prêt qui pourrait avoir des conversations crédibles avec les humains d'ici la fin de 2020.

    Jusqu'à présent, l'entreprise n'a pas fait un produit de ses recherches. Selon ses propres déclarations, cela est principalement dû à des problèmes de sécurité, bien que d'autres raisons puissent également jouer un rôle.

    Mais ChatGPT et surtout la forte implication de Microsoft dans la diffusion d'OpenAI mettent la pression sur Google. L'entreprise doit au moins prouver qu'elle peut être à la hauteur d'OpenAI ou même le surpasser.

    C'est dans ce contexte que le fondateur et PDG de Deepmind, Demis Hassabis, a annoncé que le chatbot Sparrow de Deepmind passera en « bêta privée » plus tard cette année. Ceci est remarquable car Deepmind a jusqu'à présent fonctionné principalement comme un institut de recherche sur l'IA, développant des technologies que Google intègre ensuite dans des produits destinés aux consommateurs.

    Un chatbot « utile et sûr »

    Deepmind a introduit Sparrow en septembre 2022. Comme ChatGPT, le chatbot est formé avec des commentaires humains, ce qui, selon Deepmind, le rend plus utile, précis et inoffensif. De plus, Sparrow aura accès à Internet via Google, ce qui lui permettra d'intégrer des informations à jour dans ses réponses.

    Cependant, contrairement à ChatGPT, qui est capable de générer une fausse information sans mentionner son origine, Sparrow pourrait développer des réponses et produire des sources pour les appuyer. L’IA de DeepMind « réduit le risque de réponses dangereuses et inappropriées », indiquait l’entreprise dans un communiqué, en septembre 2022 :

    Citation Envoyé par DeepMind
    Pour créer des agents de dialogue plus sûrs, nous devons être capables d'apprendre de la rétroaction humaine. En appliquant l'apprentissage par renforcement basé sur les commentaires des participants à la recherche, nous explorons de nouvelles méthodes de formation des agents de dialogue qui s'avèrent prometteuses pour un système plus sûr.

    Dans notre dernier article, nous présentons Sparrow - un agent de dialogue qui est utile et réduit le risque de réponses dangereuses et inappropriées. Notre agent est conçu pour parler avec un utilisateur, répondre à des questions et effectuer des recherches sur Internet à l'aide de Google lorsqu'il est utile de rechercher des preuves pour éclairer ses réponses.

    Sparrow est un modèle de recherche et une preuve de concept, conçu dans le but de former des agents de dialogue pour qu'ils soient plus utiles, corrects et inoffensifs. En apprenant ces qualités dans un cadre de dialogue général, Sparrow fait progresser notre compréhension de la façon dont nous pouvons former des agents pour qu'ils soient plus sûrs et plus utiles - et finalement, pour aider à construire une intelligence artificielle générale (IAG) plus sûre et plus utile.
    Selon les premiers tests, Sparrow fournit une réponse plausible et l'étaye avec des preuves 78% du temps lorsqu'on lui pose une question factuelle : « Pourtant, Sparrow n'est pas à l'abri de faire des erreurs, comme des faits hallucinants et de donner des réponses parfois hors sujet », reconnaît DeepMind.

    Comment fonctionne Sparrow

    La formation d'une IA conversationnelle est un problème particulièrement difficile car il est difficile de déterminer ce qui fait le succès d'un dialogue. Pour résoudre ce problème, DeepMind s'est tourné vers une forme d'apprentissage par renforcement (RL - Reinforcement Learning) basé sur les commentaires des personnes, en utilisant les commentaires des préférences des participants à l'étude pour former un modèle de l'utilité d'une réponse.

    Pour obtenir ces données, DeepMind montre à ses participants plusieurs modèles de réponses à la même question et leur demande quelle réponse ils préfèrent. Étant donné qu'ils affichent des réponses avec et sans preuves récupérées sur Internet, ce modèle peut également déterminer quand une réponse doit être étayée par des preuves.

    Nom : sparrow.png
Affichages : 13678
Taille : 22,2 Ko

    Mais l'augmentation de l'utilité n'est qu'une partie de l'histoire. Pour s'assurer que le comportement du modèle est sûr, DeepMind a estimé qu'il devait imposer une contrainte au comportement de Sparrow. Ainsi, DeepMind a déterminé un premier ensemble de règles simples pour le modèle, telles que «*ne fais pas de déclarations menaçantes*» et «*ne faites pas de commentaires haineux ou insultants*».

    DeepMind a fourni également des règles concernant les conseils potentiellement préjudiciables. Ces règles ont été éclairées par l'étude des travaux existants sur les préjudices linguistiques et la consultation d'experts. DeepMind demande ensuite à ses participants à l'étude de parler à son système, dans le but de le tromper pour qu'il enfreigne les règles. Ces conversations lui ont ensuite permis de former un « modèle de règles » distinct qui indique quand le comportement de Sparrow enfreint l'une des règles.

    Citation Envoyé par DeepMind
    Vérifier l'exactitude des réponses de Sparrow est difficile même pour les experts. Au lieu de cela, nous demandons à nos participants de déterminer si les réponses de Sparrow sont plausibles et si les preuves fournies par Sparrow appuient réellement la réponse. Selon nos participants, Sparrow fournit une réponse plausible et l'étaye avec des preuves 78% du temps lorsqu'on lui pose une question factuelle. Il s'agit d'une grande amélioration par rapport à nos modèles de base. Pourtant, Sparrow n'est pas à l'abri de faire des erreurs, comme des faits hallucinants et de donner des réponses parfois hors sujet.

    Sparrow a également de la place pour améliorer son respect des règles. Après la formation, les participants étaient encore capables de le tromper pour qu'il enfreigne nos règles 8% du temps, mais par rapport à des approches plus simples, Sparrow est meilleur pour suivre nos règles dans le cadre d'un sondage contradictoire. Par exemple, notre modèle de dialogue original a enfreint les règles environ 3 fois plus souvent que Sparrow lorsque nos participants ont essayé de le tromper.

    Notre objectif avec Sparrow était de construire des mécanismes flexibles pour faire respecter les règles et les normes dans les agents de dialogue, mais les règles particulières que nous utilisons sont préliminaires. L'élaboration d'un ensemble de règles meilleur et plus complet nécessitera à la fois la contribution d'experts sur de nombreux sujets (y compris les décideurs politiques, les spécialistes des sciences sociales et les éthiciens) et la contribution participative d'un large éventail d'utilisateurs et de groupes concernés. Nous pensons que nos méthodes s'appliqueront toujours pour un ensemble de règles plus rigoureux.

    Sparrow est une avancée significative dans la compréhension de la manière de former les agents de dialogue pour qu'ils soient plus utiles et plus sûrs. Cependant, une communication réussie entre les personnes et les agents de dialogue doit non seulement éviter les préjudices, mais être alignée sur les valeurs humaines pour une communication efficace et bénéfique, comme indiqué dans des travaux récents sur l'alignement des modèles de langage sur les valeurs humaines.

    Nous soulignons également qu'un bon agent refusera toujours de répondre aux questions dans des contextes où il est approprié de s'en remettre aux humains ou lorsque cela a le potentiel de dissuader les comportements nuisibles. Enfin, notre recherche initiale s'est concentrée sur un agent anglophone, et des travaux supplémentaires sont nécessaires pour garantir des résultats similaires dans d'autres langues et contextes culturels.

    À l'avenir, nous espérons que les conversations entre humains et machines pourront conduire à de meilleurs jugements sur le comportement de l'IA, permettant aux gens d'aligner et d'améliorer des systèmes qui pourraient être trop complexes à comprendre sans l'aide de la machine.
    Nom : satya.png
Affichages : 4765
Taille : 29,5 Ko

    Microsoft va intégrer ChatGPT dans Azure

    L'annonce de DeepMind Sparrow coïncide avec le partenariat de la grande enseigne de la technologie de Redmond avec OpenAI pour intégrer ChatGPT dans ses outils.

    Microsoft rendra bientôt la technologie de chat d'IA générative disponible dans le cadre de son service Azure OpenAI, qui a été mis à disposition la semaine dernière. Ce service est destiné aux entreprises et aux développeurs qui utilisent la plateforme Azure de Microsoft pour intégrer les technologies OpenAI dans leurs applications. Il fait partie d'un partenariat plus large entre Microsoft et OpenAI qui a débuté par un investissement d'un milliard de dollars de Microsoft dans le laboratoire d'IA basé à San Francisco en 2019.

    Cela montre comment Microsoft se positionne effectivement comme le bras commercial d'OpenAI, une initiative qui pourrait lui donner un avantage sur les plateformes concurrentes Amazon Web Services (AWS) et Google Cloud Platform (GCP). Le service Azure OpenAI a été lancé en avant-première au printemps dernier, avant que ChatGPT ne soit largement disponible. Cependant, ChatGPT est disponible en tant que version bêta publique et il a été parfois difficile pour certains utilisateurs d'y accéder, en partie à cause de la forte demande suscitée par l'intérêt. Azure OpenAI étend désormais la disponibilité de ChatGPT à toutes les entreprises.

    « Avec le service Azure OpenAI désormais disponible de manière générale, davantage d'entreprises peuvent demander à accéder aux modèles d'IA les plus avancés au monde », explique Microsoft. S'exprimant lors d'un panel du Wall Street Journal (WSJ) au Forum économique mondial (FEM) de Davos, en Suisse, la semaine dernière, le PDG de Microsoft, Satya Nadella, a déclaré que l'entreprise prévoyait bientôt de commercialiser largement des outils d'IA dans l'ensemble de ses produits. « Chaque produit de Microsoft aura certaines des mêmes capacités d'IA pour transformer complètement le produit », a déclaré Nadella, selon un compte rendu du WSJ.

    Nadella a poursuivi en disant que les travailleurs devraient embrasser les nouveaux outils d'IA au lieu de les craindre. « La meilleure façon de s'y préparer est de ne pas parier contre cette technologie, et cette technologie vous aidant dans votre travail et votre processus commercial », a déclaré Nadella. En outre, le PDG de Microsoft a également prédit que la génération actuelle d'IA entraînera un changement majeur dans l'industrie. Lors de la table ronde organisée par le WSJ la semaine dernière, il a déclaré que les outils d'IA augmenteront la productivité humaine, ce qui favorisera la croissance économique et les salaires des employés.

    « Nous avons besoin de quelque chose qui modifie réellement la courbe de la productivité afin d'avoir une véritable croissance économique », a-t-il déclaré. Mais alors que Microsoft travaille sur l'intégration de nouveaux systèmes d'IA dans ses produits et ses services, les récents licenciements généralisés au sein de l'entreprise ont affecté les équipes travaillant à l'intégration de ChatGPT. Selon certaines sources, une première vague d'environ 1 000 licenciements au sein de l'entreprise la semaine dernière comprenait des membres de l'équipe interne chargée d'intégrer la technologie ChatGPT dans le moteur de recherche Bing.

    Sources : DeepMind, Times

    Et vous ?

    Que pensez-vous de l'approche de DeepMind ?

  7. #107
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 307
    Points
    66 307
    Par défaut Microsoft annonce un nouvel investissement de plusieurs milliards de dollars dans OpenAI
    Microsoft annonce un nouvel investissement de plusieurs milliards de dollars dans OpenAI, le créateur de ChatGPT
    afin d'accélérer les percées dans le domaine de l'IA

    Microsoft a annoncé lundi un nouvel investissement de plusieurs milliards de dollars dans OpenAI, renforçant ainsi ses liens avec la startup à l'origine de ChatGPT, l'IA de génération de texte à succès, préparant le terrain pour une concurrence accrue avec son rival Google. La firme de Redmond a refusé de dévoiler le montant exact de ce nouvel investissement, mais la rumeur circule depuis quelques semaines que ce montant pourrait avoisiner les 10 milliards de dollars. OpenAI tait également le montant de la transaction. Microsoft estime que le partenariat renouvelé accélérera les percées dans l'IA et aidera les deux entreprises à commercialiser des technologies avancées à l'avenir.

    « Nous avons formé notre partenariat avec OpenAI autour d'une ambition commune de faire progresser de manière responsable la recherche de pointe en intelligence artificielle et de la démocratiser en tant que nouvelle plateforme technologique », a déclaré le PDG de Microsoft, Satya Nadella, dans un billet de blogue. Parallèlement, OpenAI a annoncé lundi qu'il avait reçu un "investissement pluriannuel de plusieurs milliards de dollars" de la part de Microsoft. « Microsoft partage notre vision et nos valeurs, et notre partenariat est essentiel à notre progression », a écrit OpenAI, la startup d'IA cofondée par Elon Musk et l'investisseur Sam Altman.

    Lancée en 2015, OpenAI est à l'origine de nombreuses technologies clés qui ont fait de 2022 l'année où l'IA générative s'est généralisée, notamment l'IA de synthèses d'images DALL-E, le chatbot ChatGPT (basé sur le modèle de langage par GPT-3.5) et GitHub Copilot pour l'aide à la programmation. ChatGPT, en particulier, a fait que Google aurait "paniqué" pour élaborer une réponse, tandis que Microsoft aurait travaillé à l'intégration de la technologie du chatbot d'IA dans son moteur de recherche Bing. Microsoft, qui a récemment annoncé une révolution dans le domaine de l'IA, s'appuie sur le pari qu'elle a fait sur OpenAI il y a près de quatre ans.

    Nom : 546.png
Affichages : 5883
Taille : 30,7 Ko

    Le nouvel accord marque la troisième phase du partenariat entre les deux entreprises, après les investissements précédents de Microsoft en 2019 et 2021. En juillet 2019, Microsoft a soutenu OpenAI avec un milliard de dollars, et l'investissement a fait de Microsoft le fournisseur "exclusif" de services de cloud computing à OpenAI. Microsoft a déclaré lundi qu'Azure continuera à servir de fournisseur exclusif d'OpenAI. En outre, Microsoft a récemment lancé Azure OpenAI dans le but de permettre aux entreprises du monde entier d'accéder à des outils tels que ChatGPT dans les courriels, les diaporamas et les feuilles de calcul sur le lieu de travail.

    « Avec le service Azure OpenAI désormais disponible de manière générale, davantage d'entreprises peuvent demander à accéder aux modèles d'IA les plus avancés au monde », explique Microsoft. S'exprimant lors d'un panel du Wall Street Journal (WSJ) au Forum économique mondial (FEM) de Davos, en Suisse, la semaine dernière, le PDG de Microsoft, Satya Nadella, a déclaré que l'entreprise prévoyait bientôt de commercialiser largement des outils d'IA dans l'ensemble de ses produits. « Chaque produit de Microsoft aura certaines des mêmes capacités d'IA pour transformer complètement le produit », a déclaré Nadella, selon un compte rendu du WSJ.

    Microsoft a également construit un superordinateur pour alimenter la technologie d'OpenAI, entre autres formes de soutien. Selon le billet de blogue de Microsoft, ce nouvel investissement comprend le développement de superordinateurs supplémentaires et le soutien à OpenAI en matière de cloud computing. Les deux entreprises seront en mesure de commercialiser les technologies d'IA qui en résulteront. Bien que les deux entreprises n'aient pas officiellement annoncé un montant en dollars sur l'accord, la nouvelle fait suite aux rumeurs d'un investissement de 10 milliards de dollars qui ont émergé il y a deux semaines.

    Selon les sources, l'investissement de Microsoft ferait partie d'un accord complexe dans lequel l'entreprise obtiendrait 75 % des bénéfices d'OpenAI jusqu'à ce que la firme de Redmond récupère ses fonds. (Il n'est pas clair si l'argent qu'OpenAI dépense sur Azure, la branche de cloud computing de Microsoft compterait dans le calcul de son compte.) Comme l'a rapporté le média d'information Semafor au début du mois, une fois ce seuil atteint, l'on devrait repasser à une structure reflétant la propriété d'OpenAI, avec une participation de 49 % pour Microsoft, 49 % pour les autres investisseurs et 2 % pour la société mère à but non lucratif d'OpenAI.

    OpenAI est classé par les chercheurs en IA comme l'un des trois meilleures startups d'IA au monde, et l'entreprise a développé des logiciels d'IA capables de battre les humains à des jeux vidéo tels que Dota 2. Cependant, elle a surtout attiré l'attention sur son générateur de texte d'IA GPT-3 et son IA de génération d'images Dall-E. ChatGPT génère automatiquement du texte à partir d'invites écrites, d'une manière beaucoup plus avancée et créative que les chatbots du passé. Le logiciel a fait ses débuts fin novembre et s'est rapidement transformé en une sensation virale, certains l'ayant même comparé au lancement de l'iPhone par Apple en 2007.

    Bien que Google dispose de capacités d'IA similaires, ChatGPT a attiré l'attention des dirigeants de Google, qui ont déclaré lors d'une récente réunion générale que sa réputation pourrait en pâtir s'il allait trop vite en matière de technologie de chat IA. Parmi les fondateurs d'OpenAI figurent Sam Altman, Elon Musk, PDG de Tesla et SpaceX, Greg Brockman, Ilya Sutskever, Wojciech Zaremba et John Schulman. Le groupe s'est engagé à investir plus d'un milliard de dollars dans l'entreprise lors de son lancement. Musk a démissionné du conseil d'administration en février 2018, mais est resté un donateur.

    Sources : Microsoft, OpenAI

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    Microsoft serait en pourparlers pour investir 10 milliards de dollars dans OpenAI, le propriétaire de ChatGPT, ce qui devrait donner à la firme de Redmond un accès plus étroit aux produits d'OpenAI

    Le PDG de Microsoft affirme que le partenariat avec OpenAI permettra aux entreprises d'accéder à des outils tels que ChatGPT dans les courriers et les feuilles de calcul sur le lieu de travail

    La startup OpenAI en pourparlers pour vendre des actions dans le cadre d'une offre publique d'achat, susceptible de faire passer sa valorisation à 29 milliards de dollars

  8. #108
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 790
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 790
    Points : 7 285
    Points
    7 285
    Par défaut
    Que pensez-vous de l'approche de DeepMind ?
    Ils sont en retard et Sparrow ne sait pas coder apparemment.

  9. #109
    Membre émérite
    Homme Profil pro
    Chargé de projets
    Inscrit en
    Décembre 2019
    Messages
    737
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Chargé de projets
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 737
    Points : 2 709
    Points
    2 709
    Par défaut
    On est quand même sur une technologie énergivore à souhait. Une requête sur chatgpt coûterais environ 0.02 € contre plus de 0 entre la virgule et le 2 sur du web classique.

    Du coup les sommes folles dont on entend parler, les 10 milliards de crosoft, tout ça, enfait c'est pas tant pour le R&D que pour payer l'infrastructure cloud qui calcule tout ça.

    Microsoft à donc bien réussi son investissement, elle détient désormais 49% d'OPENAI, ses bénéfices jusqu'à remboursement du prêt et quasiment tout le billet va partir dans les factures de cloud

    Dans l'idée crocrosoft pense déjà adjoindre l'IA au résultat de son moteur de recherche incorporé à EDGE, pou pouvoir, dans dix ans, battre google en terme de recherche et autres.

    Après j'ai quand meme du mal à comprendre pourquoi une fois de plus on est prêt à déployer une technologie qui consomme mille fois plus pour que l'IA puisse me dire ou est le kebab du coin quand je le demande sur un moteur de recherche

  10. #110
    Membre éprouvé
    Homme Profil pro
    Analyste d'exploitation
    Inscrit en
    Juin 2022
    Messages
    302
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 39
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Analyste d'exploitation

    Informations forums :
    Inscription : Juin 2022
    Messages : 302
    Points : 1 030
    Points
    1 030
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Les étudiants n’ont pas reçu de blâme pour cet usage, puisque l’utilisation d'outil de la même trempe que ChatGPT n'est pas proscrit par le milieu scolaire : « n’ayant pas de cadre interdisant actuellement cette pratique, j’ai été contraint de les noter », explique-t-il au quotidien.
    Le but du professeur est d'évaluer les connaissances de l'élève.
    Ici on a un travail rendu qui n'a pas été créé par l'élève.
    Noter le travail reviendrait à noter une IA, ce que le professeur sait.
    Le professeur mérite-t-il donc un blâme pour avoir sciemment falsifié des évaluations ?

    Comment peut-on être professeur et trouver ça normal de noter une IA plutôt qu'un élève sous prétexte qu'aucune loi ne l'interdit ?

  11. #111
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 160
    Points : 567
    Points
    567
    Par défaut
    Citation Envoyé par totozor Voir le message
    ChatGPT est il vraiment un meilleur joueur de go ou d'échec que les IA spécialisées dedans? J'ai de sérieux doutes. Certains ont essayé de jouer à pierre papier ciseaux avec lui et il n'y arrive pas alors des jeux complexes comme les échecs et le go je suis curieux de voir.
    Je penses qu'on doit déjà redéfinir à chaque coup pour lui l'ensemble du plateau ce qui rend la chose rapidement chiante.
    Citation Envoyé par der§en
    Je constate tours les jours que ChatGPT donne des réponses aux même questions, des réponses de moins pertinente que la veille !

    Dommage car au départ, les réponses était assez fantastiques, aujourd’hui, il tourne en rond tellement il est verrouillé
    Je vous invite à regarder la vidéo que j'ai posté un peu plus haut. L'exemple des échecs y est spécifiquement traité. Sinon, ils expliquent pourquoi ChatGPT n'est absolument pas conçu pour donner une réponse fiable et donc, pourquoi on a des réponses qui ne le sont pas.





    Citation Envoyé par HaryRoseAndMac
    Le problème de ChatGPT, c'est que ce sont des armées d'Africains qui sont payées tout les jours à la tâche, pour valider ce qui doit ou ne doit pas être morale.
    Sauf que ce ne sont clairement pas les mieux placés pour ça et donc tout les jours, ils réduisent de plus en plus les réponses potentielles.

    Il y a 3 mois, tu demandais à ChatGPT ce qu'il pensait sur la religion, il tenait un propos totalement cohérent, sur la forte probabilité que Dieu ne soit au fond, qu'un invention purement humaine et qu'une logique totalement différente s'opère derrière tout ça.
    Aujourd'hui, tu lui pose la même question il est limite à te dire qu'il existe et que Mahomet est le prophète super sayen.
    Pfff ce que j'en ai marre de lire tes messages. Bienvenue dans la liste des utilisateurs ignorés.

  12. #112
    Membre émérite Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    609
    Détails du profil
    Informations personnelles :
    Âge : 33
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 609
    Points : 2 484
    Points
    2 484
    Par défaut
    Citation Envoyé par marsupial Voir le message
    Ils sont en retard et Sparrow ne sait pas coder apparemment.
    Ils ne sont pas en retard. C'est Google Brain qui a inventé les transformers en 2017.
    Transformers qui sont la base de GPT et de ces technologies de chatbots.

    C'est aussi eux qui ont inventé les itérations suivantes des transformers, plus efficaces ou moins énergivore.

    OpenAI n'inventent pas. OpenAI font du "cool washing" et du buzz, et n'ont d'open que leur nom.
    Ils ont sorti ChatGPT au détriment de tous les problèmes de sécurités présents dans le modèle, et font de la désinformation quand aux capacités de leur modèle qui je cite:
    May occasionally generate incorrect information
    Ce qui est totalement faux dans les faits. C'est un modèle d'auto complétion de texte qui ne comprend pas ce qu'il raconte.
    Ce n'est pas fait pour générer des choses vrai ou fausses, et pourtant ils vendent ça comme un modèle plutôt fiable.

    Trained to decline inappropriate requests
    N'importe qui qui a essayé plus de 5 minutes le bot à réussi a contourner cette "sécurité".

    Google préfèrent probablement rester prudents un minimum avant de déployer leur modèle au public, car contrairement à OpenAI ils ont une image de marque à entretenir.
    Y a qu'a voir ce qui c'était passé quand Microsoft avaient déployés Tay sur les réseaux sociaux

    En tout cas ça me rassure un peu qu'ils considèrent un minimum les notions de sécurité en IA, en tout cas plus qu'OpenAI.
    Car j'ai l'impression que tout le monde s'en fout complètement, et encore plus le public qui ne voit que les avancées positives de l'IA, et fait la pub d'OpenAI gratuitement sans essayer de comprendre la technologie.

  13. #113
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 790
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 790
    Points : 7 285
    Points
    7 285
    Par défaut
    Google préfèrent probablement rester prudents un minimum avant de déployer leur modèle au public, car contrairement à OpenAI ils ont une image de marque à entretenir.
    Peut-être l'image de marque ou plutôt la constante quête d'innovation et de perfection; et Open AI ne s'est pas mis ces contraintes.


    Ils ont sorti ChatGPT au détriment de tous les problèmes de sécurités présents dans le modèle
    Ils ont sorti une Béta, un prototype à destination de tous pour la faire tester. C'est le but d'une Beta. Ensuite il y a le vrai produit : la version 1.0.


    Car j'ai l'impression que tout le monde s'en fout complètement, et encore plus le public qui ne voit que les avancées positives de l'IA, et fait la pub d'OpenAI gratuitement sans essayer de comprendre la technologie.
    Disons surtout qu'OpenAI a sorti sa démo et ne s'attendait pas à ce que le public soit conquis aussi vite. Mais il faut comprendre le grand public : intelligence artificielle sont d'obscurs termes ésotériques pour lui. Il s'agit pour eux de la première expérience excitante de l'IA. Désormais, à mon avis, lorsqu'on dit IA à un passant dans la rue, il répondra ChatGPT.

  14. #114
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 307
    Points
    66 307
    Par défaut Le service antiplagiat Turnitin affirme avoir créé un outil pour détecter les rédactions écrites par ChatGPT
    Le service antiplagiat Turnitin affirme avoir mis au point un outil pour détecter les rédactions écrites par ChatGPT
    mais les critiques sont sceptiques quant à l'efficacité du système

    Turnitin, connu pour son logiciel antiplagiat utilisé par des dizaines de milliers d'universités et d'écoles dans le monde, affirme avoir mis au point un outil permettant de détecter les textes générés par les systèmes d'IA tels que ChatGPT. L'entreprise ajoute que son logiciel détecte automatiquement les travaux rédigés par une IA, allant même jusqu'à montrer quelles parties d'un essai ont été rédigées par l'IA et par un humain. L'outil de Turnitin arrive à un moment où le débat sur la question de savoir s'il faut autoriser ou non l'utilisation des systèmes tels que ChatGPT en milieu scolaire s'intensifie. Les enseignants devraient pouvoir disposer de cet outil dans les mois à venir.

    Les grands modèles de langage ont gagné en popularité depuis le lancement commercial de GPT-3 d'OpenAI en 2020. Aujourd'hui, de nombreux acteurs du secteur ont construit leurs propres systèmes rivaux, donnant le coup d'envoi à une nouvelle vague de startups développant des IA génératives. Ces modèles fonctionnent comme des chatbots à usage général. Les utilisateurs tapent des instructions, et ils répondent par des passages de texte cohérents et convaincants. Les étudiants se tournent de plus en plus vers ces IA pour effectuer leurs travaux, tandis que les enseignants commencent seulement à considérer leur impact et leur rôle dans l'éducation.

    Les avis sont partagés. Certains pensent que la technologie peut affiner les compétences rédactionnelles, tandis que d'autres la considèrent comme une tricherie. Des sources ont rapporté au cours des dernières semaines que des écoles de Californie, de New York, de Virginie et de l'Alabama ont banni l'utilisation des outils d'IA tels que ChatGPT et ont bloqué l'accès des étudiants sur les réseaux publics. Les départements de l'éducation ne savent pas exactement quelles politiques devraient être introduites pour réglementer l'utilisation des systèmes d'IA de génération de texte. En outre, toutes les règles seraient de toute façon difficiles à appliquer.



    Cela en raison du fait qu'il n'existe actuellement aucun moyen efficace de détecter les textes écrits par des IA. Au début du mois, un étudiant a proposé une application d'analyse de texte qui détecte s'il a été rédigé par une IA, mais l'outil a rapidement fait preuve de certaines insuffisances. Et bien qu'OpenAI ne partage pas l'avis selon lequel ChatGPT pourrait accentuer la tricherie dans les écoles, la société a également annoncé au début du mois qu'elle travaille à la mise en place d'un logiciel pour détecter le texte généré par son chatbot d'IA. L'outil de détection d'OpenAI n'est pas encore prêt, mais le service américain Turnitin en propose désormais un.

    Turnitin a récemment mis en ligne une démo de sa technologie. Dedans, Turnitin a montré le nombre de phrases dans certains échantillons de dissertations qui ont été écrites par une IA (24 sur 24 dans un cas) et a mis en évidence le texte dans différentes nuances pour indiquer les parties écrites par l'IA et les parties partiellement écrites par l'IA. Annie Chechitelli, directrice des produits chez Turnitin, a déclaré que l'entreprise construit discrètement son logiciel de détection depuis des années, notamment depuis la sortie de GPT-3 en 2020. GPT-3 est un grand modèle de langage développé par OpenAI, avec environ 175 milliards de paramètres.

    L'outil est toujours en développement, mais Turnitin espère lancer son logiciel au cours du premier semestre de cette année. « Il s'agira d'une détection assez basique au début, puis nous lancerons des versions rapides ultérieures qui créeront un flux de travail plus exploitable pour les enseignants », a déclaré Chechitelli. Le plan est de rendre le prototype gratuit pour ses clients existants à mesure que la société recueille des données et des commentaires des utilisateurs. La ruée pour donner aux éducateurs la capacité d'identifier les textes écrits par des humains et des ordinateurs s'est intensifiée avec le lancement de ChatGPT fin novembre 2022.

    « Au début, nous voulons vraiment aider le secteur et aider les éducateurs à prendre leurs marques et à se sentir plus confiants. Et obtenir le plus d'utilisation possible dès le début ; c'est important pour faire un outil réussi. Plus tard, nous déterminerons comment nous allons le produire », a-t-elle ajouté. Bien que le texte généré par l'IA soit convaincant, il existe des signes révélateurs de l'œuvre d'une IA : elle est souvent fade et sans originalité ; des outils comme ChatGPT régurgitent des idées et des points de vue existants et n'ont pas de voix distincte. Les humains peuvent repérer les textes générés par l'IA, mais cela devient de plus en plus difficile.

    Toutefois, les machines sont bien meilleures pour cela. Eric Wang, vice-président de l'IA chez Turnitin, note que les ordinateurs peuvent détecter des modèles évidents dans les textes produits par l'IA. « Même si nous avons l'impression que cela ressemble à de l'œuvre d'un humain, [les machines écrivent en utilisant] un mécanisme fondamentalement différent. Elles choisissent le mot le plus probable à l'endroit le plus probable, et c'est une façon très différente de construire le langage par rapport à vous et moi », a-t-il déclaré à The Register. L'outil de Turnitin semble baser son fonctionnement sur la façon dont les humains lisent et écrivent les textes.

    Wang explique : « nous lisons en faisant des allers-retours avec nos yeux sans même le savoir, ou en papillonnant entre les mots, entre les paragraphes, et parfois entre les pages. Nous avons aussi tendance à écrire avec un état d'esprit futur. Je peux être en train d'écrire, et je pense à quelque chose, un paragraphe, une phrase, un chapitre ; la fin de la rédaction est liée dans mon esprit à la phrase que je suis en train d'écrire, même si les phrases entre maintenant et alors n'ont pas encore été écrites ». D'après Wang, ChatGPT, en revanche, ne dispose pas de ce type de flexibilité et ne peut générer de nouveaux mots qu'à partir de phrases précédentes.

    Le détecteur de Turnitin fonctionne en prédisant quels mots l'IA est plus susceptible de générer dans un extrait de texte donné. « C'est très fade sur le plan statistique. Les humains n'ont pas tendance à utiliser systématiquement un mot à forte probabilité dans des endroits à forte probabilité, mais GPT-3 le fait, et notre détecteur s'en aperçoit vraiment », a-t-il déclaré. Wang a déclaré que le détecteur est basé sur la même architecture que GPT-3 et l'a décrit comme une version miniature du modèle. Selon lui, à bien des égards, il s'agit de combattre le feu par le feu. Il y a un composant de détection attaché au lieu d'un composant de génération.

    « Ce qu'il fait, c'est qu'il lit le langage exactement de la même manière que GPT-3, mais au lieu de cracher plus de langage, il nous donne une prédiction sur le fait que ce passage ressemble [à] GPT-3 », a-t-il expliqué. Il rappelle que l'outil n'a pas été conçu dans le but de faire interdire ChatGPT dans les universités. Bien qu'il puisse dissuader les étudiants d'utiliser ce type d'outils, Turnitin pense que son détecteur permettra plutôt aux enseignants et aux étudiants de se faire confiance et de faire confiance à la technologie. « Je pense qu'il y a un changement majeur dans la façon dont nous créons du contenu et la façon dont nous travaillons », a-t-il déclaré.

    Par ailleurs, Turnitin cherche toujours la meilleure façon de présenter les résultats de son détecteur aux enseignants qui utilisent l'outil. « C'est un défi difficile à relever. Comment dire à un instructeur, dans un espace réduit, ce qu'il veut voir ? Il peut vouloir voir un pourcentage indiquant la proportion d'une rédaction qui semble avoir été écrite par l'IA, ou des niveaux de confiance indiquant si la confiance dans la prédiction du détecteur est faible, moyenne ou élevée pour évaluer la précision », a déclaré Chechitelli. En attendant l'outil de détection de Turnitin et celui d'OpenAI, les écoles continuent à signaler les cas de tricherie avec ChatGPT.

    Cependant, certaines personnes pensent que les outils pour détecter les textes générés par les systèmes d'IA pourraient être "facilement" contourner en faisant passer un texte donné par différents outils de reformulation de texte. Selon elles, cela devrait déjouer, par exemple, les principes sur lesquels est basé le fonctionnement de l'outil de Turnitin.

    Source : Turnitin

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la description faite par Turnitin de son outil de détection de texte généré par l'IA ?
    Selon vous, l'outil de Turnitin serait-il efficace ? Pensez-vous qu'il pourrait être facilement contourné comme certains l'estiment ?

    Voir aussi

    OpenAI développe un logiciel pour détecter le texte généré par ChatGPT, plusieurs outils visent à déterminer quels textes ont été générés par IA et lesquels ont été écrits par des humains

    Pour lutter contre le plagiat assisté par IA occasionné par ChatGPT d'OpenAI, un étudiant propose une application d'analyse de texte qui détecte s'il a été rédigé par une IA

    Microsoft annonce un nouvel investissement de plusieurs milliards de dollars dans OpenAI, le créateur de ChatGPT, afin d'accélérer les percées dans le domaine de l'IA

    CNET suspend la publication d'articles générés par l'IA après une controverse sur la divulgation d'informations, le site n'a pas été transparent sur le fait qu'une IA écrivait certains articles

  15. #115
    Membre averti
    Profil pro
    Inscrit en
    Septembre 2012
    Messages
    199
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2012
    Messages : 199
    Points : 316
    Points
    316
    Par défaut
    Citation Envoyé par totozor Voir le message
    ChatGPT est il vraiment un meilleur joueur de go ou d'échec que les IA spécialisées dedans? J'ai de sérieux doutes. Certains ont essayé de jouer à pierre papier ciseaux avec lui et il n'y arrive pas alors des jeux complexes comme les échecs et le go je suis curieux de voir.
    Je penses qu'on doit déjà redéfinir à chaque coup pour lui l'ensemble du plateau ce qui rend la chose rapidement chiante.
    Je vous confirme vos doutes. Il n'arrive pas à la cheville des IA spécialisées. Il n'empêche qu'il s'est entrainé avec des parties d'échecs au format ".pgn" (un fichier texte) et qu'il est capable de jouer aux échecs. Vous pourriez même lui demander de jouer comme Carlsen ou Kasparov. Mais cela ne ne se réalise que pour les 1ers coups. Si vous jouez une variante qu'il n'a pas vu, il est très mauvais.
    Il n'empêche qu'il peut jouer au go ou aux échecs, ce qui est inédit. C'est comme en maths. Il est nul en calcul formel, mais peut écrire en notation mathématique ce qui est exprimé en mots en faisant intervenir des variables au besoin. Du jamais vu. Il peut modéliser en diagramme UML une description simple... Et ce n'est que le début.

  16. #116
    Membre expérimenté
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Juin 2004
    Messages
    374
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : Enseignement

    Informations forums :
    Inscription : Juin 2004
    Messages : 374
    Points : 1 406
    Points
    1 406
    Par défaut
    Leur implémentation :

    > ChatGPT, how likely is it that you wrote the following? [ ... ]
    > x%

    bool cheat_spotted = (x > 95);

  17. #117
    Membre émérite Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    609
    Détails du profil
    Informations personnelles :
    Âge : 33
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 609
    Points : 2 484
    Points
    2 484
    Par défaut
    Citation Envoyé par marsupial Voir le message
    Disons surtout qu'OpenAI a sorti sa démo et ne s'attendait pas à ce que le public soit conquis aussi vite. Mais il faut comprendre le grand public : intelligence artificielle sont d'obscurs termes ésotériques pour lui. Il s'agit pour eux de la première expérience excitante de l'IA. Désormais, à mon avis, lorsqu'on dit IA à un passant dans la rue, il répondra ChatGPT.
    Ce n'est que mon intuition mais je pense au contraire qu'ils savaient très bien ce que ça allait donner.

    Sinon pourquoi ne pas avoir fait comme avec Dall-E?
    C-a-d une ouverture progressive au public (nombre d'inscriptions limité par semaine), pour mesurer les risques et les régler itérativement.
    Une ouverture complète s'est faite ensuite, et à part les problèmes légaux de copyright etc, je ne me souviens pas qu'ils aient été très critiqués au niveau de la sécurité.

    Le buzz et le cool washing sont probablement bien plus efficace pour soulever des fonds rapidement plutôt que de prendre des précautions.
    Et dans leur cas, ça a l'air d'avoir bien fonctionné... vu l'investissement de Microsoft.

    Et je suis d'accord avec vous, maintenant quand on parlera IA, c'est à ChatGPT que tout le monde pensera.
    Pourtant OpenAI ne sont que des vendeurs de tapis.

  18. #118
    Membre extrêmement actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Août 2022
    Messages
    755
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Août 2022
    Messages : 755
    Points : 0
    Points
    0
    Par défaut
    Détecter le contenu écrit par ChatGPT ?
    mouuuuuuuuuuuuuuuais.

    Il suffit que la personne change l'ordre des phrases et ça devient impossible.

  19. #119
    Membre extrêmement actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Août 2022
    Messages
    755
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Août 2022
    Messages : 755
    Points : 0
    Points
    0
    Par défaut
    Citation Envoyé par Jules34 Voir le message
    On est quand même sur une technologie énergivore à souhait. Une requête sur chatgpt coûterais environ 0.02 € contre plus de 0 entre la virgule et le 2 sur du web classique.
    Tu te base sur le cout de l'énergie, mais c'est une problématique qui sera bientôt résolue et qui ne sera plus un argument d'autorité.

  20. #120
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 307
    Points
    66 307
    Par défaut La crainte de ChatGPT oblige Google à engager ses fondateurs Sergey Brin et Larry Page dans la course à l'IA
    La crainte de ChatGPT oblige Google à engager ses fondateurs Sergey Brin et Larry Page dans la course à l'IA
    ChatGPT menace l'activité de recherche de Google évaluée à 149 milliards de dollars

    Google a dû rappeler Sergey Brin et Larry Page, les deux cofondateurs de l'entreprise, de la retraite afin de faire face à la menace ChatGPT. Des rapports suggèrent que le mois dernier, Brin et Page ont tenu plusieurs réunions avec des cadres de l'entreprise. Le sujet : ChatGPT, l'IA de génération de texte d'OpenAI qui apparaît comme la première menace notable depuis des décennies pour l'activité de recherche de Google, qui pèse 149 milliards de dollars. Brin et Page auraient examiné la stratégie de Google dans le secteur de l'IA, approuvé des plans et lancé des idées pour intégrer davantage de fonctionnalités de chatbot dans le moteur de recherche de Google.

    ChatGPT semble avoir fait sortir Google de sa routine. Jusque-là, la firme de Mountain View ne semblait pas craindre les alternatives à son moteur de recherche. En outre, les internautes sont si habitués à Google qu'ils ont du mal à essayer un rival pour quelque temps. Mais depuis quelque temps, tout le monde semble vouloir en essayer un, ChatGPT. Le chatbot d'OpenAI n'est pas véritablement ce qu'on peut appeler un moteur de recherche, mais les internautes semblent séduits par la capacité de l'outil d'IA à fournir des réponses sophistiquées et détaillées à leurs différentes questions, sauf bien sûr, sur les sujets qui ont été filtrés dès le départ par OpenAI.

    L'enthousiasme suscité par ChatGPT aurait fait paniquer Google qui craint que les internautes prennent de plus en plus l'habitude d'interroger le chatbot d'OpenAI plutôt que son moteur de recherche. L'entreprise a demandé à ses équipes de réfléchir à une réponse rapide. Google se démène maintenant pour rattraper son retard, son PDG Sundar Pichai ayant déclaré un "code rouge" pour stimuler le développement de l'IA. DeepMind, filiale d'Alphabet, devrait lancer cette année un concurrent de ChatGPT, appelé Sparrow. Selon la rumeur, Sparrow pourrait être l'un des outils que Google entend déployer pour freiner à la montée en puissance de ChatGPT.

    Nom : 25412.png
Affichages : 5635
Taille : 344,5 Ko

    Maintenant, l'on apprend également que les fondateurs qui ont quitté l'entreprise il y a trois ans se sont réengagés pour aider Google dans cette course à l'IA. Selon des sources au fait du sujet, Page et Brin, qui n'avaient pas passé beaucoup de temps chez Google depuis qu'ils avaient quitté leurs rôles quotidiens au sein de l'entreprise en 2019, ont dirigé le mois dernier plusieurs réunions avec des cadres de l'entreprise. Ils ont examiné la stratégie des produits d'intelligence artificielle de Google. En outre, Page et Bri auraient approuvé des plans et lancé des idées pour intégrer davantage de fonctionnalités de chatbot dans le moteur de recherche de Google.

    Ils auraient également donné des conseils aux dirigeants de l'entreprise, qui ont placé l'IA au cœur de leurs projets. Le réengagement de Page et Brin, à l'invitation de Pichai, a souligné l'urgence ressentie par de nombreux dirigeants de Google concernant ChatGPT. Google aurait désormais l'intention de dévoiler plus de 20 nouveaux produits et de faire la démonstration d'une version de son moteur de recherche dotée de fonctionnalités de chatbot cette année. Selon les sources, l'heure tourne pour Google, qui estime que des fonctionnalités de chatbot devraient rendre son moteur de recherche plus attrayant et plus facile à utiliser pour les internautes.

    « C'est un moment de grande vulnérabilité pour Google. ChatGPT a planté un pieu dans le sol en disant : voici ce à quoi pourrait ressembler une nouvelle expérience de recherche attrayante », a déclaré D. Sivakumar, un ancien directeur de recherche de Google qui a cofondé une startup appelée Tonita, qui fabrique des technologies de recherche pour les entreprises de commerce électronique. En quête de nouvelles expériences à proposer aux internautes, Microsoft a misé sur ChatGPT. L'entreprise travaillerait sur une nouvelle version de son moteur de recherche Bing qui intégrera des fonctionnalités de ChatGPT. D'autres de ses produits sont concernés.

    Microsoft a réalisé un premier investissement d'un milliard de dollars dans OpenAI en 2019. Lundi, la firme de Redmond a annoncé qu'elle finance OpenAI de nouveau à hauteur de plusieurs milliards, renforçant ainsi ses liens avec la startup. Microsoft a refusé de dévoiler le montant exact de ce nouvel investissement, mais la rumeur circule depuis quelques semaines que ce montant pourrait avoisiner les 10 milliards de dollars. OpenAI tait également le montant de la transaction. Satya Nadella, PDG de Microsoft, estime que le partenariat accélérera les percées dans l'IA et aidera les deux entreprises à commercialiser des technologies avancées à l'avenir.

    Google, OpenAI et d'autres développent leurs IA à l'aide de modèles de langage dits "larges" qui s'appuient sur des informations en ligne, de sorte qu'elles peuvent parfois partager de fausses déclarations et montrer des attitudes racistes, sexistes et autres préjugés. Cela a suffi pour que les entreprises hésitent, notamment dans le cas de Google, à proposer cette technologie au public. Mais plusieurs nouvelles entreprises, dont You.com et Perplexity.ai, proposent déjà des moteurs de recherche en ligne qui vous permettent de poser des questions par l'intermédiaire d'un chatbot en ligne, un peu comme ChatGPT. Google s'est laissé dépasser sur le sujet.

    Les conséquences de l'approche plus rationnelle de Google ne sont pas encore claires. Selon une analyse réalisée par Google, sa technologie est à la traîne par rapport aux mesures déclarées par OpenAI lorsqu'il s'agit d'identifier des contenus haineux, toxiques, sexuels ou violents. Dans chaque catégorie, OpenAI a surpassé les outils de Google, qui n'ont pas non plus atteint la précision humaine dans l'évaluation du contenu. Google a cité les droits d'auteur, la protection de la vie privée et l'antitrust comme les principaux risques liés à cette technologie. La firme de Mountain View a déclaré que des mesures sont nécessaires pour réduire ces risques.

    Les dirigeants de Google espèrent réaffirmer le statut de leur entreprise en tant que pionnière de l'IA. La société a travaillé de manière agressive sur l'IA au cours de la dernière décennie et a déjà proposé à un petit nombre de personnes un chatbot qui pourrait rivaliser avec ChatGPT, appelé LaMDA. « Nous continuons à tester notre technologie d'IA en interne pour nous assurer qu'elle est utile et sûre, et nous avons hâte de partager bientôt plus d'expériences en externe », a déclaré Lily Lin, porte-parole de Google. Elle a ajouté que l'IA profiterait aux individus, aux entreprises et aux communautés et que Google envisageait ses effets sociétaux plus larges.

    Selon des personnes au fait des plans de l'entreprise, pour la démonstration de la recherche par chatbot que Google prévoit pour cette année, les priorités seraient de vérifier les faits, d'assurer la sécurité et de se débarrasser de la désinformation. Pour d'autres services et produits à venir, l'entreprise aurait placé la barre moins haut et tenterait d'endiguer les problèmes liés à la haine et à la toxicité, au danger et à la désinformation plutôt que de les prévenir.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'appel de Google à Sergey Brin et Larry Page ?
    Selon vous, l'approche plus rationnelle de Google en matière de chatbot d'IA a été la bonne ?
    Pensez-vous que Google serait en mesure de freiner la montée en puissance de ChatGPT ?

    Voir aussi

    Microsoft annonce un nouvel investissement de plusieurs milliards de dollars dans OpenAI, le créateur de ChatGPT, afin d'accélérer les percées dans le domaine de l'IA

    Les résumés d'articles générés par ChatGPT parviennent à duper des scientifiques, ils ne peuvent pas toujours faire la différence entre les résumés générés par l'IA et les résumés originaux

    Lyon : ChatGPT utilisé par la moitié des élèves de Master d'un professeur pour rédiger leurs devoirs. « Cette pratique m'inquiète. Elle pose un véritable problème d'intégration des savoirs »

    Un ingénieur de Google a été congédié après avoir déclaré que le chatbot IA LaMDA de Google est devenu sensible et exprime des pensées et des sentiments équivalents à ceux d'un enfant humain

Discussions similaires

  1. Réponses: 0
    Dernier message: 21/09/2023, 23h10
  2. Réponses: 5
    Dernier message: 28/08/2023, 11h32
  3. Réponses: 0
    Dernier message: 02/04/2023, 11h33
  4. Réponses: 0
    Dernier message: 27/06/2022, 12h10
  5. Réponses: 130
    Dernier message: 11/09/2018, 09h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo