IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Les grands modèles de langage (LLM) ne peuvent pas s'autocorriger dans les tâches de raisonnement


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 554
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 554
    Points : 108 905
    Points
    108 905
    Par défaut Les grands modèles de langage (LLM) ne peuvent pas s'autocorriger dans les tâches de raisonnement
    Les grands modèles de langage (LLM) ne peuvent pas s'autocorriger dans les tâches de raisonnement, selon une étude de DeepMind, l'autocorrection pourrait même nuire aux performances de ces modèles.

    Les scientifiques inventent diverses stratégies pour améliorer la précision et les capacités de raisonnement des grands modèles de langage (LLM), telles que l'augmentation de la recherche et le raisonnement par chaîne de pensée. Parmi ces stratégies, l'"autocorrection", une technique par laquelle un LLM affine ses propres réponses, a gagné en popularité, démontrant son efficacité dans de nombreuses applications. Toutefois, les mécanismes à l'origine de ce succès restent insaisissables.

    Une étude récente menée par Google DeepMind en collaboration avec l'Université de l'Illinois à Urbana-Champaign révèle que les LLM échouent souvent lorsqu'ils autocorrigent leurs réponses sans retour d'information externe. En fait, l'étude suggère que l'autocorrection peut parfois nuire aux performances de ces modèles, remettant en question la compréhension dominante de cette technique populaire.


    Les grands modèles de langage (LLM) se sont imposés comme une technologie révolutionnaire grâce à leurs capacités inégalées de génération de textes dans diverses applications. Néanmoins, des inquiétudes persistent quant à la précision et à l'adéquation du contenu généré. Une méthodologie contemporaine, l'autocorrection, a été proposée pour remédier à ces problèmes. Partant de ce postulat, cet article examine de manière critique le rôle et l'efficacité de l'autocorrection au sein des LLM, en mettant en lumière son véritable potentiel et ses limites.

    Au centre de notre enquête se trouve la notion d'autocorrection intrinsèque, par laquelle un LLM tente de corriger ses réponses initiales en se basant uniquement sur ses capacités inhérentes, sans la béquille d'un retour d'information externe. Dans le contexte du raisonnement, notre recherche indique que les LLM ont du mal à auto-corriger leurs réponses sans feedback externe, et parfois, leur performance peut même se dégrader après l'auto-correction. Sur la base de ces observations, nous proposons des suggestions pour les recherches futures et les applications pratiques dans ce domaine.

    Nom : 1.png
Affichages : 2337
Taille : 102,1 Ko

    CONCLUSION

    Notre recherche montre que les LLM ne sont pas encore capables d'autocorriger leur raisonnement. Cela implique qu'attendre de ces modèles qu'ils reconnaissent et rectifient leurs inexactitudes de manière inhérente pourrait être trop optimiste, du moins dans l'état actuel de la technologie. De manière plus générale, cela souligne la nécessité d'une amélioration continue et d'une approche à multiples facettes lors du déploiement des LLM dans des applications réelles. À la lumière de ces résultats, il est impératif que les chercheurs et les praticiens abordent le concept d'autocorrection avec discernement, en reconnaissant son potentiel et ses limites. Ce faisant, nous pouvons mieux équiper cette technique pour traiter les limites des LLM, en orientant leur évolution vers une précision et une fiabilité accrues.
    Source : DeepMind

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    GPT-4 est capable d'améliorer ses performances de 30 % en utilisant un processus d'auto-réflexion, consistant à demander au modèle d'apprendre de ses erreurs pour pouvoir ensuite s'auto-corriger

    Pourquoi ChatGPT devient-il plus nul en mathématiques de base ? Selon une étude, la raison serait un phénomène de dérive imprévisible

    GPT-4 est passé de 98 % à 2 % de réponses exactes à un problème mathématique simple en l'espace de quelques mois, selon une étude qui révèle que les performances de ChatGPT et GPT-4 sont en déclin

  2. #2
    Membre du Club
    Profil pro
    Inscrit en
    Mars 2012
    Messages
    22
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : Mars 2012
    Messages : 22
    Points : 69
    Points
    69
    Par défaut
    De toutes façons, quand on demande à un LLM comme chatGPT de faire une demontration basique en mathematiques, même avec une aide exterieure, il ne parvient jamais à corriger correctement ses erreurs de raisonnement. Plus vous l'aidez, plus il s'emmele les pinceaux.
    C'est un vrai perroquet qui répète bêtement des brides d'informations en relation avec le sujet demandé mais qui ne comprend rien dutout à ce qu'il raconte. Un vrai blablateur !

Discussions similaires

  1. Réponses: 781
    Dernier message: 03/10/2024, 19h59
  2. Réponses: 4
    Dernier message: 28/06/2024, 14h18
  3. Les capacités émergentes des grands modèles linguistiques sont-elles un mirage ?
    Par Nancy Rey dans le forum Intelligence artificielle
    Réponses: 1
    Dernier message: 11/09/2023, 14h59
  4. Réponses: 1
    Dernier message: 29/08/2023, 21h54
  5. Réponses: 0
    Dernier message: 07/02/2023, 21h41

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo