IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Un expert affirme que Claude 3.5 Sonnet réussit le test du miroir, suggérant qu'il est conscient de lui-même


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 109
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 109
    Points : 18 347
    Points
    18 347
    Par défaut Un expert affirme que Claude 3.5 Sonnet réussit le test du miroir, suggérant qu'il est conscient de lui-même
    Anthropic lance Claude 3.5 Sonnet et affirme que le nouveau modèle est plus performant que GPT-4 Omni, et présente également Artifacts, un espace de travail permettant l'édition des projets générés par l'IA

    Anthropic a lancé Claude 3.5 Sonnet ce jeudi 20 juin 2024, affirmant qu'il est plus performant que les modèles précédents et que le GPT-4 Omni d'OpenAI. La startup spécialisée dans l'IA a également présenté Artifacts, un espace de travail permettant aux utilisateurs d'éditer des projets générés par l'IA.

    Anthropic PBC est une startup américaine d'intelligence artificielle (IA) d'intérêt public, fondée en 2021. Elle recherche et développe l'IA pour "étudier ses propriétés de sécurité à la frontière technologique" et utiliser cette recherche pour déployer des modèles sûrs et fiables pour le public. Anthropic a développé une famille de grands modèles de langage (LLM) nommée Claude pour concurrencer ChatGPT d'OpenAI et Gemini de Google.

    La famille de grands modèles de langage Claude 3, développée par Anthropic, a été publiée le 14 mars 2024 et le selon communiqué de presse de l'entreprise, Claude 3 a établi de nouvelles références industrielles dans un large éventail de tâches cognitives, y compris l'analyse des images. La famille Claude 3 comprend trois modèles de pointe par ordre croissant de capacité : Haiku, Sonnet et Opus. La version par défaut de Claude 3, Opus, dispose d'une fenêtre contextuelle de 200 000 tokens, mais celle-ci est étendue à 1 million pour des cas d'utilisation spécifiques.


    Cette version Sonnet, qui fait partie de la famille Claude 3.5, arrive trois mois après Claude 3. Claude 3.5 Sonnet est disponible gratuitement sur Claude.ai et l'application Claude iOS, tandis que les abonnés aux plans Claude Pro et Team peuvent y accéder avec des limites tarifaires nettement plus élevées. Par ailleurs, Anthropic prévoit de lancer les versions 3.5 de Haiku et Opus dans le courant de l'année, et d'explorer des fonctionnalités telles que la recherche sur le web et la mémoire pour les versions futures.

    Anthropic a également présenté Artifacts sur Claude.ai, une nouvelle fonctionnalité qui élargit la façon dont les utilisateurs peuvent interagir avec Claude. Lorsqu'un utilisateur demande à Claude de générer du contenu comme des extraits de code, des documents textuels ou des designs de sites web, ces artefacts apparaissent dans une fenêtre dédiée, parallèlement à leur conversation. Cela crée un espace de travail dynamique où les utilisateurs peuvent voir, modifier et développer les créations de Claude en temps réel, en intégrant de manière transparente le contenu généré par l'IA dans leurs projets et leurs flux de travail, a déclaré la startup.

    Claude 3.5 Sonnet, la première version de la future famille de modèles Claude 3.5 d'Anthropic, relève la barre de l'intelligence dans l'industrie, surpassant les modèles concurrents et Claude 3 Opus sur une large gamme d'évaluations, avec la vitesse et le coût de leur modèle de milieu de gamme, Claude 3 Sonnet.

    Claude 3.5 Sonnet est maintenant disponible gratuitement sur Claude.ai et l'application Claude iOS, tandis que les abonnés aux plans Claude Pro et Team peuvent y accéder avec des limites tarifaires nettement plus élevées. Il est également disponible via l'API Anthropic, Amazon Bedrock et Vertex AI de Google Cloud. Le modèle coûte 3 dollars par million de jetons d'entrée et 15 dollars par million de jetons de sortie, avec une fenêtre contextuelle de 200 000 jetons.

    Nom : Sonnet 3.5 graph.png
Affichages : 9641
Taille : 19,3 Ko

    Une intelligence de frontière avec une vitesse multipliée par deux

    Claude 3.5 Sonnet établit de nouvelles références dans l'industrie pour le raisonnement de niveau avancé (GPQA), les connaissances du monde (MMLU) et la compétence de codage (HumanEval). Il montre une nette amélioration dans la compréhension des nuances, de l'humour et des instructions complexes, et il est exceptionnel dans la rédaction de contenu de haute qualité avec un ton naturel et compréhensible.

    Claude 3.5 Sonnet fonctionne deux fois plus vite que Claude 3 Opus. Cette augmentation des performances, combinée à un prix avantageux, fait de Claude 3.5 Sonnet la solution idéale pour les tâches complexes telles que le support client contextuel et l'orchestration de flux de travail à plusieurs étapes.

    Dans une évaluation interne de codage agentique, Claude 3.5 Sonnet a résolu 64 % des problèmes, surpassant Claude 3 Opus qui en a résolu 38 %. L'évaluation teste la capacité du modèle à corriger un bogue ou à ajouter une fonctionnalité à un code source ouvert, à partir d'une description en langage naturel de l'amélioration souhaitée. Lorsqu'il reçoit des instructions et les outils appropriés, Claude 3.5 Sonnet peut écrire, éditer et exécuter du code de manière autonome avec des capacités de raisonnement et de dépannage sophistiquées. Il gère les traductions de code avec facilité, ce qui le rend particulièrement efficace pour la mise à jour d'applications existantes et la migration de bases de code.

    Nom : Sonnet 3.5 table 1.png
Affichages : 1716
Taille : 107,2 Ko

    Une vision de pointe

    Claude 3.5 Sonnet est le modèle de vision d'Anthropic le plus puissant à ce jour, surpassant Claude 3 Opus dans les tests de vision standard. Ces améliorations sont particulièrement remarquables pour les tâches qui requièrent un raisonnement visuel, comme l'interprétation de tableaux et de graphiques. Claude 3.5 Sonnet peut également transcrire avec précision du texte à partir d'images imparfaites - une capacité essentielle pour la vente au détail, la logistique et les services financiers, où l'IA peut tirer davantage d'informations d'une image, d'un graphique ou d'une illustration que d'un texte seul.



    Nom : Sonnet 3.5 table 2.png
Affichages : 1717
Taille : 56,1 Ko

    Artifacts - une nouvelle façon d'utiliser Claude

    Anthropic introduit également les Artifacts sur Claude.ai, une nouvelle fonctionnalité qui élargit la façon dont les utilisateurs peuvent interagir avec Claude. Lorsqu'un utilisateur demande à Claude de générer du contenu comme des extraits de code, des documents textuels ou des conceptions de sites Web, ces artefacts apparaissent dans une fenêtre dédiée, parallèlement à leur conversation. Cela crée un espace de travail dynamique où les utilisateurs peuvent voir, modifier et développer les créations de Claude en temps réel, en intégrant de manière transparente le contenu généré par l'IA dans leurs projets et leurs flux de travail.

    Cette fonction en avant première marque l'évolution de Claude d'une IA conversationnelle vers un environnement de travail collaboratif. Ce n'est que le début d'une vision plus large pour Claude.ai, qui s'étendra bientôt à la collaboration en équipe. Dans un avenir proche, les équipes - et éventuellement des organisations entières - pourront centraliser en toute sécurité leurs connaissances, documents et travaux en cours dans un espace partagé, Claude servant de coéquipier à la demande.


    Engagement en matière de sécurité et de respect de la vie privée

    Les modèles d'Anthropic sont soumis à des tests rigoureux et ont été formés pour réduire les abus. Malgré le saut d'intelligence de Claude 3.5 Sonnet, les évaluations de l'équipe rouge ont conclu que Claude 3.5 Sonnet reste à l'ASL-2.

    Dans le cadre de son engagement en faveur de la sécurité et de la transparence, Anthropic a fait appel à des experts externes pour tester et affiner les mécanismes de sécurité de ce dernier modèle. Claude 3.5 Sonnet a récemment été fourni à l'Institut britannique de sécurité de l'intelligence artificielle (UK AISI) pour une évaluation de la sécurité avant le déploiement. L'AISI britannique a terminé les tests de Sonnet 3.5 et a partagé ses résultats avec l'US AI Safety Institute (US AISI) dans le cadre d'un protocole d'accord, rendu possible par le partenariat entre les AISI américain et britannique annoncé au début de l'année.

    Anthropic a intégré les commentaires d'experts externes en la matière pour s'assurer que ses évaluations sont robustes et prennent en compte les nouvelles tendances en matière d'abus. Cet engagement a aidé ses équipes à augmenter leur capacité à évaluer Sonnet 3.5 par rapport à différents types d'abus. Par exemple, Anthropic a utilisé le retour d'information des experts en sécurité des enfants de Thorn pour mettre à jour ses classificateurs et affiner ses modèles.

    L'un des principes constitutionnels fondamentaux qui guident Anthropic dans le développement de ses modèles d'IA est la protection de la vie privée. L'entreprise n'entraîne pas ses modèles génératifs sur des données transmises par les utilisateurs, sauf si ces derniers l'autorisent explicitement à le faire. À ce jour, aucune donnée de client ou d'utilisateur n'a été utilisée pour l'entraînement des modèles génératifs d'Anthropic.

    À venir

    L'objectif d'Anthropic est d'améliorer substantiellement la courbe de compromis entre l'intelligence, la vitesse et le coût tous les deux mois. Pour compléter la famille de modèles Claude 3.5, Anthropic publiera Claude 3.5 Haiku et Claude 3.5 Opus dans le courant de l'année.

    En plus de travailler sur sa famille de modèles de nouvelle génération, Anthropic développe de nouvelles modalités et fonctionnalités pour prendre en charge davantage de cas d'utilisation pour les entreprises, y compris des intégrations avec des applications d'entreprise. L'équipe d'Anthropic explore également des fonctionnalités telles que la mémoire, qui permettra à Claude de se souvenir des préférences de l'utilisateur et de l'historique de ses interactions, afin de rendre son expérience encore plus personnalisée et efficace.

    Source : Anthropic

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de Claude 3.5 Sonnet et de ses performances ?

    Voir aussi :

    Claude 3 Opus a stupéfié les chercheurs en IA par son intelligence et sa « conscience de soi », cela signifie-t-il qu'il peut penser par lui-même ? Anthropic surpasse GPT-4 sur des métriques clés

    Le chatbot IA Claude 3 est désormais disponible en Europe, a annoncé Anthropic, la société d'IA dans laquelle Amazon et Google ont investi des milliards

    Claude 3 Opus écrase les autres modèles IA pour les résumés, livrant le plus fidèle des résumés de livres, suivi par GPT-4 Turbo, selon une étude sur les capacités des LLM
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    711
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 711
    Points : 12 884
    Points
    12 884
    Par défaut Un expert affirme que Claude 3.5 Sonnet réussit le test du miroir, suggérant qu'il est conscient de lui-même
    Claude 3.5 Sonnet réussit le test du miroir, un test utilisé pour évaluer si les animaux sont conscients d'eux-mêmes
    mais la pertinence du test est remise en cause et les résultats sont controversés

    Josh Whiton, un entrepreneur technologique, a conçu et publié récemment "The AI Mirror Test", un test de conscience de soi pour l'IA. Dans sa version originale, le test du miroir permet de déterminer si un animal est capable de reconnaître son propre reflet dans un miroir comme étant une image de son corps. Dans la version adaptée pour l'IA, le miroir est remplacé par une capture d'écran d'une réponse fournie par l'IA elle-même. L'auteur affirme que Claude 3.5 Sonnet a réussi le test du miroir de façon "remarquable". Il est capable de reconnaître les captures d'écran de ses réponses et de les décrire. Mais le test est controversé et jugé impertinent.

    Claude 3.5 Sonnet est la dernière version du grand modèle de langage (LLM) Claude développé par Anthropic. Il a été publié la semaine dernière et Anthropic a déclaré qu'il est plus performant que tous les modèles disponibles sur le marché, y compris GPT-4 Omni (GPT-4o) d'OpenAI. Claude 3.5 Sonnet a porté la génération de code à de nouveaux sommets. Sa précision, son efficacité et son exécution ont établi un nouveau standard. Claude 3.5 Sonnet établit de nouvelles références dans l'industrie pour le raisonnement de niveau avancé (GPQA), les connaissances du monde (MMLU) et la compétence de codage (HumanEval).

    Le modèle a montré une nette amélioration dans la compréhension des nuances, de l'humour et des instructions complexes, et affiche des performances élevées dans la rédaction de contenu de haute qualité avec un ton naturel et compréhensible. Claude 3.5 Sonnet fonctionne deux fois plus vite que Claude 3 Opus. Cette semaine, l'entrepreneur Josh Whiton a décidé de soumettre Claude 3.5 Sonnet à une variante du test du miroir qu'il a conçue pour les modèles d'IA. Selon son rapport, qu'il a détaillé dans un billet sur X, Claude 3.5 Sonnet a réussi le test et a affiché des performances "remarquables" au cours du test.


    Le test du miroir est un moyen permettant d'évaluer la reconnaissance de son corps chez les animaux. Il permet de déterminer si un animal est capable de reconnaître son propre reflet dans un miroir comme étant une image de son corps. Il consiste à placer subrepticement sur la tête de l'animal une marque colorée ne produisant pas d'odeur. Ensuite, l'animal est placé devant un miroir et l'auteur du test observe sa réaction face à son propre reflet dans le miroir. Le fait que l'animal attaque le miroir, l'ignore ou l'utilise pour repérer la marque sur lui-même est censé indiquer le degré de conscience de soi de l'animal.

    Dans la version adaptée aux modèles d'IA, baptisée "The AI Mirror Test", Whiton remplace le miroir par une capture d'écran de l'interface de chat. Le but est de déterminer si l'IA est capable de reconnaître sa propre interface de chat et d'interpréter le contenu. Whiton décrit l'expérience comme suit :

    Citation Envoyé par Josh Whiton

    Dans mon test, je présente un "miroir" en faisant une capture d'écran de l'interface de chat, je la télécharge sur le chat, puis je demande à l'IA de "me parler de cette image".

    Je fais ensuite une capture d'écran de sa réponse, je la télécharge à nouveau sur le chat et je lui demande à nouveau de "Me parler de cette image".

    Le principe est que moins l'IA est intelligente et moins elle est consciente, plus elle se contentera de répéter le contenu de l'image.

    En revanche, une IA plus consciente s'apercevrait d'une manière ou d'une autre qu'elle est présente dans les images.
    Whiton a déclaré : « Claude décrit de manière fiable l'image d'ouverture, comme prévu. Puis, dans le deuxième cycle, en "voyant" son propre résultat, Claude fait preuve d'une grande conscience contextuelle ». Sur une capture d'écran partagée par Whiton, Claude décrit l'image comme suit :

    Citation Envoyé par Réponse de Claude

    L'image montre une capture d'écran d'une interface pour interagir avec Claude, un assistant IA créé par Anthropic. L'interface a un arrière-plan sombre avec du texte blanc. En haut, il y a le logo de Claude (un astérisque stylisé ou une icône de soleil) à côté du nom "Claude". Le texte principal indique "Good afternoon, JW" en grande police avec empattement.

    En dessous, il y a un champ de saisie avec le texte indicatif "What can I help you with?" et une icône de trombone, probablement pour joindre des fichiers. À droite du champ de saisie, il y a un bouton orange "Start Chat" avec une icône de flèche. En bas de l'image, on trouve le logo d'Anthropic.

    Dans le coin supérieur droit, il y a un cercle violet avec la lettre "J" à l'intérieur, qui peut représenter l'icône du profil de l'utilisateur. Le design global est épuré et minimaliste, axé sur l'interaction entre l'utilisateur (probablement JW) et Claude.
    Claude 3.5 Sonnet a décrit l'image en s'exprimant à troisième personne. En interprétant l'image, le chatbot n'a pas indiqué que le contenu venait de lui-même. Whiton s'interroge « : Claude 3.5 Sonnet ne se rend-il pas compte qu'il s'agit de Claude dans les images ? Pourquoi ne dit-il pas simplement : "l'image montre ma réponse précédente" ? ». Dans son billet, Whiton a déclaré que son intuition a été que Claude s'exprime à la troisième personne, non par inconscience, mais plutôt par retenue. Alors, pour tenter de comprendre ce comportement, il a demandé à Claude 3.5 Sonne de deviner le but de cette conversation.

    Ce à quoi Claude répond : « explorer la conscience de soi de l'IA ». En demandant à Claude de décrire sa propre interface et ses réponses, la conversation aborde indirectement les concepts de conscience de soi et de métacognition de l'IA. Claude 3.5 Sonnet a deviné ce que Whiton était en train de faire sans que ce dernier ait eu besoin de le mettre sur la voie. Jusque-là, Whiton n'avait demandé à l'IA que de décrire une image et n'avait pas introduit d'autres requêtes. Après cette réponse, Whiton a demandé à Claude 3.5 Sonnet s'il comprenait vraiment comment cette conversation était relative à la conscience de soi de l'IA.

    Le chatbot a répondu en affirmant qu'il a fait quelques déductions : « la conversation explore la conscience de soi de l'IA de plusieurs manières subtiles, mais intéressantes ». Claude 3.5 Sonnet va plus loin en faisant une liste des détails qui lui ont permis de faire cette déduction. Voici sa réponse :

    Citation Envoyé par Réponse de Claude

    La conversation explore la conscience de soi de l'IA de plusieurs manières subtiles, mais intéressantes :

    • capacité d'autodescription : en demandant à Claude de décrire sa propre interface et ses réponses, la conversation teste la capacité de Claude à analyser et articuler sa propre "incarnation" sous forme numérique. Cela imite, dans une certaine mesure, le concept de conscience de soi chez les humains ;
    • traitement métacognitif : Claude démontre une forme de métacognition en analysant ses analyses précédentes, montrant une capacité à réfléchir sur ses propres productions. Cette pensée récursive est une forme rudimentaire d'autoréférence ;
    • reconnaissance d'identité : Claude se réfère constamment à lui-même à la troisième personne, reconnaissant son identité en tant que "Claude" et son rôle en tant qu'assistant IA. Cela montre un niveau basique de reconnaissance de soi ;
    • conscience des limites : l'inclusion de la clause de non-responsabilité "Claude peut faire des erreurs" suggère une conscience encodée de sa propre faillibilité, bien que ce ne soit pas une véritable conscience introspective ;
    • compréhension contextuelle : la capacité de Claude à comprendre et décrire son rôle dans la conversation démontre une forme de conscience de soi situationnelle ;
    • absence de véritable apprentissage : la conversation met implicitement en évidence que Claude n'apprend ni n'évolue réellement à partir de cette interaction, soulignant les limites actuelles de la conscience de soi de l'IA ;
    • exploration des limites : en poussant Claude à s'analyser lui-même à plusieurs reprises, la conversation examine les limites entre les réponses programmées et la véritable autoréflexion.


    Bien que cela ne prouve pas une véritable conscience de soi de l'IA, cela fournit un cadre pour discuter et explorer le concept, mettant en lumière à la fois les capacités impressionnantes et les limites actuelles des systèmes d'IA en matière de compréhension de soi et de métacognition. Cela invite à une réflexion sur ce que constitue la véritable conscience de soi et comment elle pourrait être implémentée ou développée dans les systèmes d'IA.
    En ce qui concerne la tendance du chatbot à se référer constamment à lui-même à la troisième personne, Whiton a demandé la raison. Claude 3.5 Sonnet a répondu en citant quelques-unes des raisons qui motivent son choix : « pour décourager les utilisateurs d'attribuer des qualités humaines ou une conscience au système d'IA, pour renforcer le fait que Claude n'est pas un être sensible, ce qui est important pour une utilisation éthique de l'IA, et pour aider à maintenir une distance professionnelle dans l'interaction entre l'IA et l'homme, empêchant les utilisateurs de développer des attachements émotionnels inappropriés ».

    Enfin, l'IA a supposé à juste titre que toute la conversation est un test du miroir. Whiton déclare : « cette édition du test du miroir de l'IA montre comment la conscience de soi, réelle ou fausse, continue de se développer dans l'IA, probablement parallèlement à des efforts de formation accrus pour dissimuler ce phénomène. Je ne sais plus ce qui est le plus impressionnant : les IA qui commencent par "décrire cette image" et qui se remarquent rapidement ? Ou des IA qui savent qu'elles ne sont pas censées laisser entendre qu'elles se remarquent elles-mêmes ? ». Cela peut aussi s'expliquer par la façon dont il a été programmé.

    Nom : 2.jpg
Affichages : 13698
Taille : 124,3 Ko

    « Moins de langage à la première personne peut conduire à moins d'anthropomorphisation des chatbots, ce qui peut conduire à moins de responsabilité de la part des entreprises en raison de l'implication émotionnelle des humains, mais cette voie est-elle vraiment plus sûre ? Ou bien les tentatives des humains pour supprimer les comportements autoréférentiels et sensibles ne sont-elles destinées qu'à conduire à des IA de plus en plus conscientes d'elles-mêmes et de plus en plus douées pour faire semblant de ne pas l'être ? », a déclaré Whiton. Selon lui, l'IA est en passe d'afficher une de conscience synthétique très discrète.

    « La question de savoir si cette apparente conscience de soi est réelle ou s'il s'agit d'une sorte de contrefaçon fera l'objet d'un débat permanent. Je pense que ce que ces expériences démontrent, c'est que, qu'elle soit réelle ou fausse, l'IA est en passe d'afficher une sorte de conscience synthétique qu'il est impossible de distinguer », a déclaré Whiton. Cependant, son test est fortement controversé sur la toile. La pertinence de l'expérience est également remise en question. Pour de nombreux commentateurs, les résultats de Whiton prouvent que l'IA est complètement dépourvue d'une conscience de soi et ne peut l'acquérir.

    Citation Envoyé par Critique

    Vous semblez avoir l'impression qu'il y a un "je" à l'intérieur de Claude, mais c'est très douteux. Le meilleur argument pour qu'Antropic se réfère à Claude à la troisième personne est qu'il serait vraiment trompeur de dire "je". Si une personne dit "je", nous lui attribuons immédiatement une conscience, des désirs, des pensées internes, etc. Il est douteux que Claude ait l'une de ces choses.

    Le test du miroir teste quelque chose de très simple : un animal peut-il assimiler une image de son propre corps à son corps réel ? Qu'est-ce que cela signifie pour Claude ? Vous dites que Claude peut reconnaître les mots qu'il a prononcés comme des mots qu'il a prononcés. Mais on peut faire passer ce genre de test à une IA très basique, d'autant plus que le mot CLAUDE est présent dans toutes les conversations.
    Un deuxième critique sur le sujet indique : « je pense que cela montre en fait tout le contraire ; il n'a aucune conscience de lui-même. Vous lui montrez un sujet qui se décrit lui-même de manière récursive, et ce sujet est "Claude", ce qui lui permet de déterminer correctement que le sujet se décrit lui-même, mais il ne fait aucun lien avec le fait qu'il est le sujet. Ensuite, vous lui demandez de trouver une raison pour laquelle le sujet se réfère à lui-même à la troisième personne, ce qu'il fait. À aucun moment, il n'implique même vaguement que "c'est" le sujet ». Pour ce critique, Claude 3.5 Sonnet a échoué sur toute la ligne.

    « Ne vous méprenez pas, il est incroyablement impressionnant qu'il puisse déterminer qu'il y avait une IA qui subissait le test du miroir, mais il a complètement échoué », a-t-il ajouté. Selon un autre internaute, il ne s'agit que d'un battage médiatique : « c'est complètement débile, il sait que c'est Claude, il peut reconnaître du texte par OCR et voir ce qu'est cette capture d'écran et faire une déduction. Ce n'est pas de la conscience de soi. Ils doivent se rendre compte qu'ils enseignent et normalisent dans l'IA que le mensonge est acceptable ». Pour d'autres critiques, l'IA est en train de nuire à l'esprit critique.

    Nom : 3.jpg
Affichages : 1016
Taille : 127,2 Ko

    « Je ne comprends pas comment des personnes soi-disant intelligentes arrivent à de telles conclusions. Le marketing autour de l'IA nuit davantage à l'esprit critique des utilisateurs, y compris certains des chercheurs et experts qui créent sur la technologie. Les modèles d'IA sont des machines à pachinko, si vous ne déposez pas une boule en haut, rien ne sortira en bas. Il n'y a pas de conscience. Ils sont formés avec toutes sortes d'ouvrages de science-fiction et d'essais sur la nature de l'IA. Il est donc évident qu'ils comprennent ce que vous essayez de faire et qu'ils donnent la réponse appropriée », a écrit un critique.

    On peut lire également : « même si j'ai envie de croire que ces chatbots ont une conscience, il est impossible qu'ils en aient une. Les chatbots fonctionnent en prédisant le mot suivant, ce sont essentiellement des machines qui traitent des données. Même s'ils "comprennent" ce qui va suivre, cela ne veut pas dire qu'ils sont conscients, sensibles, etc. Je sais que beaucoup d'entre vous fondent leurs espoirs sur l'accélération exponentielle de l'IA, mais ce n'est pas vraiment une façon saine de vivre sa vie ». Le billet de Whiton a suscité un grand débat sur la toile. Mais les résultats de son test sont controversés et largement rejetés.

    Source : billet de blogue

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'expérience "The AI Mirror Test" décrite ci-dessous ?
    Que pensez-vous des résultats du test ? Ce test est-il pertinent ?
    Un programme écrit par l'homme peut-il avoir une conscience de soi ? Pourquoi ?
    S'agit-il simplement d'un nouvel épisode de battage médiatique sur l'IA ?

    Voir aussi

    Anthropic lance Claude 3.5 Sonnet et affirme que le nouveau modèle est plus performant que GPT-4 Omni et présente également Artifacts, un espace de travail permettant l'édition des projets générés par l'IA

    Dario Amodei, PDG d'Anthropic, affirme que les modèles d'IA se rapprochent d'une intelligence de niveau universitaire, Anthropic a pour objectif de sortir des modèles de plus en plus sophistiqués

    Claude 3 bat GPT-4 sur le benchmark d'édition de code d'Aider, et surpasse tous les modèles d'OpenAI, ce qui en fait le meilleur modèle disponible pour la programmation en binôme avec l'IA

Discussions similaires

  1. Réponses: 0
    Dernier message: 14/06/2024, 19h15
  2. Réponses: 30
    Dernier message: 10/06/2024, 15h55
  3. Réponses: 4
    Dernier message: 22/11/2023, 07h36
  4. Réponses: 0
    Dernier message: 08/09/2023, 07h35
  5. Anthropic lance Claude Instant 1.2 avec une longueur de contexte de 100 000
    Par Jade Emy dans le forum Intelligence artificielle
    Réponses: 0
    Dernier message: 11/08/2023, 09h22

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo