IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #701
    Membre émérite
    Avatar de Seb33300
    Homme Profil pro
    Développeur Web
    Inscrit en
    Janvier 2007
    Messages
    1 564
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : Thaïlande

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Janvier 2007
    Messages : 1 564
    Points : 2 399
    Points
    2 399
    Par défaut
    L’erreur de ChatGPT qui a coûté 10 000 dollars
    ChatGPT c'est un outils, le responsable ça reste le développeur...

    Sinon, la prochaine fois que je déploie un bug je dirais que c'est la faute de mon clavier...
    Zend Certified PHP Engineer

    « Crois-tu comprendre le monde juste en matant le 20H Ou connaître l'histoire en ayant lu que l'angle des vainqueurs ? » Keny Arkana

  2. #702
    Membre expert
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    817
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 817
    Points : 3 492
    Points
    3 492
    Par défaut
    c'est dommage qu'ils n'expliquent pas mieux leur code ou c'est moi qui n'ai pas compris. Je ne connais pas SQL alchemy.

    c'est sensé être relativement unique, sauf s'il ne créent qu'une seule instance de la classe subscription par serveur ce qu'ils ont l'air de dire. En ce cas c'est une erreur de logique de créer l'identifiant unique là plutôt que dans un objet par utilisateur, mais bon, même sans chatgpt ça arrive de faire des erreurs de logique surtout quand on ne dort pas.

    Ce qui est plus étrange, c'est d'écrire quelque chose dans une base sans lever quelque part une erreur si la base ne crée pas les entrées...

  3. #703
    Nouveau membre du Club
    Profil pro
    Inscrit en
    Mars 2003
    Messages
    13
    Détails du profil
    Informations personnelles :
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations forums :
    Inscription : Mars 2003
    Messages : 13
    Points : 26
    Points
    26
    Par défaut
    Citation Envoyé par Fagus Voir le message
    c'est dommage qu'ils n'expliquent pas mieux leur code ou c'est moi qui n'ai pas compris. Je ne connais pas SQL alchemy.

    c'est sensé être relativement unique, sauf s'il ne créent qu'une seule instance de la classe subscription par serveur ce qu'ils ont l'air de dire. En ce cas c'est une erreur de logique de créer l'identifiant unique là plutôt que dans un objet par utilisateur, mais bon, même sans chatgpt ça arrive de faire des erreurs de logique surtout quand on ne dort pas.

    Ce qui est plus étrange, c'est d'écrire quelque chose dans une base sans lever quelque part une erreur si la base ne crée pas les entrées...

    De ce que je comprends de la doc de Django https://docs.djangoproject.com/en/5....ields/#default c'est que default prend une valeur ou un callable

    En faisant
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    default=str(uuid.uuid4())
    str(uuid.uuid4()) génère un uuid4 qui est casté en string, ça devient donc une valeur qui ne changera plus.
    Pour ne pas avoir le problème ils auraient dû comme ils le disent faire une lamba ou une fonction

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    def generate_uuid4():
        return str(uuid.uuid4())
    
    default=generate_uuid4

  4. #704
    Membre extrêmement actif
    Homme Profil pro
    Graphic Programmer
    Inscrit en
    Mars 2006
    Messages
    1 572
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Graphic Programmer
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2006
    Messages : 1 572
    Points : 4 031
    Points
    4 031
    Par défaut
    cette mesaventure va se generaliser.

    le service rendu et la rapidité sont la,
    -- ce qui va nous rendre feignant,
    ---- ce qui va nous faire perdre nos competence (comme celle que la calculette a eu sur notre capacité a faire des calculs de tete)
    ------ ce qui nous fera arreter se savoir apprendre differemment de que l'ia nous dira,
    -------- ce qui nous fera arreter d'innover/creer par feigenantise ou parce que qu'on ne saura plus comment faire,
    ---------- ce qui va nous rendre dependant de l'ia,

    ou alors, on se dit que l'ia n'est qu'un outil de blending avancé,
    -- mais que sans nous,
    ---- sans notre recherche de la difference,
    ------ sans notre innovation,
    -------- sans notre ideal,
    ---------- sans notre vision de ce que doit etre l'humanité,
    ------------ l'ia n'a rien a ce mettre sous la dent,
    -------------- donc elle doit nous aider pas nous remplacer.

  5. #705
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 268
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 268
    Points : 2 421
    Points
    2 421
    Par défaut
    Citation Envoyé par Aiekick Voir le message
    ---- ce qui va nous faire perdre nos competence (comme celle que la calculette a eu sur notre capacité a faire des calculs de tete)
    Ça c'est une drôle d'idée, alors.
    8*125, ça continue de faire 1000, qu'on ait une calculatrice ou pas.

    Et ce n'est pas la calculatrice qui va dire si on fait fausse route, du style une erreur de virgule ...

  6. #706
    Futur Membre du Club
    Inscrit en
    Avril 2004
    Messages
    7
    Détails du profil
    Informations forums :
    Inscription : Avril 2004
    Messages : 7
    Points : 7
    Points
    7
    Par défaut Le problème exsite toujours
    Bonjour,

    On est le 26/06/2024 et aujourd'hui, je constate dans l'historique que j'ai accès à des requêtes qui ne viennent pas de moi !

  7. #707
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 644
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 644
    Points : 201 447
    Points
    201 447
    Par défaut Les examens soumis par l'IA obtiennent de meilleures notes que les étudiants en chair et en os
    Les examens soumis par l'IA obtiennent de meilleures notes que les étudiants en chair et en os d'après une étude.
    Selon les experts, les universités devraient s'efforcer d'adopter la « nouvelle normalité » de l'IA pour améliorer l'enseignement.

    Des chercheurs de l’Université de Reading ont mené une étude révélant que les réponses d’examens générées par l’IA peuvent non seulement échapper à la détection, mais aussi obtenir des notes plus élevées que celles soumises par les étudiants universitaires. Ces conclusions interviennent alors que des inquiétudes se font jour quant au fait que des étudiants présentent des travaux générés par l'IA comme étant les leurs, ce qui soulève des questions quant à l'intégrité académique des universités et d'autres établissements d'enseignement supérieur.

    Selon les universitaires de l'université de Reading, cette étude montre également que même les correcteurs expérimentés pourraient avoir du mal à repérer les réponses générées par l'IA.

    Peter Scarfe, professeur associé à l'école de psychologie et de sciences du langage clinique de Reading, a déclaré que ces résultats devraient servir de « signal d'alarme » pour les établissements d'enseignement, car les outils d'IA tels que ChatGPT deviennent de plus en plus avancés et répandus. Il a déclaré : « Les données de notre étude montrent qu'il est très difficile de détecter les réponses générées par l'IA ».

    « On a beaucoup parlé de l'utilisation de ce que l'on appelle les détecteurs d'IA, qui sont également une autre forme d'IA, mais leur portée est limitée ».

    Pour cette étude, publiée dans la revue Plos One, le professeur Scarfe et son équipe ont généré des réponses à des questions d'examen à l'aide de GPT-4 et les ont soumises au nom de 33 faux étudiants.

    Les correcteurs d'examen de l'école de psychologie et de sciences cliniques du langage de Reading n'étaient pas au courant de l'étude.

    Les réponses soumises pour de nombreux modules de psychologie de premier cycle n'ont pas été détectées dans 94 % des cas et, en moyenne, ont obtenu des notes plus élevées que celles des vrais étudiants, a déclaré le professeur Scarfe. Selon lui, l'IA s'est particulièrement bien comportée en première et deuxième années d'études, mais a connu plus de difficultés dans le module de la dernière année d'études.

    L'année dernière, les universités du Russell Group, dont fait partie l'Université d'Oxford, se sont engagées à autoriser l'utilisation éthique de l'IA dans l'enseignement et les évaluations, et de nombreuses autres ont fait de même.

    Le secteur de l'éducation devra constamment s'adapter et mettre à jour les orientations

    Toutefois, le professeur Scarfe a déclaré que le secteur de l'éducation devra constamment s'adapter et mettre à jour les orientations à mesure que l'IA générative continuera d'évoluer et de devenir plus sophistiquée. Il a ajouté que les universités devraient se concentrer sur la manière d'adopter la « nouvelle normalité » de l'IA afin d'améliorer l'éducation.

    Le professeur Scarfe a ajouté que le retour aux évaluations en personne lors des examens constituerait « un pas en arrière à bien des égards ». Il a déclaré : « De nombreuses institutions ont abandonné les examens traditionnels pour rendre l'évaluation plus inclusive. Nos recherches montrent qu'il est d'une importance internationale de comprendre comment l'IA affectera l'intégrité des évaluations éducatives. Nous ne reviendrons pas nécessairement aux examens manuscrits, mais le secteur mondial de l'éducation devra évoluer face à l'IA ».

    Le professeur Etienne Roesch, de l'école de psychologie et de sciences cliniques du langage de Reading, co-auteur de l'étude, a ajouté : « En tant que secteur, nous devons nous mettre d'accord sur la manière dont nous attendons des étudiants qu'ils utilisent et reconnaissent le rôle de l'IA dans leur travail. Il en va de même pour l'utilisation plus large de l'IA dans d'autres domaines de la vie, afin d'éviter une crise de confiance au sein de la société. Notre étude met en évidence la responsabilité qui nous incombe en tant que producteurs et consommateurs d'informations. Nous devons redoubler d'efforts pour respecter l'intégrité de l'enseignement et de la recherche ».

    99% des étudiants utilisent les IA génératives pour diminuer leur temps de travail

    Dans le cadre du Hackathon transversal autour des enjeux sociétaux de l’IA, une étude a été réalisée par le Pôle Léonard de Vinci et Talan auprès de 1 600 étudiants de 4ème année d’études supérieures. Ce sondage a pour but de révéler la vision et l’utilisation des IA génératives (Chat GPT, Midjourney etc.) par les étudiants mais aussi son impact sur l’avenir professionnel des élèves. Grâce à un Hackathon structuré autour d’une pédagogique novatrice, les étudiants ont pu prendre du recul par rapport à l’utilisation des IA.

    Voici quelques chiffres clés de l'étude :
    • Adoption massive : 99% des étudiants utilisent les IA génératives (ChatGPT, Midjourney, Gemini, etc);
    • Usage intensif : 92% les utilisent régulièrement et 1/3 tous les jours;
    • Catalyseur de performance : 65% perçoivent une forte augmentation de leur productivité;
    • Coût financier : 1/3 des étudiants paient un abonnement ChatGPT 4 à 20€/mois;
    • Atout d’attractivité décisif : 65% des étudiants estiment que la présence des IA génératives fait partie des principaux critères de choix de leur future entreprise.

    Les étudiants ont indéniablement trouvé leur baguette magique avec les technologies d’IA génératives. Ils se disent eux-mêmes :
    • Accros aux IA génératives : 51% constatent qu'ils auraient du mal à se passer de ChatGPT.
    • Ils sont dans le même temps conscients des défauts des IA génératives et le dispositif d’apprentissage du Hackathon auquel ils ont participé (alternance de réflexion sans IA, puis avec) a porté ses fruits et devrait servir d’exemple pour former massivement les étudiants et salariés comme cela est préconnisé dans le rapport « IA : notre ambition pour la France » de la commission de l’intelligence artificielle sorti en mars 2024.

    Nom : etudiants.png
Affichages : 3875
Taille : 147,1 Ko

    « Les diplômes universitaires perdront en importance au fur et à mesure de la montée en puissance de l'IA », d'après le vice-président de LinkedIn

    Le PDG d’Indeed, Chris Hyams, a exprimé ses préoccupations quant à l’impact de l’intelligence artificielle (IA) sur le marché du travail. Dans un essai, il compare l’évolution rapide de l’IA à celle de la révolution industrielle et note que les « vagues d’innovation technologique » se sont accélérées au fil du temps. En droite ligne avec ces observations, il souligne que les étudiants sont susceptibles d’acquérir des compétences qui pourraient devenir obsolètes une fois qu’ils auront obtenu leur diplôme. C’est une sortie que vient compléter celle du vice-président de LinkedIn selon laquelle « les diplômes universitaires perdront en importance au fur et à mesure de la montée en puissance de l’intelligence artificielle. »

    Selon le VP de LinkedIn, ce sont plutôt la capacité à communiquer, la créativité et l’adaptabilité que les recruteurs rechercheront de plus en plus. La sortie qui intervient après la publication d’une étude selon laquelle les étudiants sont susceptibles d’acquérir des compétences qui pourraient devenir obsolètes à cause de l’IA questionne sur l’importance des études.

    En sus, 27 % des emplois sont fortement menacés par la révolution de l'IA, selon une étude de l'OCDE.


    École, diplôme, capacité à communiquer, créativité et adaptabilité sont-ils dissociables ? Ça dépend

    La rubrique Emploi de Developpez.com ouvre la porte à la consultation de plus de 20 000 offres d’emploi de professionnels de l'informatique au sein de la francophonie. Des exigences reviennent au sein de ces dernières : le postulant doit posséder un diplôme universitaire de niveau bac+3/5 et plusieurs années d’expérience. Et ce n’est pas fortuit.

    En effet, de façon traditionnelle, l’exercice dans la filière des technologies de l’information en France requiert de suivre le parcours classique d’une formation diplômante en informatique, au cours de laquelle, le futur développeur de métier acquiert les connaissances de base pour la carrière qu’il envisage. Le cursus est sanctionné par l’obtention d’un diplôme universitaire à bac+3/5 en général requis (en plus d’un certain nombre d’années d’expérience professionnelle) par les employeurs lors de la phase de recrutement. La consultation des syllabus de formation laisse en sus penser qu’elles accordent une place importante à la capacité de communiquer, à la créativité et à l’adaptabilité.

    Nom : profil.png
Affichages : 715
Taille : 118,1 Ko

    En Amérique du Nord, le rapport au diplôme est différent de celui en France. En 2015, Elon Musk et d'autres personnalités de l'industrie de la technologie ont créé OpenAI et l'ont déplacé dans des bureaux au nord de la Silicon Valley à San Francisco. Ils ont recruté plusieurs chercheurs ayant travaillé chez Google et Facebook, deux des entreprises qui mènent une poussée industrielle dans le domaine de l'intelligence artificielle.

    En plus des salaires et des primes à la signature, les géants de l'Internet rémunèrent généralement les employés avec des options d'achat d'actions considérables. OpenAI a dépensé environ 11 millions de dollars dans sa première année, avec plus de 7 millions de dollars consacrés aux salaires et autres avantages sociaux. C’est ainsi que des chercheurs de renom ont pu entrer en possession de rémunérations annuelles variant entre 300 000 dollars et 2 millions de dollars l’an.

    Grosso modo, la manœuvre laissait penser que la filière intelligence artificielle est réservée à des tiers ayant fait de longues études universitaires, des personnes nanties de doctorats. Seulement, Elon Musk a complété une offre d’emploi pour la division intelligence artificielle de Tesla à sa manière : « Un doctorat n'est absolument pas nécessaire. Tout ce qui compte, c'est une compréhension approfondie de l'intelligence artificielle et la capacité à mettre en œuvre les réseaux de neurones d'une manière réellement utile (c'est ce dernier point où l'on observe qu'il y a des difficultés). Pour le reste, je me fiche de savoir si vous êtes même parvenu à obtenir votre diplôme d'études secondaires. »

    C’est un positionnement qui rejoint celui d’IBM qui suggère de recruter sur la base des compétences plutôt qu’en se fondant sur les diplômes universitaires. Même Tim Cook est d’avis « qu'un diplôme universitaire de quatre ans n’est pas nécessaire pour maîtriser le codage informatique. » Après, la plus grosse difficulté est peut-être de répondre à la question : qu’est-ce qu’être compétent ?

    Source : Plos One

    Et vous ?

    L’éthique de l’utilisation de l’IA : quelle est votre opinion sur l’utilisation de l’IA pour générer des réponses d’examens ? Est-ce acceptable ou cela compromet-il l’intégrité académique ?
    Évaluation de la créativité : l’IA peut-elle réellement rivaliser avec la créativité et la réflexion critique des étudiants ? Comment évalueriez-vous la qualité d’une réponse générée par l’IA par rapport à celle d’un étudiant réel ?
    Transparence et responsabilité : comment pouvons-nous garantir la transparence et la responsabilité dans l’utilisation de l’IA pour les examens ? Quelles mesures devraient être prises pour éviter la tricherie ?
    Impact sur l’apprentissage : l’utilisation de l’IA pour générer des réponses d’examens pourrait-elle avoir un impact sur la façon dont les étudiants apprennent et étudient ? En quoi cela pourrait-il être bénéfique ou préjudiciable ?
    Alternatives et solutions : quelles autres méthodes d’évaluation pourraient être mises en place pour garantir l’intégrité académique tout en tirant parti des avantages de l’IA ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  8. #708
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 611
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 611
    Points : 7 507
    Points
    7 507
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    C’est un positionnement qui rejoint celui d’IBM qui suggère de recruter sur la base des compétences plutôt qu’en se fondant sur les diplômes universitaires. Même Tim Cook est d’avis « qu'un diplôme universitaire de quatre ans n’est pas nécessaire pour maîtriser le codage informatique. » Après, la plus grosse difficulté est peut-être de répondre à la question : qu’est-ce qu’être compétent ?
    Comme si Tim Cook y connaissait quoi que ce soit à l'informatique. Le gars est compétent pour faire faire des téléphones à des personnes sous-payées dans des pays du Tiers Monde, c'est tout.

    Pour ce qui est de recruter sur les compétences, c'est bien entendu une bonne idée. Par contre un bootcamp ne remplace pas des études ou une longue expérience. C'est ce qui fait qu'un développeur sera capable de faire son travail au lieu de réinventer la roue ou de choisir des solutions peu efficaces. Il n'y a qu'à regarder le développement web et tous ces sites et plateformes pas sécurisées, lentes, boguées pour se rendre compte qu'il y a bien un problème de compétences, et qu'avoir deux jours de javascript/PHP dans sa vie ne suffit pas pour faire un développeur.

    Là, j'ai plutôt l'impression qu'ils cherchent à former des personnes qui ne seront capables de travailler qu'avec leurs outils à base d'IA.

    Toute cette agitation dans les médias autour des IA devient vraiment ridicule: on a bien compris que IA = pognon pour les gigantesques entreprises. Pas besoin de nous le rappeler tous les jours.


    Citation Envoyé par Stéphane le calme Voir le message
    Alternatives et solutions : quelles autres méthodes d’évaluation pourraient être mises en place pour garantir l’intégrité académique tout en tirant parti des avantages de l’IA ?
    Quels avantages et pour qui? On s'en fout d'avantager les GAFAM.

    Pour le reste, il suffit de mettre les étudiants dans des conditions où ils ne peuvent pas accéder aux services d'IA, et ils n'auront pas le choix. Comment faisait-on passer des examens avant l'arrivée d'Internet et des smartphones??

    Citation Envoyé par Stéphane le calme Voir le message
    « Les diplômes universitaires perdront en importance au fur et à mesure de la montée en puissance de l'IA », d'après le vice-président de LinkedIn
    Ah ben c'est sûr que le gars ne va pas dire autre chose: le groupe auquel il appartient (Microsoft, une GAFAM), investit massivement dans OpenIA, et tout le bordel. S'il tient à son poste de directeur, il a tout intérêt à continuer de raconter ce genre de conneries.

    Sans compter qu'on vit en Europe: oui, vous pourrez trouver un travail en société de service avec peu de diplômes, mais par contre les RH vous le rappelleront chaque année quand vous demanderez une augmentation/réévaluation pour toucher la même chose que vos collègues plus diplômés.
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  9. #709
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 644
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 644
    Points : 201 447
    Points
    201 447
    Par défaut « Les gens surestiment l'IA générative », déclare Rodney Brooks, pionnier de la robotique au MIT
    « Les gens surestiment l'IA générative », déclare Rodney Brooks, pionnier de la robotique au MIT.
    Brooks rappelle que l’enthousiasme pour l’IA doit être tempéré par une compréhension réaliste de ses capacités et de ses contraintes

    L’intelligence artificielle générative (IA) suscite un enthousiasme croissant, mais Rodney Brooks nous invite à la prudence. En tant que professeur émérite de robotique chez MIT et co-fondateur de plusieurs entreprises de pointe, Brooks a une perspective unique sur le domaine. Rodney Brooks, un pionnier de la robotique et co-fondateur d’entreprises telles que Rethink Robotics, iRobot et Robust.ai. Brooks nous rappelle que l’enthousiasme pour l’IA doit être tempéré par une compréhension réaliste de ses capacités et de ses contraintes.

    Voici les points clés :
    • Surévaluation des capacités de l’IA générative :
      • Brooks souligne que l’IA générative est impressionnante, mais elle ne peut pas tout faire. Les humains ont tendance à surestimer ses capacités en généralisant à partir de tâches spécifiques.
      • Lorsqu’un humain observe un système IA accomplir une tâche, il a tendance à extrapoler ses compétences, même au-delà de ce qu’il a démontré. Cela peut conduire à des attentes irréalistes.
    • L’IA générative n’est pas humaine :
      • Brooks insiste sur le fait que l’IA générative n’est pas semblable à l’intelligence humaine. Assigner des capacités humaines à l’IA est une erreur.
      • Par exemple, utiliser un modèle de langage pour diriger des robots d’entrepôt n’est pas toujours la meilleure approche. Les systèmes de traitement de données massifs et d’optimisation sont souvent plus efficaces.
    • Solutions raisonnables et intégration des robots :
      • Selon Brooks, il faut résoudre des problèmes solubles où les robots peuvent s’intégrer facilement. Les entrepôts, par exemple, sont un domaine où l’automatisation fonctionne bien.
      • Plutôt que de chercher à tout automatiser, concentrons-nous sur des domaines spécifiques où l’IA peut réellement apporter une valeur ajoutée.

    Actuellement professeur émérite de robotique Panasonic au MIT, Rodney Brooks a également cofondé trois entreprises importantes, dont Rethink Robotics, iRobot et son entreprise actuelle, Robust.ai. Brooks a également dirigé le laboratoire d'informatique et d'intelligence artificielle du MIT (CSAIL) pendant une décennie à partir de 1997.

    En fait, il aime faire des prédictions sur l'avenir de l'intelligence artificielle et tient un tableau de bord sur son blog pour savoir s'il s'en sort bien.

    Il sait de quoi il parle et pense qu'il est peut-être temps de mettre un frein au battage médiatique de l'IA générative. Brooks pense qu'il s'agit d'une technologie impressionnante, mais qu'elle n'est peut-être pas aussi performante que beaucoup le suggèrent. « Je ne dis pas que les LLM ne sont pas importants, mais nous devons être prudents dans la manière dont nous les évaluons », a-t-il déclaré.

    Surévaluation des capacités de l’IA générative

    Selon lui, le problème de l'IA générative est que, bien qu'elle soit parfaitement capable d'effectuer un certain nombre de tâches, elle ne peut pas faire tout ce qu'un humain peut faire, et les humains ont tendance à surestimer ses capacités. « Lorsqu'un humain voit un système d'IA effectuer une tâche, il la généralise immédiatement à des choses similaires et évalue la compétence du système d'IA ; pas seulement la performance, mais la compétence qui l'entoure », explique Brooks. « Et ils sont généralement très optimistes, parce qu'ils utilisent un modèle de la performance d'une personne dans une tâche ».

    Il ajoute que le problème est que l'IA générative n'est pas humaine, ni même semblable à l'homme, et qu'il est erroné d'essayer de lui attribuer des capacités humaines. Il ajoute que les gens la considèrent comme tellement capable qu'ils veulent même l'utiliser pour des applications qui n'ont pas de sens.

    Brooks cite en exemple sa dernière entreprise, Robust.ai, un système de robotique d'entrepôt. Quelqu'un lui a récemment suggéré qu'il serait cool et efficace de dire à ses robots d'entrepôt où aller en construisant un LLM pour son système. Selon lui, il ne s'agit pas d'un cas d'utilisation raisonnable de l'IA générative et cela ralentirait même les choses. Il est beaucoup plus simple de connecter les robots à un flux de données provenant du logiciel de gestion de l'entrepôt.

    « Lorsque vous avez 10 000 commandes qui viennent d'arriver et que vous devez les expédier en deux heures, vous devez les optimiser. Le langage ne sera d'aucune utilité ; il ne fera que ralentir les choses », a-t-il déclaré. « Nous disposons d'un traitement massif des données et de techniques d'optimisation et de planification à base d'IA. C'est ainsi que les commandes sont traitées rapidement ».

    Nom : rodney.png
Affichages : 2837
Taille : 420,1 Ko

    Solutions raisonnables et intégration des robots

    Une autre leçon que Brooks a tirée en matière de robots et d'IA est qu'il ne faut pas essayer d'en faire trop. Il faut résoudre un problème qui peut être résolu et dans lequel les robots peuvent être intégrés facilement.

    « Nous devons automatiser là où les choses ont déjà été nettoyées. L'exemple de mon entreprise est que nous réussissons assez bien dans les entrepôts, et les entrepôts sont en fait assez contraignants. L'éclairage ne change pas dans ces grands bâtiments. Il n'y a pas d'objets qui traînent sur le sol parce que les personnes qui poussent les chariots s'y heurtent. Il n'y a pas de sacs en plastique flottants. En outre, il n'est pas dans l'intérêt des personnes qui y travaillent d'être malveillantes à l'égard du robot », a-t-il déclaré.

    Brooks explique qu'il s'agit aussi de faire travailler ensemble les robots et les humains. Son entreprise a donc conçu ces robots à des fins pratiques liées aux opérations d'entreposage, plutôt que de construire un robot à l'apparence humaine. Dans ce cas, il ressemble à un chariot de supermarché avec une poignée.

    « Le facteur de forme que nous utilisons n'est donc pas un humanoïde qui se promène, même si j'ai construit et livré plus d'humanoïdes que n'importe qui d'autre. Ils ressemblent à des chariots de supermarché », a-t-il déclaré. « Il y a un guidon, de sorte qu'en cas de problème avec le robot, une personne peut saisir le guidon et en faire ce qu'elle veut », a-t-il ajouté.

    Après toutes ces années, Brooks a appris qu'il s'agit de rendre la technologie accessible et adaptée. « J'essaie toujours de rendre la technologie facile à comprendre pour les gens, ce qui nous permet de la déployer à grande échelle, et de toujours tenir compte de l'analyse de rentabilité ; le retour sur investissement est également très important ».

    Malgré cela, Brooks estime que nous devons accepter qu'il y aura toujours des cas aberrants difficiles à résoudre en matière d'IA, dont la résolution pourrait prendre des dizaines d'années. « Si l'on n'encadre pas soigneusement la manière dont un système d'IA est déployé, il y aura toujours une longue série de cas particuliers qui prendront des décennies à être découverts et résolus. Paradoxalement, tous ces correctifs sont eux-mêmes complets en matière d'IA ».

    Une croyance erronée, principalement due à la loi de Moore

    Brooks ajoute qu'il existe une croyance erronée, principalement due à la loi de Moore, selon laquelle il y aura toujours une croissance exponentielle en matière de technologie - l'idée que si ChatGPT 4 est aussi bon, imaginez ce que sera ChatGPT 5, 6 et 7. Il voit une faille dans cette logique, à savoir que la technologie ne connaît pas toujours une croissance exponentielle, en dépit de la loi de Moore.

    Il prend l'iPod comme exemple. Pendant quelques itérations, sa capacité de stockage a effectivement doublé, passant de 10 à 160 Go. S'il avait continué sur cette trajectoire, il a calculé que nous aurions un iPod avec 160 To de stockage en 2017, mais bien sûr, ce n'est pas le cas. Les modèles vendus en 2017 étaient en fait dotés de 256 ou 160 Go car, comme il l'a souligné, personne n'avait besoin de plus que cela.

    Brooks reconnaît que les LLM pourraient être utiles à un moment donné avec les robots domestiques, où ils pourraient effectuer des tâches spécifiques, en particulier avec une population vieillissante et un nombre insuffisant de personnes pour s'occuper d'eux. Mais même cela, dit-il, pourrait s'accompagner d'une série de défis uniques.

    « Les gens disent : "Oh, les grands modèles de langage vont permettre aux robots de faire des choses qu'ils ne peuvent pas faire". Le problème n'est pas là. Le problème de la capacité à faire des choses relève de la théorie du contrôle et de toutes sortes d'optimisation mathématique pure et dure », a-t-il déclaré.

    Brooks explique que cela pourrait éventuellement conduire à des robots dotés d'interfaces linguistiques utiles pour les personnes en situation de soins. « Il n'est pas utile dans un entrepôt de dire à un robot individuel d'aller chercher une chose pour une commande, mais il pourrait être utile pour les soins aux personnes âgées dans les maisons de retraite que les gens puissent dire des choses aux robots », a-t-il déclaré.

    Conclusion

    L’IA générative est prometteuse, mais elle a ses limites. En gardant à l’esprit les perspectives de Rodney Brooks, nous pouvons adopter une approche plus équilibrée. L’IA n’est pas une solution universelle, mais un outil puissant lorsqu’elle est utilisée judicieusement.


    Source : Rodney Brooks

    Et vous ?

    Jusqu’où devrions-nous faire confiance à l’IA générative ? Pensez à la confiance que vous accordez aux systèmes IA génératifs. Quelles sont les limites de cette confiance ? Comment pouvons-nous équilibrer l’enthousiasme pour l’IA avec la prudence nécessaire ?
    Quelles sont les implications éthiques de l’IA générative ? Explorez les aspects éthiques de l’IA générative. Quelles sont les préoccupations liées à la création d’œuvres générées par des machines ? Comment pouvons-nous garantir que ces systèmes ne sont pas utilisés de manière abusive ?
    Comment pouvons-nous évaluer l’efficacité de l’IA générative ? Discutez des critères d’évaluation pour les systèmes IA génératifs. Quelles mesures devrions-nous utiliser pour évaluer leur performance ? Comment pouvons-nous éviter les biais et les erreurs ?
    L’IA générative peut-elle surpasser la créativité humaine ? Quelles sont les limites de la créativité algorithmique ? Y a-t-il des domaines où l’IA peut surpasser l’homme ?
    Quelles sont les implications économiques de l’automatisation par l’IA générative ? Evoquez les conséquences économiques de l’automatisation par l’IA générative. Comment cela affecte-t-il l’emploi, les industries et la société dans son ensemble ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 21/09/2023, 22h10
  2. Réponses: 5
    Dernier message: 28/08/2023, 10h32
  3. Réponses: 0
    Dernier message: 02/04/2023, 10h33
  4. Réponses: 0
    Dernier message: 27/06/2022, 11h10
  5. Réponses: 130
    Dernier message: 11/09/2018, 08h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo