IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Peut-on bannir l’IA pour les élèves quand les enseignants s’en servent pour corriger ?


Sujet :

Intelligence artificielle

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Par défaut Peut-on bannir l’IA pour les élèves quand les enseignants s’en servent pour corriger ?
    ChatGPT rédige désormais les dissertations des étudiants et l'enseignement supérieur est confronté à un grave problème
    la détection des contenus générés par l'IA semble de plus en plus difficile

    De nouvelles recherches montrent que de plus en plus d'étudiants dans le monde utilisent ChatGPT pour rédiger leurs dissertations ou pour faire d'autres devoirs. Mais encore, les rapports indiquent que les productions de l'IA sont parfois d'une qualité supérieure à celle des contenus rédigés par des humains. Dans un exemple récent, des étudiants de l'université de Cardiff ont déclaré avoir reçu des notes de première classe pour des dissertations rédigées à l'aide du chatbot d'IA d'OpenAI. L'enseignement supérieur fait face à l'intrusion brusque de ChatGPT dans le quotidien des étudiants et les écoles peinent à trouver un consensus pour s'adapter à la nouvelle donne.

    ChatGPT va-t-il tuer la dissertation universitaire ? C'est une question qui devient de plus en plus récurrente dans les débats sur le net. Il existe des milliers d'universités dans le monde, dont la population étudiante cumulée se chiffre en centaines de millions, et au moins un petit pourcentage d'entre eux font aujourd'hui leurs devoirs avec l'aide de ChatGPT. Au début du mois, un étudiant de l'université de Cardiff, identifié sous le pseudonyme de Tom par la BBC, aurait fait appel à ChatGPT pour rédiger l'une de ses dissertations universitaires. Après quelques modifications, il affirme avoir obtenu une meilleure note que pour une dissertation qu'il avait lui-même rédigée.

    Tom a déclaré avoir soumis deux dissertations de 2 500 pages en janvier ; l'une est rédigée avec l'aide de ChatGPT et l'autre sans. Pour la dissertation qu'il a rédigée avec l'aide de l'IA, Tom a obtenu une première note, la plus élevée qu'il n’ait jamais eue à l'université. En comparaison, il a obtenu un petit 2,1 pour la dissertation qu'il a rédigée sans le logiciel. « Je ne recopiais pas tout mot à mot, mais je posais des questions qui me permettaient d'accéder à l'information beaucoup plus rapidement que d'habitude », a déclaré Tom. L'étudiant a également admis qu'il continuerait probablement à utiliser ChatGPT pour planifier et formuler ses dissertations.

    Nom : 8a985dcd-05b3-4388-acda-00af23f3e199_1575x912.jpg
Affichages : 7694
Taille : 50,2 Ko

    En mai dernier, avant même la sortie de ChatGPT fin novembre, un étudiant néo-zélandais a avoué utiliser l'IA pour rédiger ses devoirs. Selon l'étudiant, l'IA n'est qu'un outil semblable à Grammarly, un outil d'aide à l'écriture : « j'ai les connaissances, j'ai l'expérience vécue, je suis un bon étudiant, je vais à tous les travaux dirigés et à tous les cours magistraux et je lis tout ce que nous devons lire, mais j'avais l'impression d'être pénalisé parce que je n'écris pas de manière éloquente et je ne trouvais pas cela juste », a-t-il déclaré à un journal étudiant de Christchurch. Selon plusieurs rapports sur le sujet, les étudiants affirment qu'il ne s'agit pas de la tricherie.

    Ils n'ont pas l'impression de tricher, car les directives de leur université stipulent seulement qu'"il est interdit de demander à quelqu'un d'autre de faire son travail à sa place". ChatGPT n'est pas "quelqu'un d'autre", c'est un programme. John, nom fictif, est un autre étudiant de l'université qui a admis avoir utilisé le logiciel pour l'aider dans ses devoirs. Interrogé sur le sujet, il a déclaré : « je l'ai utilisé plusieurs fois depuis décembre. Je pense que je l'ai utilisé au moins un peu pour chaque évaluation que j'ai eue. Il fait désormais partie intégrante de mon processus de travail et continuera probablement à le faire jusqu'à ce que je ne puisse plus y accéder ».

    « Je l'ai aussi utilisé pour résumer des concepts de mon cours que je ne trouvais pas très bien expliqués par les professeurs. C'est un très bon outil qui permet d'éviter le bla-bla de certains professeurs sur des théories dont il n'est pas nécessaire de parler dans les dissertations. Cela réduit probablement de 20 % l'effort que je devrais fournir pour une dissertation », a-t-il ajouté. Bien que ChatGPT n'insère pas de références, John a déclaré qu'il n'avait eu aucun problème à les remplir lui-même. Les deux étudiants ont déclaré qu'ils n'utilisent pas l'IA pour rédiger leurs dissertations, mais pour générer un contenu qu'ils peuvent modifier et adapter eux-mêmes.

    L'université de Cardiff a révélé qu'au cours de la période d'évaluation de janvier 2023, 14 443 visites ont été enregistrées sur le site de ChatGPT sur les réseaux Wi-Fi de l'université. Un mois auparavant, aucune visite n'aurait été enregistrée. Toutefois, malgré l'augmentation du nombre de visites au cours de la période d'évaluation, l'école estime que rien ne permet de penser que ces visites ont été effectuées à des fins illégitimes. « La plupart des visites ont été identifiées comme provenant de notre réseau de recherche. Notre école d'informatique, par exemple, s'intéresse à la recherche et à l'enseignement de l'IA », a déclaré l'université de Cardiff.

    Cependant, plusieurs critiques sont remontés contre l'université pour cette déclaration. Selon les critiques, il est important que les étudiants rédigent eux-mêmes leurs dissertations ou leurs essais, sans aucune aide de la part d'un autre humain ou d'un programme d'IA. « L'essai, en particulier l'essai de premier cycle, est au centre de la pédagogie humaniste depuis des générations. C'est la façon dont nous enseignons aux enfants comment rechercher, penser et écrire. Toute cette tradition est sur le point d'être bouleversée de fond en comble », explique un critique qui appelle à trouver un consensus sur l'encadrement de l'IA générative dans les écoles.

    Selon les critiques, ni les ingénieurs qui construisent la technologie de l'IA générative ni les éducateurs qui seront confrontés à cette technologie ne sont préparés aux retombées. Ils estiment que les écoles d'enseignement supérieur devraient s'attaquer au problème, mais qu'elles n'y parviendront pas si elles adoptent la même attitude que l'université de Cardiff. Ils estiment qu'elles ne doivent pas partir du principe selon lequel les étudiants consultent ChatGPT seulement à des fins de recherche. « C'est comme si l'on croyait les personnes qui prétendent consulter des contenus pour adultes pour en apprendre davantage sur l'anatomie humaine », a écrit un critique.

    « Ce dont les éducateurs ont besoin aujourd'hui, c'est d'un système semblable aux outils de détection du plagiat qu'ils utilisent aujourd'hui pour les aider à repérer les contenus copiés. Lorsque j'ai vérifié mes essais, j'ai eu du mal à trouver des citations directes d'œuvres écrites antérieurement. (ChatGPT ne cesse de s'améliorer.) Les professeurs auront donc besoin d'un nouvel outil capable de reconnaître les signes révélateurs des dissertations générées par l'IA », a-t-il ajouté. Mais de précédents rapports ont révélé que les outils de détections de texte généré par l'IA, y compris celui d'OpenAI, n'étaient pas vraiment convaincants et que la tâche s'avère difficile.

    En janvier, OpenAI a déclaré qu'il développe un logiciel capable de détecter si un texte donné avait été généré par son modèle ChatGPT. Le même mois, le service antiplagiat Turnitin a déclaré avoir mis au point un outil permettant de détecter les rédactions écrites par ChatGPT. Le détecteur aurait un taux de confiance de 98 % et n'est actuellement disponible que pour les non-étudiants et les établissements d'enseignement. Toutefois, l'année prochaine, Turnitin prévoit de diffuser l'outil plus largement auprès des personnes ayant souscrit un abonnement à Turnitin Originality. Beaucoup sont toutefois sceptiques quant à l'efficacité de l'outil.

    Par exemple, lorsqu'on lui a demandé s'il craignait ce qui se passerait s'il se faisait prendre, John a déclaré qu'il était certain que l'influence de l'IA dans son travail est indétectable. « Je ne vois pas comment quelqu'un pourrait faire la différence entre un travail entièrement personnel et un travail assisté par l'IA », a-t-il déclaré. Il y a tout de même une chose qu'il craint. Si les transcriptions de ses communications avec le réseau d'IA étaient découvertes, John craint que son diplôme ne lui soit retiré. De son côté, l'université de Cardiff a déclaré qu'elle prenait "extrêmement au sérieux" les allégations d'inconduite académique, y compris le plagiat.

    « Je suis content de l'avoir utilisé quand je l'ai fait, en dernière année de licence, parce que j'ai l'impression qu'un grand changement est en train de s'opérer dans les universités en ce qui concerne les cours, car il est beaucoup trop facile de tricher avec l'aide de l'IA. J'aime à penser que j'ai évité cela, tout en récoltant les bénéfices de ChatGPT au cours de mon année la plus importante », a déclaré John. Fin janvier, OpenAI a publié un outil Web gratuit conçu pour aider les enseignants et d'autres personnes à déterminer si un morceau de texte particulier a été écrit par un humain ou une machine. Mais OpenAI a prévenu que l'outil est imparfait.

    Contrairement à l'université de Cardiff, les responsables de l'éducation de la ville de New York ont annoncé qu'il empêchait les élèves d'accéder à l'outil dans les écoles publiques. Le Directeur de la formation et de la recherche de Sciences Po a interdit aux étudiants d'utiliser ChatGPT, à l'exception d'un usage pédagogique encadré par un enseignant. L'ICML (International Machine Learning Society), une organisation internationale à but non lucratif dont l'objectif est d'encourager la recherche sur l'apprentissage automatique (ML), a interdit l'utilisation de ChatGPT et tous les outils d'IA similaires dans la rédaction d'articles universitaires.

    Par ailleurs, les étudiants ne sont pas les seuls à utiliser ChatGPT. Dans le monde entier, des personnes utilisent actuellement ChatGPT, Google Bard et Bing Chat pour les aider à démarrer et à mener à bien toutes sortes de projets. Parfois, il s'agit simplement de trouver l'inspiration ; d'autres fois, il s'agit d'obtenir d'énormes quantités de texte utilisable. Et si vous ne pouvez pas compter à 100 % sur eux pour obtenir des faits exacts, à l'occasion, ils présentent des faussetés comme des faits avérés. C'est le problème d'hallucination des chatbots d'IA et les chercheurs craignent que cela n'augmente la désinformation sur Internet.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la popularité de ChatGPT auprès des étudiants ?
    L'utilisation de ChatGPT par les étudiants est-elle systématiquement une tricherie ?
    Selon vous, comment l'utilisation de l'IA générative peut-elle être encadrée dans l'enseignement supérieur ?
    Que pensez-vous des outils de détection du contenu généré par l'IA ? Leur fiabilité va-t-elle s'améliorer avec le temps ?

    Voir aussi

    L'éditeur du chatbot ChatGPT lance un outil « imparfait » pour détecter les textes générés par cette IA et ainsi apporter réponse aux préoccupations des écoles en matière de plagiat

    OpenAI développe un logiciel pour détecter le texte généré par ChatGPT, plusieurs outils visent à déterminer quels textes ont été générés par IA et lesquels ont été écrits par des humains

    Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé », il estime que ces outils pourraient aggraver la tricherie dans l'enseignement supérieur

    Le Directeur de la formation et de la recherche de Sciences Po interdit aux étudiants d'utiliser le chatbot ChatGPT, à l'exception d'un usage pédagogique encadré par un enseignant
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre éclairé
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    952
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 952
    Par défaut
    Aux USA, si quelqu'un a eu son diplôme a coup de chatGPT, une fois qu'il est embauché, s'il fait pas l'affaire il sera quand même viré.

    En France, on a le CDI par contre, si le mec se fait pas griller pendant les 6 mois, ou juste que les gens sont "trop gentils", il sera après couvert par le CDI.

    Autant dire qu'aux USA, ça fera peut être un peu de casse côté prestige des diplômes, mais côté France, ça pourrait faire de vous le gars qui bosse pour deux parce que l'autre à un diplôme en chatGPT

  3. #3
    Modérateur
    Avatar de sevyc64
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Janvier 2007
    Messages
    10 242
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 52
    Localisation : France, Pyrénées Atlantiques (Aquitaine)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Janvier 2007
    Messages : 10 242
    Par défaut
    Je te rassure, France, si tu fais pas l'affaire, tu peux aussi très facilement te faire virer, même avec un CDI et au delà de la période d'essai. Il y a peut-être un peu plus de contrainte et de formalisme qu'au USA, mais pas de blocage pour autant.


    Sinon, pour limiter l'impact de Chat-GPT lors des exams, il faut revenir aux bons vieux exams en présentiels avec tout appareil électronique interdit !

  4. #4
    Membre éclairé
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    952
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 952
    Par défaut
    Citation Envoyé par sevyc64 Voir le message
    Je te rassure, France, si tu fais pas l'affaire, tu peux aussi très facilement te faire virer, même avec un CDI et au delà de la période d'essai. Il y a peut-être un peu plus de contrainte et de formalisme qu'au USA, mais pas de blocage pour autant.


    Sinon, pour limiter l'impact de Chat-GPT lors des exams, il faut revenir aux bons vieux exams en présentiels avec tout appareil électronique interdit !
    Je sais que c'est possible, mais j'ai clairement vu des cas où ce n'est pas fait, ou ton manager t'expliques comment ils font entres manager pour attirer les bons et s'échanger régulièrement les "moins bons" pour rester très poli, au sens ou la personne est resté sur un projet X temps, et tout ce qu'il a fait, ne fonctionnait pas et ils ont du jeté plutôt que reprendre car ils n'y arrivaient pas.

    Sinon, pour limiter l'impact de Chat-GPT lors des exams, il faut revenir aux bons vieux exams en présentiels avec tout appareil électronique interdit !
    Ces examens ont aussi leur faiblesses, puis peut-être que chatGPT arrivera à prédire leur contenu à termes ?

  5. #5
    Expert confirmé

    Homme Profil pro
    Directeur des systèmes d'information
    Inscrit en
    Avril 2002
    Messages
    2 882
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 65
    Localisation : Luxembourg

    Informations professionnelles :
    Activité : Directeur des systèmes d'information
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2002
    Messages : 2 882
    Par défaut
    Citation Envoyé par walfrat Voir le message
    Aux USA, si quelqu'un a eu son diplôme a coup de chatGPT, une fois qu'il est embauché, s'il fait pas l'affaire il sera quand même viré.
    Non c'est le contraire, ceux qui savent bien exploiter ChatGPT se gardent bien de prendre un emploi sur site, il prennent des emplois en télétravail ou en freelance, et ils arrivent à prendre 5 jobs en même temps et ChatGPT fait 80% du travail. Résultats ces gens peuvent gagner plus de 30 000 $ par mois voir beaucoup plus, tout en vivant la ou ils veulent : Miami, Barcelone, Portugal, Thailande, Costa Rica, etc...

  6. #6
    Membre éclairé
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    952
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 952
    Par défaut
    Citation Envoyé par Pierre Louis Chevalier Voir le message
    Non c'est le contraire, ceux qui savent bien exploiter ChatGPT se gardent bien de prendre un emploi sur site, il prennent des emplois en télétravail ou en freelance, et ils arrivent à prendre 5 jobs en même temps et ChatGPT fait 80% du travail. Résultats ces gens peuvent gagner plus de 30 000 $ par mois voir beaucoup plus, tout en vivant la ou ils veulent : Miami, Barcelone, Portugal, Thailande, Costa Rica, etc...
    Tu mélanges les diverses actualités récentes pour créer un effet dramatiques, les gens n'ont pas attendu chatGPT pour faire plusieurs boulots à la fois en distanciel.

    Et, dans le cas de notre métier par exemple, ChatGPT n'est pas capable de t'écrire une application déployable en production de A-Z avec le manuel d'installation, le manuel d'exploitation etc etc

  7. #7
    Expert confirmé

    Homme Profil pro
    Directeur des systèmes d'information
    Inscrit en
    Avril 2002
    Messages
    2 882
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 65
    Localisation : Luxembourg

    Informations professionnelles :
    Activité : Directeur des systèmes d'information
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2002
    Messages : 2 882
    Par défaut
    Citation Envoyé par walfrat Voir le message
    les gens n'ont pas attendu chatGPT pour faire plusieurs boulots à la fois en distanciel.
    Tu ne m'apprends rien, je le sais, et on a eu même déjà plusieurs débats ici même sur ce sujet. La médiatisation de ChatGPT ne fait qu'accroitre le phénomène, et le rendre plus facile, c'est ça mon propos.

    Citation Envoyé par walfrat Voir le message
    Et, dans le cas de notre métier par exemple, ChatGPT n'est pas capable de t'écrire une application déployable en production de A-Z avec le manuel d'installation, le manuel d'exploitation etc
    Je n'ai jamais écrit le contraire. Mais il y a un tas de bullshitjob ou des jobs de management, de data science, de BI, de documentations, de rédaction, etc qui ont été automatisés pour certains dans le passé avec par exemple des macros et qui sont aussi maintenant devenu partiellement automatisables avec ChatGPT, donc ChatGPT ne fait pas forcément 100% d'un job, mais quand il fait 80% du job et bien mathématiquement tu peux prendre 4 ou 5 jobs en même temps, et les patrons/clients largués n'y voient généralement que du feu.

    Si tu cumules pour certaines taches ChatGPT, Auto GPT, et des macros, ce que tu peux faire est vraiment très impressionnant.

    Je ne dit pas du tout que cela va "remplacer les informaticiens", je dis juste que certains petits malins sont déjà entrain de profiter grassement de l'aubaine

  8. #8
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 908
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 908
    Par défaut
    Citation Envoyé par Pierre Louis Chevalier Voir le message
    Tu ne m'apprends rien, je le sais, et on a eu même déjà plusieurs débats ici même sur ce sujet. La médiatisation de ChatGPT ne fait qu'accroitre le phénomène, et le rendre plus facile, c'est ça mon propos.


    Je n'ai jamais écrit le contraire. Mais il y a un tas de bullshitjob ou des jobs de management, de data science, de BI, de documentations, de rédaction, etc qui ont été automatisés pour certains dans le passé avec par exemple des macros et qui sont aussi maintenant devenu partiellement automatisables avec ChatGPT, donc ChatGPT ne fait pas forcément 100% d'un job, mais quand il fait 80% du job et bien mathématiquement tu peux prendre 4 ou 5 jobs en même temps, et les patrons/clients largués n'y voient généralement que du feu.

    Si tu cumules pour certaines taches ChatGPT, Auto GPT, et des macros, ce que tu peux faire est vraiment très impressionnant.

    Je ne dit pas du tout que cela va "remplacer les informaticiens", je dis juste que certains petits malins sont déjà entrain de profiter grassement de l'aubaine
    Je pense pas que ca concerne beaucoup de monde, faut beaucoup de bol pour arriver a cumuler plusieurs job en freelance sans que ca se voit et ca doit pas durer très longtemps (1ans max)
    Les métiers en full remote y'en a pas des masses déja beaucoup impose encore hélas un minimum de présentiel.

    Sinon ou est le problème ? tant que le client est content du résultat... j'ai déjà eu des missions assez pépère, j'aime bien d'ailleurs ces missions la, ça repose.
    C'est marrant cette culture qu'un vrai travail ce doit être un travail difficile ou les gens doivent faire beaucoup d'heure et transpirer pour mériter un salaire.

    Ma vision est qu'on est esclave d'un système ou des le départ si tu n'es pas née dans le bon pays avec les bon parents tu passeras toute ta vie à bosser pour des miettes alors que d'autres une minorité de moins d'1% sont allez à l'ENA ou science po et pistonner par papa devienne pdg de la boite de papa ou des copains.
    Donc a défaut de faire fortune, si on trouve le moyen de faire un boulot de planquer pas trop mal payé c'est toujours ça de pris.

    Il me viendrait pas a l'esprit de faire un travail ou j'aurais pas de temps pour moi et qui m'imposerait un grand stress. La santé c'est important surtout pour au final avoir un salaire de merde.
    Et de toute façon c'est pas en bossant bien et beaucoup que tu seras récompensé... a la première difficulté tu feras partis des 1er a être licencié et jamais t'auras ton augmentation et prime.

    Le monde d'aujourd'hui nous enseigne pour pas se faire pigeonner qu'il faut être déloyale envers son employeur et il faut en foutre le moins possible.
    Avec l'age de la retraite qui ne fait que d’être reculer, il est préférable de se ménager des 23ans apres les études pour espérer arriver à la fin de carrière sans problème de santé. Si à 63 ans tu peut plus travailler, ton employeur n'aura aucun scrupule pour te virer et te remplacer par un petit jeune payer une misère.

  9. #9
    Membre Expert
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Avril 2009
    Messages
    1 048
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : Suisse

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2009
    Messages : 1 048
    Par défaut
    Sinon ou est le problème ? tant que le client est content du résultat... j'ai déjà eu des missions assez pépère, j'aime bien d'ailleurs ces missions la, ça repose.
    C'est marrant cette culture qu'un vrai travail ce doit être un travail difficile ou les gens doivent faire beaucoup d'heure et transpirer pour mériter un salaire.
    C'est une chose d'avoir plusieurs clients (et d'être un indépendant ou une société) et une autre d'avoir plusieurs employeurs (au mépris de loi et de diverses conditions contractuelles).

    Y a des corps de métiers qui n'ont pas attendu chatGPT et l'IA pour arnaquer la partie adverse et surfacturant des prestations tout en branlant le moins possible...

    Faut juste savoir de quoi on parle à la fin.

  10. #10
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 552
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 552
    Par défaut Le bot IA GPT4 surpasse les étudiants en matière de compétences linguistiques, selon une étude scientifique
    Le chatbot IA GPT-4 surpasse les étudiants en matière de compétences linguistiques, redéfinissant ainsi l'avenir de l'éducation, d'après une étude de l'Université de Passau

    Des chercheurs de l'université de Passau ont fait une découverte importante, révélant qu'un chatbot, en l'occurrence GPT-4, a surpassé des étudiants en matière de maîtrise de la langue. Loin d'être un scénario fictif, ce développement représente un véritable changement dans les capacités de l'intelligence artificielle dans le domaine de l'écriture. Cette découverte remet en question les perceptions existantes et suggère la nécessité de réévaluer les rôles de l'éducation et de la technologie dans le développement des compétences linguistiques.

    Revenons un peu en arrière. Au début de l'année 2023, ChatGPT-3.5 s'est essayé à l'Abitur bavarois, un examen difficile de l'enseignement secondaire allemand, et n'a pas tout à fait réussi. Six mois plus tard, son successeur, ChatGPT-4, passe non seulement le test, mais obtient des résultats impressionnants. Ce bond en avant a éveillé la curiosité de l'université de Passau et a donné lieu à une étude novatrice.

    L'étude publiée dans "Scientific Reports", une revue de Nature, met en lumière l'évolution des compétences de l'IA en matière de rédaction d'essais. Face à des textes rédigés par des étudiants, les prouesses de l'IA en matière de maîtrise de la langue sont indéniables. Les chercheurs, dirigés par le professeur Steffen Herbold, ont été surpris par la grande différence de qualité. Il s'agit d'un appel au système éducatif pour qu'il adopte ces nouveaux outils.

    "Les modèles d'IA génèrent des essais argumentatifs de bien meilleure qualité que les utilisateurs d'un forum en ligne de rédaction d'essais fréquenté par des lycéens allemands, et ce pour tous les critères de notre grille d'évaluation", peut-on lire dans l'étude.


    Mais il ne s'agit pas seulement d'opposer l'IA à l'homme. L'étude, fruit d'une collaboration entre des informaticiens, des linguistes et des experts en éducation, vise à préparer les éducateurs à un avenir où l'IA sera omniprésente. Sous la direction d'Ute Heuer, didacticienne en informatique, l'équipe a même organisé un cours de formation pour les enseignants, mêlant technologie et pédagogie.

    Dans le cadre d'une expérience pratique, des enseignants, ignorant les origines de l'essai, ont évalué des textes sur la base de critères éducatifs établis. Le résultat ? L'IA, en particulier ChatGPT-4, a obtenu des résultats exceptionnels en matière de maîtrise de la langue, dépassant largement les scores des élèves.

    "Les styles d'écriture des humains et des modèles d'IA générative diffèrent considérablement : par exemple, les modèles GPT utilisent davantage de nominalisations et ont une plus grande complexité de phrase (signalant un langage plus complexe, plus "scientifique"), tandis que les étudiants utilisent davantage de constructions modales et épistémiques (qui tendent à transmettre l'attitude du locuteur)", explique l'étude.

    Il ne s'agit pas de minimiser les capacités des étudiants, mais plutôt de mettre en évidence les remarquables compétences linguistiques de l'IA. Annette Hautli-Janisz, jeune professeur à l'université de Passau, considère qu'il s'agit là d'un aperçu essentiel de l'évolution des capacités linguistiques de l'IA. L'étude ne se contente pas de mettre en évidence les progrès de l'IA, elle pose également des questions intrigantes sur son impact sur le langage humain.

    "Les essais générés par l'IA sont très structurés, ce qui se reflète par exemple dans les débuts identiques des sections finales de tous les essais de ChatGPT ("En conclusion, [...]"). Les phrases initiales de chaque essai sont également très similaires et commencent par une déclaration générale utilisant les principaux concepts des sujets de l'essai", explique l'étude, qui ajoute : "Bien que cela corresponde à la structure générale recherchée pour les essais argumentatifs, il est frappant de voir que les modèles ChatGPT sont si rigides dans la réalisation de cette structure, alors que les essais écrits par des humains sont plus souples dans la représentation de la ligne directrice sur la surface linguistique".

    À l'aube d'un avenir où les textes générés par l'IA seront de plus en plus répandus, nous devons nous interroger : Comment cela influencera-t-il notre langage et notre communication ? L'étude de l'université de Passau est plus qu'une comparaison, c'est un regard sur la transformation rapide du paysage de la langue, de la technologie et de l'éducation.

    Les conclusions de l'étude de l'université de Passau sont présentées ci-dessous :

    Résumé
    ChatGPT et les modèles d'IA générative similaires ont attiré des centaines de millions d'utilisateurs et sont devenus partie intégrante du discours public. Nombreux sont ceux qui pensent que ces modèles vont perturber la société et entraîner des changements significatifs dans le système éducatif et la production d'informations. Jusqu'à présent, cette conviction repose soit sur des témoignages familiers, soit sur des références fournies par les propriétaires des modèles, qui manquent tous deux de rigueur scientifique. Nous évaluons systématiquement la qualité du contenu généré par l'IA au moyen d'une étude à grande échelle comparant des essais argumentatifs d'étudiants rédigés par des humains à ceux générés par ChatGPT. Nous utilisons des essais qui ont été évalués par un grand nombre d'experts humains (enseignants). Nous complétons l'analyse en tenant compte d'un ensemble de caractéristiques linguistiques des essais générés. Nos résultats démontrent que ChatGPT génère des rédactions dont la qualité est jugée supérieure à celle des rédactions rédigées par des humains. Le style d'écriture des modèles d'IA présente des caractéristiques linguistiques différentes de celles des essais rédigés par des humains. La technologie étant facilement accessible, nous pensons que les éducateurs doivent agir immédiatement. Nous devons réinventer les devoirs et développer des concepts d'enseignement qui utilisent ces modèles d'IA de la même manière que les mathématiques utilisent la calculatrice : enseigner d'abord les concepts généraux, puis utiliser les outils d'IA pour libérer du temps pour d'autres objectifs d'apprentissage.

    Conclusion
    Nos résultats indiquent clairement que la crainte de nombreux professionnels de l'enseignement est justifiée : la manière dont les élèves font leurs devoirs et dont les enseignants les évaluent doit changer dans un monde de modèles d'IA génératifs. Pour les locuteurs non natifs, nos résultats montrent que lorsque les étudiants veulent maximiser leurs notes de dissertation, ils peuvent facilement le faire en s'appuyant sur les résultats de modèles d'IA comme ChatGPT. Les très bonnes performances des modèles d'IA indiquent que cela pourrait également être le cas pour les locuteurs natifs, bien que la différence de compétences linguistiques soit probablement plus faible. Cependant, ce n'est pas et ne peut pas être l'objectif de l'éducation. Par conséquent, les éducateurs doivent modifier leur approche des devoirs. Au lieu de se contenter d'assigner et de noter des dissertations, nous devons réfléchir davantage aux résultats des outils d'IA en ce qui concerne leur raisonnement et leur justesse. Les modèles d'IA doivent être considérés comme une partie intégrante de l'éducation, mais qui nécessite une réflexion approfondie et une formation à la pensée critique.

    En outre, les enseignants doivent adapter leurs stratégies d'enseignement des compétences rédactionnelles : comme pour l'utilisation des calculatrices, il est nécessaire de mener une réflexion critique avec les étudiants sur le moment et la manière d'utiliser ces outils. Par exemple, les constructivistes affirment que l'apprentissage est renforcé par la conception et la création actives d'artefacts uniques par les élèves eux-mêmes. Dans le cas présent, cela signifie qu'à long terme, les objectifs pédagogiques devront peut-être être ajustés. C'est comme si l'on enseignait de bonnes notions d'arithmétique aux jeunes élèves avant de les autoriser et de les encourager à utiliser librement des calculatrices à un stade ultérieur de leur scolarité. De même, une fois qu'un bon niveau d'alphabétisation a été atteint, l'intégration poussée de modèles d'IA dans les plans de cours peut ne plus aller à l'encontre d'objectifs d'apprentissage raisonnables.

    En ce qui concerne la qualité et la structure des essais générés par l'IA, cet article apporte une contribution importante en offrant un compte rendu indépendant, à grande échelle et statistiquement fiable de la qualité des essais, en comparant des textes écrits par des humains et des textes générés par l'IA. En comparant différentes versions de ChatGPT, nous offrons également un aperçu de l'évolution de ces modèles au fil du temps en termes de propriétés linguistiques et de qualité. Nos résultats montrent que si la langue générée par ChatGPT est considérée comme très bonne par les humains, il existe également des différences structurelles notables, par exemple dans l'utilisation des marqueurs de discours. Cela montre qu'il est nécessaire d'examiner en profondeur non seulement les capacités des modèles d'IA générative (c'est-à-dire les tâches pour lesquelles ils peuvent être utilisés), mais aussi le langage qu'ils génèrent. Par exemple, si nous lisons de nombreux textes générés par l'IA qui utilisent moins de marqueurs de discours, la question se pose de savoir si et comment cela affecterait notre utilisation humaine des marqueurs de discours. Comprendre comment les textes générés par l'IA diffèrent des textes écrits par des humains nous permet de rechercher ces différences, de raisonner sur leur impact potentiel, et d'étudier et éventuellement d'atténuer cet impact.
    Source : "A large-scale comparison of human-written versus ChatGPT-generated essays" (Etude de l'Université de Passau, Allemagne)

    Et vous ?

    Qu'en pensez-vous ?

    Trouvez-vous que les conclusions de cette étude de l'université de Passau sont crédibles ou pertinentes ?

    Comment envisagez-vous l'intégration du contenu généré par l'IA dans la manière dont nous transmettons les informations dans les années à venir ?

    Voir aussi

    ChatGPT rédige désormais les dissertations des étudiants et l'enseignement supérieur est confronté à un grave problème, la détection des contenus générés par l'IA semble de plus en plus difficile

    Les étudiants utilisent l'IA pour rédiger leurs travaux, les dissertations rédigées par des outils de langage IA comme OpenAI's Playground sont difficiles à distinguer des textes faits par des humains

    Pourquoi les universités devraient revenir aux examens oraux à l'ère de l'IA et de ChatGPT, un doyen d'université affirme que cela élimine systématiquement les risques de plagiat et de tricherie
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  11. #11
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    2 103
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 2 103
    Par défaut Les craintes de tricherie suscitées par les chatbots seraient exagérées, selon une nouvelle étude
    Les craintes de tricherie suscitées par les chatbots seraient exagérées, les taux de tricherie seraient similaires à ceux des années précédentes,
    selon une nouvelle étude de l'université de Stanford

    Les préoccupations liées à la tricherie suscitées par les chatbots semblent avoir été exagérées, d'après une récente étude. Les chercheurs de l'université de Stanford indiquent que l'utilisation d'outils d'intelligence artificielle tels que ChatGPT n'a pas entraîné une augmentation des cas de tricherie dans les écoles secondaires. L'introduction du chatbot d'IA ChatGPT a suscité des inquiétudes quant à la possibilité d'une tricherie généralisée parmi les lycéens et les étudiants. Certains établissements scolaires ont réagi en bloquant rapidement l'accès à ChatGPT sur les ordinateurs fournis par l'école et sur le réseau Wi-Fi de l'établissement pour prévenir le plagiat automatisé.

    Nom : Chatbot.png
Affichages : 8046
Taille : 60,5 Ko

    Selon l'étude de Stanford, ces préoccupations semblent avoir été exagérées, du moins dans le contexte des écoles secondaires. Les enquêtes menées dans plus de 40 lycées cette année révèlent que les taux de tricherie restent similaires à ceux des années précédentes, avec 60 à 70 % des élèves déclarant avoir triché récemment. Denise Pope, maître de conférences à la Stanford Graduate School of Education, souligne que malgré les inquiétudes initiales, les données ne montrent pas de changement significatif. La popularité croissante des chatbots d'IA, tels que ChatGPT développé par OpenAI, a suscité des attentes quant à une révolution de l'éducation, mais la recherche de Stanford suggère que ces attentes pourraient être exagérées.

    Réflexions sur les outils d'IA : Évolution de l'éducation et dilemmes universitaires

    Un professeur à Lyon a découvert des similitudes curieuses dans les devoirs rendus par la moitié de ses étudiants, qui avaient utilisé ChatGPT pour rédiger leurs dissertations. L'utilisation généralisée de ChatGPT par les étudiants pour leurs devoirs, y compris les essais, a pris les universités par surprise. Les enseignants, dont Darren Hudson Hick, professeur adjoint de philosophie à l'université Furman, ont partagé leurs expériences sur les réseaux sociaux, révélant que la détection de l'utilisation de l'IA dans les travaux académiques est devenue un défi. Bien que le style de rédaction de ChatGPT soit distinct, il reste difficile de prouver son utilisation sans un logiciel de vérification de plagiat. La capacité à différencier l'écriture humaine de celle générée par une machine pourrait influencer les politiques universitaires sur l'utilisation de l'IA dans les devoirs des étudiants.

    ChatGPT est qualifié de « véritablement un outil sophistiqué de plagiat » et de « moyen de contourner l'apprentissage » par Noam Chomsky, le célèbre intellectuel et chercheur américain. Il a également exprimé l'opinion que l'utilisation de technologies avancées par les étudiants reflète un dysfonctionnement du système éducatif. Ces commentaires ont été partagés lors d'une entrevue sur la chaîne YouTube EduKitchen, où Chomsky a été invité à discuter de ses réflexions sur ChatGPT d'OpenAI, un chatbot qui a attiré l'attention depuis son introduction en novembre de l'année dernière.

    Un professeur de l'université de Caroline du Sud alerte sur l'utilisation de ChatGPT, le chatbot d'IA d'OpenAI, par un étudiant pour rédiger une dissertation. Il estime que cette pratique, devenue répandue, représente une menace pour l'enseignement supérieur déjà confronté à une tricherie endémique. Le professeur, Darren Hudson Hick, a partagé ses préoccupations sur Facebook, révélant que d'autres enseignants ont également constaté des cas similaires. Le déploiement de ChatGPT a surpris les universités, qui se trouvent désormais confrontées à la détection de l'utilisation de cette technologie dans les travaux académiques.

    L'auteur, Stephen Dobson, professeur et doyen à l'université CQUniversity en Australie, suggère dans un article d'opinion que les universités devraient revenir aux examens oraux pour contrer les risques de plagiat et de tricherie liés à l'IA générative, notamment à ChatGPT. Il souligne que ce type d'évaluation éliminerait efficacement la possibilité pour les étudiants de soumettre des travaux générés par des chatbots d'IA. Bien que l'IA, y compris ChatGPT, soit de plus en plus utilisée dans les universités pour automatiser diverses tâches, son adoption suscite des préoccupations quant à son impact sur les examens traditionnels. Des recherches récentes révèlent que de plus en plus d'étudiants utilisent ChatGPT pour leurs devoirs, soulevant des questions sur l'intégrité académique. Certains rapports suggèrent même que les productions générées par l'IA peuvent parfois surpasser la qualité des travaux rédigés par des humains sans assistance technologique. Cette situation crée des défis pour l'enseignement supérieur, où l'adaptation à l'influence de ChatGPT sur les étudiants est un sujet de débat et d'incertitude au sein des écoles.

    Actuellement, les résultats de la recherche menée par l'université de Stanford et le récent rapport du Pew Research Center remettent en question l'idée selon laquelle les chatbots d'IA sont en train de perturber les écoles. Selon les constatations du Pew, de nombreux adolescents ne possèdent qu'une connaissance limitée de ChatGPT, et la majorité affirme ne jamais l'avoir utilisé pour leurs travaux scolaires. Il est cependant possible que ces tendances évoluent au fil du temps, à mesure que de plus en plus de lycéens deviennent familiers avec les outils d'intelligence artificielle.

    Nom : etude.jpg
Affichages : 3029
Taille : 34,4 Ko

    Une enquête récente du Pew Research Center confirme ces résultats, indiquant que près d'un tiers des adolescents interrogés n'ont jamais entendu parler de ChatGPT, et seulement 13 % déclarent l'avoir utilisé pour leurs travaux scolaires. Les résultats montrent également que la majorité des adolescents qui connaissent ChatGPT n'ont pas recouru à cet outil pour leurs travaux scolaires, suggérant que les craintes de tricherie massive liées aux chatbots pourraient être exagérées.

    Cette nouvelle perspective sur l'utilisation des chatbots dans les écoles pourrait influencer les discussions futures pour se concentrer davantage sur l'enseignement aux élèves sur la compréhension et l'utilisation critique des nouvelles technologies plutôt que sur la crainte de la tricherie généralisée.

    Denise Pope et Victor Lee, professeur associé au GSE, discutent du problème de la tricherie chez les étudiants, soulignant que les causes sont multiples, allant des difficultés académiques au sentiment de surcharge de travail. Pope suggère que la tricherie est souvent le symptôme d'un problème systémique plus profond et propose que les stratégies visant à accroître l'engagement des élèves et à les valoriser soient plus efficaces que des mesures strictes contre l'IA.

    Elle estime que l'utilisation de chatbots tels que ChatGPT pourrait être considérée comme une ressource d'aide plutôt que comme de la tricherie, soulignant la nécessité d'une discussion éthique sur son utilisation. Lee exprime les préoccupations des chefs d'établissement face à l'utilisation de la technologie par les élèves, notant que des interdictions et des investissements dans des logiciels de détection de l'IA se sont révélés inefficaces.

    Il insiste sur la nécessité d'éduquer les élèves à comprendre et à réfléchir de manière critique sur cette technologie. En réponse, à Stanford, des ressources gratuites sont développées pour aider les enseignants à aborder ces questions dans leurs cours existants.

    Parmi les élèves du secondaire qui ont admis avoir utilisé un chatbot d'intelligence artificielle, les chercheurs de Stanford ont constaté que de 55 à 77 % l'ont employé pour générer des idées pour des articles, des projets ou des devoirs. Environ 19 à 49 % ont déclaré l'utiliser pour éditer ou compléter une partie d'un article, tandis que 9 à 16 % ont indiqué l'utiliser pour rédiger l'intégralité d'un article ou d'un autre devoir.

    Selon les chercheurs, ces résultats pourraient influencer la direction des discussions sur les chatbots dans les écoles, en mettant moins l'accent sur les préoccupations de tricherie et davantage sur la manière d'aider les élèves à comprendre, utiliser et penser de manière critique à propos des nouveaux outils d'intelligence artificielle.

    « La perspective de l'IA peut être envisagée de différentes manières, pas seulement comme une tentation incontrôlable qui compromet tout », a déclaré Victor Lee, professeur associé à la Stanford Graduate School of Education, qui se penche sur les expériences d'apprentissage de l'IA et a dirigé la récente recherche sur la tricherie avec le Dr Pope. « Il existe de nombreux autres sujets qui méritent d'être abordés dans les écoles. »

    Alors que les écoles travaillent encore sur l'établissement de règles d'utilisation acceptables pour les outils d'IA, les étudiants développent des opinions nuancées sur l'utilisation de ChatGPT à des fins scolaires. Selon l’enquête de Pew, seulement 20 % des adolescents de 13 à 17 ans estiment acceptable que les élèves utilisent ChatGPT pour rédiger des dissertations. En revanche, près de 70 % estiment acceptable que les élèves utilisent le chatbot d'IA pour effectuer des recherches sur de nouveaux sujets.

    Repenser les mesures de précaution à la lumière des conclusions de Stanford

    L'étude de l'université de Stanford, remettant en question les préoccupations liées à la tricherie suscitées par les chatbots, offre une perspective intéressante sur l'impact réel de ces outils d'intelligence artificielle dans les écoles secondaires. La conclusion selon laquelle l'utilisation de chatbots tels que ChatGPT n'a pas entraîné une augmentation significative de la tricherie est rassurante, mais elle soulève également des questions sur la réaction initiale des établissements scolaires.

    D'une part, la réaction rapide de certaines écoles, notamment à Los Angeles, Seattle et New York, en bloquant l'accès à ChatGPT, semble avoir été basée sur des préoccupations légitimes quant à la préservation de l'intégrité académique. Cependant, si les enquêtes de Stanford indiquent que les taux de tricherie n'ont pas sensiblement augmenté, cela soulève des questions sur la proportionnalité des mesures prises en réponse à une menace perçue.

    Bien que l'étude apporte un éclairage positif sur l'utilisation des chatbots dans les écoles secondaires, elle souligne de plus la nécessité de prendre des décisions éclairées basées sur des données concrètes plutôt que sur des craintes potentiellement exagérées. Les écoles pourraient bénéficier d'une approche plus nuancée, encourageant une discussion éthique sur l'utilisation de ces technologies et développant des stratégies éducatives qui aident les élèves à comprendre et à utiliser ces outils de manière responsable.

    Source : What do AI chatbots really mean for students and cheating ? Stanford Graduate School of Education

    Et vous ?

    Les conclusions de l'étude des chercheurs de l'université de Stanford sont-elles pertinentes ?

    Pensez-vous que les inquiétudes concernant la tricherie liée aux chatbots sont exagérées, comme le suggère l'étude ?

    Voir aussi :

    Pourquoi les universités devraient revenir aux examens oraux à l'ère de l'IA et de ChatGPT, un doyen d'université affirme que cela élimine systématiquement les risques de plagiat et de tricherie

    Noam Chomsky estime que ChatGPT est essentiellement « un outil high-tech de plagiat », l'ancien professeur au MIT pense que ChatGPT apporte un « moyen d'éviter d'apprendre »

    Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé », il estime que ces outils pourraient aggraver la tricherie dans l'enseignement supérieur

    Lyon : ChatGPT utilisé par la moitié des élèves de Master d'un professeur pour rédiger leurs devoirs. « Cette pratique m'inquiète. Elle pose un véritable problème d'intégration des savoirs »
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #12
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 171
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 171
    Par défaut Plus de la moitié des étudiants de premier cycle utilisent l'IA dans leurs dissertations
    Plus de la moitié des étudiants de premier cycle utilisent l'IA dans leurs dissertations, mais ils ne savent pas quand elle "hallucine", en inventant des statistiques, des citations ou des faits.

    Plus de la moitié des étudiants de premier cycle déclarent consulter des programmes d'intelligence artificielle pour les aider à rédiger leurs dissertations, tandis que les écoles testent leur utilisation dans les salles de classe. Les enseignants utilisent également la technologie générative pour faciliter la planification des cours, dans l'espoir qu'elle puisse alléger leur charge de travail.

    Une enquête menée par le Higher Education Policy Institute (Hepi) auprès de plus de 1 000 étudiants britanniques de premier cycle a révélé que 53 % d'entre eux utilisaient l'intelligence artificielle pour générer des documents en vue d'un travail sur lequel ils seraient notés. Un étudiant sur quatre utilise des applications telles que Google Bard ou ChatGPT pour suggérer des sujets et un étudiant sur huit les utilise pour créer du contenu. Seulement 5 % ont admis avoir copié et collé du texte non édité généré par l'IA dans leurs évaluations.

    L'enquête a révélé aussi qu'un étudiant sur trois utilisant l'IA ne savait pas à quelle fréquence elle "hallucinait", c'est-à-dire qu'elle inventait des statistiques, des citations académiques ou des titres de livres pour combler ce qu'elle percevait comme des lacunes.

    Les enseignants cherchent également à utiliser l'IA pour rationaliser leur travail. L'Education Endowment Foundation (EEF) a recruté des écoles secondaires pour un nouveau projet de recherche sur l'utilisation de l'IA pour générer des plans de cours et du matériel pédagogique, ainsi que des examens et des modèles de réponses. Selon la proposition de l'EEF, l'utilisation de l'IA pourrait contribuer à réduire la charge de travail des enseignants et à améliorer la qualité de leur enseignement.


    Point de vue des étudiants sur l'IA générative dans l'enseignement supérieur

    Depuis la sortie de ChatGPT en novembre 2022, l'intérêt pour les outils d'intelligence artificielle générative (GenAI), capables de créer de nouveaux contenus tels que du texte, des images et des vidéos, a explosé. De nombreuses personnes sont enthousiasmées par le potentiel de la GenAI à améliorer l'apprentissage, à soutenir les étudiants et à réduire la charge de travail des étudiants et du personnel. Mais on s'inquiète tout autant d'une éventuelle épidémie de tricherie basée sur l'IA.

    Il s'agit de la première étude à l'échelle du Royaume-Uni à explorer l'utilisation de l'IA générative par les étudiants depuis la publication de ChatGPT. La HEPI s'est associée à Kortext, les experts en contenu numérique, en expérience étudiante et en données d'engagement et les créateurs de l'outil d'IA générative Kortext Premium, pour lever le voile sur la façon dont les étudiants pensent et utilisent les nouvelles technologies d'IA générative.

    Dans son enquête, HEPI a interrogé plus de 1 200 étudiants de premier cycle par l'intermédiaire de l'UCAS, les résultats étant pondérés pour être représentatifs de la population étudiante actuelle. Ils ont constaté que l'utilisation de l'IA générative s'est normalisée dans l'enseignement supérieur. La plupart des étudiants ont utilisé un outil d'IA pour soutenir leurs études et les universités sont généralement considérées comme fiables pour identifier les travaux produits par la GenAI. Cependant, les étudiants veulent non seulement des politiques claires, mais aussi un soutien dans l'utilisation de l'IA générative pour les aider dans leurs études.

    Les principales conclusions sont les suivantes :

    • Plus de la moitié des étudiants (53 %) ont utilisé l'IA générative pour les aider à préparer leurs évaluations. L'utilisation la plus courante est celle d'un "tuteur privé d'IA" (36 %), qui les aide à expliquer des concepts.

    • Plus d'un étudiant sur huit (13 %) utilise l'IA générative pour générer du texte pour les évaluations, mais ils modifient généralement le contenu avant de le soumettre. Seuls 5 % des étudiants intègrent un texte généré par l'IA dans les évaluations sans le modifier personnellement - ce qui, peut-être, sera interdit par la plupart des établissements.

      Nom : 3.png
Affichages : 16462
Taille : 65,1 Ko
    • Plus d'un tiers des étudiants qui ont utilisé l'IA générative (35 %) ne savent pas à quelle fréquence elle produit des faits, des statistiques ou des citations inventés ("hallucinations").

    • Une "fracture numérique" dans l'utilisation de l'IA pourrait apparaître, les étudiants de sexe masculin, les étudiants issus des milieux les plus favorisés et les étudiants d'origine asiatique étant beaucoup plus susceptibles d'avoir utilisé l'IA générative que les autres étudiants.

    • Une majorité d'étudiants considèrent qu'il est acceptable d'utiliser l'IA générative pour expliquer des concepts (66 %), suggérer des idées de recherche (54 %) et résumer des articles (53 %), mais seulement 3 % pensent qu'il est acceptable d'utiliser des textes d'IA dans les évaluations sans les modifier.

      Nom : 1.png
Affichages : 3893
Taille : 70,0 Ko
    • Une majorité de répondants (63 %) pensent que leur établissement a une politique "claire" sur l'utilisation de l'IA, et seulement 12 % pensent qu'elle n'est pas claire. Deux tiers des étudiants (65 %) pensent également que leur établissement pourrait repérer les travaux produits par l'IA.

    • Les étudiants pensent que les établissements devraient fournir davantage d'outils d'IA. Alors que trois étudiants sur dix (30 %) sont d'accord ou tout à fait d'accord pour dire que leur établissement devrait fournir de tels outils, moins d'un étudiant sur dix (9 %) déclare qu'il le fait actuellement.

    • Seul un cinquième des étudiants (22 %) sont satisfaits du soutien qu'ils ont reçu en matière d'IA. La plupart des étudiants (62 %) sont neutres ou disent ne pas savoir.

      Nom : 2.png
Affichages : 3906
Taille : 56,4 Ko
    • Près des trois quarts (73 %) prévoient d'utiliser l'IA à la fin de leurs études. Ils prévoient le plus souvent de l'utiliser pour traduire des textes (38 %), améliorer des contenus écrits (37 %) et résumer des textes (33 %). Seul un cinquième des étudiants (19 %) prévoit de l'utiliser pour générer du texte.


    Le rapport recommande en outre ce qui suit :

    1. Les établissements devraient élaborer des politiques claires sur les utilisations acceptables et inacceptables de l'IA.

    2. Lorsque l'IA présente des avantages, les établissements devraient enseigner aux étudiants comment l'utiliser efficacement et comment vérifier si le contenu qu'elle produit est de haute qualité.

    3. Pour éviter que la "fracture numérique" ne se creuse, les établissements devraient fournir des outils d'IA à ceux qui n'ont pas les moyens de se les offrir pour faciliter l'apprentissage.

    4. Le ministère de l'Éducation et les administrations décentralisées devraient commander d'urgence des études pour déterminer comment l'évaluation académique sera affectée par l'IA.


    Josh Freeman, responsable des politiques à l'HEPI et auteur du rapport, a déclaré :

    Lorsque la poussière est retombée après le lancement du ChatGPT, certains ont prédit la fin de l'évaluation telle que nous la connaissons. Mais jusqu'à présent, les établissements d'enseignement supérieur ont maintenu des normes de rigueur, et ils méritent d'être félicités. Les étudiants font confiance aux établissements pour repérer l'utilisation d'outils d'IA et ils estiment que le personnel comprend le fonctionnement de l'IA. Par conséquent, plutôt que de faire rédiger leurs dissertations par des chatbots, les étudiants utilisent l'IA de manière plus limitée : pour les aider à étudier, mais pas pour faire tout le travail.

    Toutefois, il est urgent d'agir pour éviter qu'une nouvelle "fracture numérique" ne se creuse. Les outils d'IA sont encore nouveaux et souvent inconnus. Pour chaque étudiant qui utilise l'IA générative tous les jours, il y en a un autre qui n'a jamais ouvert ChatGPT ou Google Bard, ce qui donne un énorme avantage à certains étudiants.

    Le fossé ne fera que se creuser au fur et à mesure que les outils d'IA générative deviendront plus puissants. Plutôt que d'adopter une approche punitive, les établissements devraient former les étudiants à l'utilisation efficace de l'IA générative - et être prêts à fournir des outils d'IA là où ils peuvent aider à l'apprentissage.
    Robin Gibson, directeur des affaires extérieures chez Kortext, a déclaré :

    Il est clair que l'adoption de l'IA générative par la population étudiante a été rapide et largement positive. Kortext a été l'une des premières entreprises edtech à fournir une solution d'IA générative sur mesure pour l'enseignement supérieur, atténuant ainsi les incertitudes exprimées par les étudiants dans cette recherche. Nous sommes impatients de continuer à donner aux étudiants des outils qui favorisent un environnement d'apprentissage dynamique, afin de préparer les futurs dirigeants à un monde défini par des possibilités illimitées.
    Source : "Provide or punish? Students’ views on generative AI in higher education" par Josh Freeman

    Et vous ?

    Pensez-vous que cette enquête est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    ChatGPT rédige désormais les dissertations des étudiants et l'enseignement supérieur est confronté à un grave problème. La détection des contenus générés par l'IA semble de plus en plus difficile

    Pourquoi les universités devraient revenir aux examens oraux à l'ère de l'IA et de ChatGPT, un doyen d'université affirme que cela élimine systématiquement les risques de plagiat et de tricherie

    51 % des enseignants déclarent utiliser ChatGPT dans le cadre de leur travail, de même que 33 % des élèves, et affirment que l'outil a eu un impact positif sur leur enseignement et leur apprentissage
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  13. #13
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 258
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 258
    Par défaut Un quart des enseignants estime que les outils d'IA font plus de mal que de bien dans l'enseignement
    Un quart des enseignants estime que l'utilisation des outils d'IA dans l'enseignement primaire et secondaire a plus d'inconvénients que d'avantages
    et seulement 6 % pensent le contraire

    Les enseignants sont davantage préoccupés par l'utilisation croissante des outils d'IA générative dans l'enseignement primaire et secondaire. Ils sont sceptiques quant aux potentiels de l'IA à révolutionner l'enseignement et appellent à un examen minutieux de ses impacts. Une nouvelle enquête publiée par le Pew Research Center révèle qu'un enseignant américain sur quatre estime que les outils d'IA font plus de mal que de bien dans l'enseignement primaire et secondaire. Seulement 6 % d'entre eux pensent que cela fait plus de bien que de mal. Certains craignent que l'IA affecte le niveau scolaire des apprenants et déshumanise l'expérience d'apprentissage.

    L'IA se diffuse dans l'enseignement et il est évident que l'avenir de ce secteur ne s'écrira pas sans elle. Les enseignants utilisent l'IA sous la forme d'outils edtech pour les aider à créer des plans de cours ou à calculer les notes des étudiants, tandis que pour les apprenants, l'IA peut les aider à réaliser leurs projets, leurs devoirs et même leurs travaux de recherche. Mais la technologie ne fait pas l'unanimité dans le secteur : les enseignants, les élèves et les responsables de l'enseignement sont divisés sur la question de savoir si l'IA dans les écoles est bénéfique ou non. Il est peut-être trop tôt pour en être certain.

    La question de savoir si l'utilisation de l'IA dans l'enseignement présente plus d'avantages ou d'inconvénients devient un sujet brûlant dans le secteur. Pew Research Center s'y est intéressé et a mené une enquête auprès des enseignants américains à l'automne 2023. Les résultats de l'enquête indiquent qu'un quart des enseignants du secteur public affirment que l'utilisation d'outils d'IA dans l'enseignement primaire et secondaire fait plus de mal que de bien. Environ 32 % ont répondu qu'il y a un mélange égal d'avantages et d'inconvénients, tandis que seulement 6 % affirment que cela fait plus de bien que de mal.

    Nom : 11.png
Affichages : 9054
Taille : 105,6 Ko

    Enfin, 35 % d'entre eux se disent incertains. Les opinions des enseignants diffèrent selon le niveau scolaire ; les enseignants du secondaire sont plus susceptibles que ceux du primaire et du collège d'avoir des opinions négatives sur les outils d'IA dans l'enseignement. Environ tiers des enseignants du secondaire (35 %) estiment que ces outils font plus de mal que de bien. Environ un quart des enseignants du secondaire (24 %) et 19 % des enseignants du primaire sont du même avis. Par contre, moins d'un enseignant sur dix, tous niveaux confondus, estime que l'utilisation de ces outils fait plus de bien que de mal.

    Quelque 47 % des enseignants du primaire disent ne pas être sûrs de l'impact des outils d'IA dans l'enseignement primaire et secondaire. Ce pourcentage est plus élevé que celui des enseignants des niveaux intermédiaire et secondaire. L'évolution du rôle de l'IA dans l'enseignement offre à la fois des opportunités et des défis pour les enseignants. En adoptant une approche proactive, les enseignants peuvent tirer parti de la technologie pour améliorer les résultats des élèves, tout en préservant le rôle unique que jouent les enseignants en favorisant la croissance, le développement et l'apprentissage de leurs élèves.

    « Notre monde évolue et nous devons admettre que le pouvoir de l'IA est susceptible d'apporter plus d'avantages que d'inconvénients, de sorte qu'il faut s'attendre à ce qu'elle soit adoptée non seulement dans l'enseignement, mais aussi dans tous les secteurs d'activité. Nous devons simplement apprendre à utiliser l'IA avec modération et à donner une bonne image à nos étudiants en leur montrant qu'ils ne doivent pas s'en remettre entièrement à la technologie. La confiance en votre expertise, la confiance en vos compétences et un meilleur jugement sont la clé », a écrit un critique sur l'utilisation de l'IA dans l'enseignement.

    Dans une enquête distincte, le Pew Research Center a interrogé des adolescents américains sur leur expérience et leur opinion concernant le chatbot d'IA ChatGPT dans le cadre de leurs travaux scolaires. Parmi les adolescents qui ont entendu parler de ChatGPT, 19 % disent l'avoir utilisé pour les aider dans leur travail scolaire. Ce phénomène est plus fréquent chez les adolescents des classes supérieures. Environ un quart des élèves de 11e et 12e année qui ont entendu parler de ChatGPT (24 %) disent l'avoir utilisé dans leurs travaux scolaires, contre 17 % des élèves de 9e et 10e année et 12 % des élèves de 7e et 8e année.

    Nom : 12.png
Affichages : 1337
Taille : 127,0 Ko

    L'opinion des adolescents sur l'acceptabilité de l'utilisation de ChatGPT dépend de l'usage qui en est fait. L'utilisation du chatbot d'IA pour explorer un sujet est assez bien accueillie. Par exemple, d'exemple, une partie des adolescents ayant entendu parler de ChatGPT disent qu'il est acceptable de l'utiliser lorsqu'ils font des recherches sur quelque chose de nouveau, tandis que d'autres disent que ce n'est pas acceptable. Parmi les adolescents qui ont entendu parler de ChatGPT :

    • 69 % disent qu'il est acceptable de l'utiliser pour rechercher de nouveaux sujets ;
    • 39 % disent qu'il est acceptable de l'utiliser pour résoudre des problèmes de mathématiques ;
    • 20 % disent qu'il est acceptable de l'utiliser pour rédiger des essais.


    Des parts allant de 18 % à 24 % ne savent pas s'il est acceptable d'utiliser ChatGPT dans chacune de ces situations. Dans l'ensemble, environ deux tiers des adolescents américains disent avoir entendu parler de ChatGPT. Parmi eux, 23 % en ont beaucoup entendu parler et 44 % en ont peu entendu parler. Environ un tiers (32 %) disent n'avoir jamais entendu parler de ChatGPT. Ceux qui ont beaucoup entendu parler de ChatGPT sont plus susceptibles que ceux qui n'en ont que peu entendu parler de dire qu'il est acceptable de l'utiliser pour rechercher des sujets, résoudre des problèmes de mathématiques et rédiger des essais.

    En outre, selon Luis von Ahn, cofondateur et PDG de Duolingo, si l'IA est susceptible de remplacer un nombre important d'êtres humains sur le marché du travail, certaines professions, telles que l'enseignement, résisteront mieux. « À un moment donné, il est probable que la plupart des emplois humains seront remplacés par l'IA. Mais je ne pense pas que les enseignants seront particulièrement en danger », a déclaré von Ahn lors d'une discussion libre pendant la séance plénière d'ouverture de la conférence internationale sur l'éducation de la NAFSA (Association of International Educators) à La Nouvelle-Orléans, aux États-Unis.

    Nom : 13.png
Affichages : 1313
Taille : 78,4 Ko

    Selon von Ahn, les raisons en sont le poids des enseignants dans la société et la valeur humaine qu'ils apportent à la classe. « D'abord, le travail des enseignants est très important. Ensuite, les gens apprennent des choses en voyant qu'un enseignant a une bonne moralité. Je pense aussi que les enseignants sont très doués pour inspirer (les élèves) et qu'il est difficile d'imiter cela avec l'ordinateur. Si l'IA est utile pour le partage des connaissances à grande échelle, un enseignant individuel joue toutes sortes d'autres rôles qui ne sont pas vraiment quantifiables avec le rôle du transfert de connaissances », a-t-il déclaré.

    Par ailleurs, la question de savoir comment former les étudiants dans des économies où les déplacements d'emplois causés par l'IA sont largement anticipés constitue un autre défi. D'après une analyse du FMI, 40 % des emplois dans le monde sont exposés à l'IA. Alors que dans le passé, l'automatisation et la technologie avaient tendance à remplacer les emplois impliquant des tâches routinières, la capacité de l'IA à avoir un impact sur les emplois hautement qualifiés est ce qui rend cette technologie si puissante. Les prédictions sur son impact potentiel vont dans tous les sens et sont difficiles à suivre.

    Selon le FMI, dans les économies avancées, environ 60 % des emplois pourraient être touchés par l'IA, tandis que les marchés émergents et les pays à faible revenu seront moins vulnérables, avec 40 % des emplois concernés. La directrice du FMI, Kristalina Georgieva, affirme que les travailleurs et les entreprises ont très peu de temps pour s'adapter aux nouvelles réalités. Elle pense que l'IA pourrait augmenter la productivité, mais aussi exacerber les inégalités sociales.

    Source : Pew Research Center

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'utilisation des outils d'IA générative dans l'enseignement ?
    Quelles sont les préoccupations que pose l'utilisation des outils d'IA dans l'enseignement ?
    Quels seraient leurs impacts sur le niveau scolaire des apprenants ? Va-t-il s'améliorer ou se dégrader ?
    L'utilisation de l'IA dans l'enseignement présente-t-elle plus d'avantages ou d'inconvénients ?

    Voir aussi

    Environ 1 adolescent sur 5 ayant entendu parler de ChatGPT l'a utilisé pour ses travaux scolaires, mais 57 % pensent que c'est de la triche, selon une enquête du Pew Research Center

    Les élèves utilisent ChatGPT pour leurs devoirs et les enseignants utilisent ChatGPT pour les corriger, d'après des rapports qui suscitent des comparaisons avec les examens écrits et oraux

    L'IA devrait toucher 40 % des emplois et jusqu'à 60% pour les économies avancées, et aggraver les inégalités, selon le FMI

  14. #14
    Membre confirmé
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Février 2024
    Messages
    198
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Architecte réseau

    Informations forums :
    Inscription : Février 2024
    Messages : 198
    Par défaut
    L'IA est salutaire dans le sens où elle tue la difficulté de certains devoirs et exercices sans grand intérêt. Il faut en finir avec les faux prétextes type "gym de l'esprit" qui prévalent encore dans le monde de l'enseignement.

  15. #15
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 083
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 083
    Par défaut
    Citation Envoyé par RenarddeFeu Voir le message
    L'IA est salutaire dans le sens où elle tue la difficulté de certains devoirs et exercices sans grand intérêt. Il faut en finir avec les faux prétextes type "gym de l'esprit" qui prévalent encore dans le monde de l'enseignement.
    Pour votre information, des études sérieuses ont déjà démontré que l'usage des tablettes dans les petites écoles étaient responsable de retards dans le développement des capacités cognitives chez le petits enfant.

    Vous avez raison après faire en sorte que 26 % des écoliers ne savent pas lire ou calculer à la fin du primaire et avoir 2,5 millions des 18-65 ans illettrés en 2011 en France (métropole parce que l'on n'ose même pas comptabiliser Guyane & co), soit 7 % de la population, il serait dommages de ne pas en faire des décérébrés incapables de développer une idée sans faire appel à l'IA!!!

    Je cite l'article ci-dessous:

    https://www.lemonde.fr/archives/arti...2_1819218.html

    26 % des écoliers ne savent pas lire ou calculer à la fin du primaire

    ÉDUCATION Le ministère de l'éducation nationale a rendu public, jeudi 2 mai, le bilan des épreuves d'évaluation réalisées à la dernière rentrée auprès des élèves entrant en classe de CE2 et en sixième. CES RÉSULTATS confirment qu'à la fin des cinq premières années d'école 9 % d'entre eux ne maîtrisent pas les compétences de base en lecture et 23,5 % en calcul. Au total, 6 % des élèves sont déjà en situation de grand échec scolaire.

  16. #16
    Expert confirmé
    Avatar de Kannagi
    Homme Profil pro
    cyber-paléontologue
    Inscrit en
    Mai 2010
    Messages
    3 226
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : cyber-paléontologue

    Informations forums :
    Inscription : Mai 2010
    Messages : 3 226
    Par défaut
    A l'ENTRÉE en sixième, 9 % des élèves ne savent pas lire et 23,5 % éprouvent les plus grandes difficultés en calcul. Au total, 6 % ne maîtrisent ni l'une ni l'autre de ces compétence
    ça me semble invraisemblable ^^'
    Je ne sais pas comment c'est possible....

  17. #17
    Modérateur
    Avatar de sevyc64
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Janvier 2007
    Messages
    10 242
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 52
    Localisation : France, Pyrénées Atlantiques (Aquitaine)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Janvier 2007
    Messages : 10 242
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    Publié le 03 mai 1996 à 00h00
    Effectivement, on peut aisément imaginer que, 30 ans après, ces chiffres sont toujours pertinents.
    A l'époque, les tablettes et ChatGPT n'existaient pas encore, les (télé)phones n'étaient pas encore réellement smart.

    Des résultats un peu plus récents seraient plus crédibles pour décrire la situation actuelle.

  18. #18
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 365
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 365
    Par défaut L’impact des vérificateurs de texte IA sur la créativité des étudiants
    Les détecteurs d'IA obligent les étudiants à adopter un style d'écriture dépourvu d'originalité pour éviter d'être accusés de tricherie,
    l'essor de ces outils cause des problèmes inattendus

    Avec l’essor des outils d’intelligence artificielle comme ChatGPT, les enseignants et les institutions éducatives se retrouvent face à un défi inédit : comment distinguer les travaux écrits par des étudiants de ceux générés par des machines. Cette situation a conduit à l’utilisation croissante de vérificateurs de texte IA, mais ces outils posent des problèmes inattendus.

    La peur des étudiants d'utiliser l'IA générative et la montée en puissance d'outils douteux de « vérification » de l'IA peuvent-elles créer une culture dépourvue de créativité ? C'est un sujet qui, curieusement, mérite d'être approfondi.

    En début d'année, des articles ont émergé dans la presse parlant du projet de loi californien SB 942. Ce projet de loi obligerait les entreprises spécialisées dans l'IA à proposer gratuitement un outil de détection de l'IA, en dépit du fait que ces outils sont notoirement peu fiables et sujets à des absurdités. Comme indiqué dans la presse, le projet de loi adopte une approche « plus difficile pour les nerds » pour réglementer une technologie que ses partisans ne comprennent pas.

    Le projet de loi SB 942 a continué à progresser et vient d'être adopté par l'Assemblée de Californie. Il est maintenant sur le bureau du gouverneur Newsom, qui pourrait le signer.

    L’essor des vérificateurs de texte IA et les conséquences sur l’écriture des étudiants

    Les vérificateurs de texte IA sont conçus pour détecter les contenus générés par des machines. Cependant, leur efficacité est souvent remise en question. Selon une étude récente, ces outils peuvent facilement être trompés et ont tendance à produire des faux positifs, accusant à tort des étudiants d’avoir utilisé des IA. Cette situation crée une pression sur les étudiants pour qu’ils écrivent de manière plus mécanique et prévisible, afin de ne pas être suspectés d’utiliser des outils d’IA.

    Pour éviter d’être accusés de tricherie, de nombreux étudiants modifient leur style d’écriture pour qu’il soit moins créatif et plus conforme aux attentes des vérificateurs de texte IA. Cela peut inclure l’utilisation de phrases courtes, de structures de phrases simples et de vocabulaire limité. En conséquence, les étudiants risquent de perdre leur voix unique et leur créativité, se conformant à un modèle d’écriture plus robotique.


    Le cas d'un parent

    Ci-dessous les remarques d'un parent.

    L'un de mes enfants avait un devoir d'anglais. Il devait lire la célèbre nouvelle de Kurt Vonnegut, Harrison Bergeron, et rédiger un court essai à son sujet. Comme j'écris beaucoup, mon enfant m'a demandé de relire son essai et de lui donner des conseils. J'ai fait quelques suggestions générales sur la manière d'améliorer la fluidité du texte, car il ressemblait beaucoup à un premier jet standard : un peu guindé. Mon fils est parti travailler sur une réécriture.

    Si vous ne connaissez pas l'histoire de Harrison Bergeron, il s'agit d'une société qui cherche à imposer « l’égalité » en imposant des « handicaps » à tous ceux qui excellent dans quelque domaine que ce soit, afin de les ramener au plus petit dénominateur commun (par exemple, des masques laids pour les jolies personnes, l'obligation de porter des poids supplémentaires pour les personnes fortes). L'une des morales de cette histoire porte sur les dangers qu'il y a à vouloir imposer l'égalité d'une manière qui limite l'excellence et la créativité.

    Plus tard dans la journée, le jeune est venu avec son Chromebook fourni par l'école, sur lequel Grammarly Pro est préinstallé. Les élèves sont encouragés à l'utiliser pour améliorer leur écriture. L'outil dispose notamment d'un « AI Checker » qui tente de déterminer si le texte soumis a été écrit par une IA.

    Cet outil est similaire aux « vérificateurs de plagiat » qui existent depuis quelques décennies. En fait, le « contrôle » de Grammarly couvre à la fois l'IA et le plagiat (c'est du moins ce qu'il dit). Ces systèmes ont toujours eu des problèmes, notamment en ce qui concerne les faux positifs. Et il semble que les vérificateurs d'IA soient (sans surprise) pires.

    Nom : grammar.png
Affichages : 168985
Taille : 297,6 Ko

    Il s'avère que Grammarly n'a introduit cette fonctionnalité qu'il y a quelques semaines. Heureusement, l'annonce de Grammarly indique très clairement que la détection de l'IA est assez incertaine :

    Les détecteurs d'IA sont une technologie émergente et inexacte. Lorsqu'un détecteur d'IA affirme avec certitude que le contenu analysé contient de l'IA, il n'agit pas de manière responsable. Aucun détecteur d'IA ne peut déterminer avec certitude si l'IA a été utilisée pour produire un texte. La précision de ces outils peut varier en fonction des algorithmes utilisés et du texte analysé.
    Quoi qu'il en soit, le jeune voulait me montrer que lorsque le mot « devoid » (dépourvu, vide, sans) était utilisé, le vérificateur d'intelligence artificielle suggérait que l'essai était « rédigé à 18 % par l'intelligence artificielle ». La signification de ces 18 % n'est pas très claire. S'agit-il d'une « probabilité que cet essai ait été écrit par une IA » ou d'un « pourcentage de l'essai que nous pensons avoir été écrit par une IA » ? Mais, comme par magie, lorsque le mot « devoid » a été remplacé par « without » (sans), le score de l'IA est tombé à 0 %.

    Dans son communiqué, Grammarly affirme qu'en raison de la fragilité de ces outils, il « fait les choses différemment » des autres outils de vérification de l'IA. Il affirme notamment que son propre outil est plus transparent :

    La détection de l'IA de Grammarly montre aux utilisateurs quelle partie de leur texte, le cas échéant, semble avoir été générée par l'IA, et nous fournissons des conseils sur l'interprétation des résultats. Ce pourcentage ne répond pas forcément à la question de savoir « pourquoi » le texte a été signalé. Toutefois, il permet au rédacteur d'attribuer les sources de manière appropriée, de réécrire le contenu et d'atténuer le risque d'être accusé à tort de plagiat par l'IA. Cette approche est similaire à nos capacités de détection du plagiat, qui aident les rédacteurs à identifier et à réviser les plagiats potentiels, garantissant ainsi l'originalité et l'authenticité de leur travail.
    Je peux vous dire que ce n'est pas vrai. Après que le jeune a continué à travailler sur son essai et a atteint un point où il pensait qu'il était en bonne forme, le vérificateur d'IA a indiqué qu'il était composé à 17 % d'IA, mais n'a donné aucune indication sur ce qui pourrait être généré par l'IA ou sur la raison de ce choix.

    Pour être clair, la dissertation peut toujours être rendue. Rien n'indique que l'enseignant s'appuie sur le vérificateur d'IA, ni même qu'il l'utilise. Lorsque j'ai mentionné tout cela sur Bluesky, d'autres enseignants m'ont dit qu'ils savaient qu'il fallait ignorer tout score inférieur à 60 %, car il s'agissait probablement d'un faux positif. Mais mon enfant est raisonnablement troublé par le fait que si le vérificateur d'IA suggère que la dissertation semble avoir été écrite par une IA, cela pourrait signifier qu'il y a un problème avec la dissertation.

    C'est à ce moment-là que nous avons commencé à chercher ce qui pouvait bien être à l'origine de ce score de 17 %. La cible immédiate était un vocabulaire plus avancé (le problème qui avait déjà été identifié avec « devoid »).

    L'essai utilisait le mot « delve » (plonger), qui est maintenant devenu une sorte de punchline car il apparaît dans tous les travaux générés par l'IA.

    Un cercle vicieux

    Cette situation crée un cercle vicieux où les étudiants, pour éviter d’être accusés d’utiliser des IA, adoptent un style d’écriture qui ressemble de plus en plus à celui généré par des machines. Les vérificateurs de texte IA, en réponse, deviennent de plus en plus stricts, poussant les étudiants à se conformer encore davantage. Ce phénomène soulève des questions sur l’impact de la technologie sur l’éducation et sur la manière dont nous évaluons les compétences des étudiants.

    Il faut dire que les outils de détection eux-mêmes présentent un risque de biais

    Une étude réalisée en 2023 a révélé un taux de faux positifs de 61,3 % lors de l'évaluation des examens du Test of English as a Foreign Language (TOEFL) à l'aide de sept détecteurs d'intelligence artificielle différents. La société affirme qu'elle a entraîné son détecteur sur des textes rédigés par des apprenants d'anglais et par des anglophones de naissance.

    Dans notre étude, nous avons évalué les performances de sept détecteurs GPT largement utilisés sur 91 essais TOEFL (Test of English as a Foreign Language) provenant d'un forum chinois et 88 essais d'élèves américains de quatrième (eight-grade) provenant de l'ensemble de données ASAP de la Fondation Hewlett. Alors que les détecteurs ont correctement classé les essais des étudiants américains, ils ont incorrectement étiqueté plus de la moitié des essais du TOEFL comme étant « générés par l'IA » (taux moyen de faux positifs : 61,3 %).

    Tous les détecteurs ont unanimement identifié 19,8 % des essais du TOEFL écrits par des humains comme étant rédigés par des IA, et au moins un détecteur a signalé 97,8 % des essais du TOEFL comme étant générés par des IA. En y regardant de plus près, les essais TOEFL identifiés à l'unanimité présentaient une perplexité de texte significativement plus faible. La perplexité du texte est une mesure de la « surprise » ou de la « confusion » d'un modèle de langage génératif lorsqu'il tente de deviner le mot suivant dans une phrase. Si un modèle de langage génératif peut prédire facilement le mot suivant, la perplexité du texte est faible. En revanche, si le mot suivant est difficile à prédire, la perplexité du texte est élevée. La plupart des détecteurs GPT utilisent la perplexité du texte pour détecter les textes générés par l'IA, ce qui risque de pénaliser par inadvertance les auteurs non natifs qui utilisent une gamme plus limitée d'expressions linguistiques.
    Nom : mis.png
Affichages : 26312
Taille : 16,4 Ko

    Vers une solution

    Pour résoudre ce problème, il est essentiel de repenser notre approche de l’évaluation des travaux écrits. Plutôt que de se fier uniquement aux vérificateurs de texte IA, les enseignants pourraient adopter une approche plus holistique, en tenant compte du processus de rédaction et en encourageant les étudiants à développer leur propre style. De plus, il est crucial de sensibiliser les étudiants aux limites des outils d’IA et de les encourager à utiliser ces technologies de manière éthique et responsable.

    En fin de compte, l’objectif devrait être de préserver la créativité et l’authenticité des étudiants tout en garantissant l’intégrité académique. Cela nécessite une collaboration entre les éducateurs, les développeurs de technologies et les étudiants pour créer un environnement d’apprentissage équilibré et équitable.

    Sources : SB-942 California AI Transparency Act, Grammarly

    Et vous ?

    Pensez-vous que les vérificateurs de texte IA sont une solution efficace pour détecter la tricherie ? Pourquoi ou pourquoi pas ?
    Comment les enseignants peuvent-ils encourager la créativité des étudiants tout en maintenant l’intégrité académique ?
    Avez-vous déjà ressenti la pression de modifier votre style d’écriture pour éviter d’être accusé d’utiliser des outils d’IA ?
    Quels sont les avantages et les inconvénients de l’utilisation des vérificateurs de texte IA dans l’éducation ?
    Comment les institutions éducatives peuvent-elles équilibrer l’utilisation de la technologie et la préservation de l’authenticité des travaux des étudiants ?
    Quelles alternatives aux vérificateurs de texte IA pourraient être mises en place pour évaluer les travaux écrits des étudiants ?
    Pensez-vous que l’utilisation croissante des outils d’IA dans l’éducation pourrait changer la manière dont nous percevons la créativité et l’originalité ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  19. #19
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 464
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 464
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Pour éviter d’être accusés de tricherie, de nombreux étudiants modifient leur style d’écriture pour qu’il soit moins créatif et plus conforme aux attentes des vérificateurs de texte IA. Cela peut inclure l’utilisation de phrases courtes, de structures de phrases simples et de vocabulaire limité. En conséquence, les étudiants risquent de perdre leur voix unique et leur créativité, se conformant à un modèle d’écriture plus robotique.
    Ce truc me fascine.
    Donc pour éviter d'être suspecté d'utiliser un système fort peu créatif les élèves brident leur propre créativité?
    Je comprends l'idée d'exploiter les mêmes mécaniques à chaque fois pour faire le moins d'effort sur une activité sur laquelle on risque d'être sanctionné. Mais l'uniformisation n'est elle pas un risque d'augmenter le risque de faux positif?
    A l'époque ma technique était plus simple : si je risquais la punition je ne faisais rien comme ça je n'avais que la punition (dire que certains avaient travaillé et devaient faire la punition...)
    Quoi qu'il en soit, le jeune voulait me montrer que lorsque le mot « devoid » (dépourvu, vide, sans) était utilisé, le vérificateur d'intelligence artificielle suggérait que l'essai était « rédigé à 18 % par l'intelligence artificielle ». La signification de ces 18 % n'est pas très claire. S'agit-il d'une « probabilité que cet essai ait été écrit par une IA » ou d'un « pourcentage de l'essai que nous pensons avoir été écrit par une IA » ? Mais, comme par magie, lorsque le mot « devoid » a été remplacé par « without » (sans), le score de l'IA est tombé à 0 %.
    Ok donc si on utilise un terme peu fréquent notre évaluation passe immédiatement de "c'est pas une IA" à "il y a une chance sur 5 que ça soit une IA"
    Je ne suis pas un défenseur radical de la recherche du terme exact mais sur certains sujets je peux être amené à faire cet effort.
    Je pense d'ailleurs que l'utilisation adéquate d'un terme particulièrement précis devrait être une preuve de non utilisation de l'IA (ou d'utilisation acceptable parce que la précision a été affinée).
    Cet exemple montre bien le manque de pertinence de ces outils.
    C'est à ce moment-là que nous avons commencé à chercher ce qui pouvait bien être à l'origine de ce score de 17 %. La cible immédiate était un vocabulaire plus avancé (le problème qui avait déjà été identifié avec « devoid »).
    L'essai utilisait le mot « delve » (plonger), qui est maintenant devenu une sorte de punchline car il apparaît dans tous les travaux générés par l'IA.
    Voila le problème des corrélations, elle fournit des indices mais en rien des preuves.
    Cependant ce que suggère leur expérience et qu'il y a des critères qui ont une portée limitée (vocabulaire soutenu <20%?) et qu'il faut multiplier les critères pour augmenter le score et que n'avoir qu'un gimmick limite le risque.
    Mais je vois bien un prof donner 80% de la note en cas d'une suspicion de 20% ce qui pose de gros problèmes.
    Pour résoudre ce problème, il est essentiel de repenser notre approche de l’évaluation des travaux écrits. Plutôt que de se fier uniquement aux vérificateurs de texte IA, les enseignants pourraient adopter une approche plus holistique, en tenant compte du processus de rédaction et en encourageant les étudiants à développer leur propre style. De plus, il est crucial de sensibiliser les étudiants aux limites des outils d’IA et de les encourager à utiliser ces technologies de manière éthique et responsable.
    Ce texte risque d'avoir été écrit par une IA à 19%
    Et je complèterait : De plus, il est crucial de sensibiliser les étudiants et les enseignants aux limites des outils d’IA et de les encourager à utiliser ces technologies de manière éthique et responsable.

    Pensez-vous que les vérificateurs de texte IA sont une solution efficace pour détecter la tricherie ? Pourquoi ou pourquoi pas ?
    Non.
    Mais la vraie réponse est qu'utiliser un IA n'est pas forcément tricher.
    Comment les enseignants peuvent-ils encourager la créativité des étudiants tout en maintenant l’intégrité académique ?
    En encourageant les écrits originaux/personnels etc.
    J'étais très mauvais en francais pourtant je me souviens clairement avoir fait une rédaction marquante juste après avoir vu American History X, par chance le sujet était lié à ce film (je ne me souviens plus de quelle façon).
    J'ai eu un bonus ce jour là, parce que mon texte a incité la prof à aller voir le film.
    Avez-vous déjà ressenti la pression de modifier votre style d’écriture pour éviter d’être accusé d’utiliser des outils d’IA ?
    Non mon style était inimitable à l'époque et se résumait facilement : "Un seul point, tout à la fin, mais BEAUCOUP de virgules"
    Quels sont les avantages et les inconvénients de l’utilisation des vérificateurs de texte IA dans l’éducation ?
    Il n'y a AUCUN avantage
    Comment les institutions éducatives peuvent-elles équilibrer l’utilisation de la technologie et la préservation de l’authenticité des travaux des étudiants ?
    En évoluant autant qu'elle veut que les étudiants évoluent.
    Quelles alternatives aux vérificateurs de texte IA pourraient être mises en place pour évaluer les travaux écrits des étudiants ?
    La bonne vielle méthode : lire, corriger, commenter etc.
    Pensez-vous que l’utilisation croissante des outils d’IA dans l’éducation pourrait changer la manière dont nous percevons la créativité et l’originalité ?
    Oui

  20. #20
    Membre averti
    Profil pro
    Artiste
    Inscrit en
    Juillet 2008
    Messages
    19
    Détails du profil
    Informations personnelles :
    Localisation : France, Var (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Artiste
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Juillet 2008
    Messages : 19
    Par défaut L'arroseur arrosé en somme
    L'Ia pompe les textes sur le net en masse sans les comprendre et peut ou pas les réinjecter dans une réponse. Mais un étudiant qui lirait les mêmes textes lui n'aurait plus le droit d'utiliser le vocabulaire qu'il aurait acquis alors qu'il les (les textes) a compris. Le problème c'est l'utilisation de la machine par le professeur et le manque de connaissance de ses étudiants. De toute façon, quoi qu'il arrive, il y en a au moins un des deux - étudiant/prof - qui fait mal son boulot à cause d'un outil inapproprié. C'est sans solution.

Discussions similaires

  1. Réponses: 5
    Dernier message: 04/09/2022, 03h14
  2. Réponses: 18
    Dernier message: 12/10/2021, 21h36
  3. [VB]Retouver les clés des items d'une Collection, c'est possible ?
    Par marchand_de_sable dans le forum VBA Access
    Réponses: 11
    Dernier message: 19/12/2016, 16h44
  4. Application web pour les réseaux sociaux des étudiants universitaires
    Par zakii2plus dans le forum Général Conception Web
    Réponses: 0
    Dernier message: 21/02/2014, 09h24
  5. Réponses: 3
    Dernier message: 25/10/2013, 16h39

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo