IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Les outils de détections de texte généré par l'IA accusent à tort des étudiants innocents de tricherie


Sujet :

Intelligence artificielle

  1. #21
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 092
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 092
    Points : 209 790
    Points
    209 790
    Par défaut L’impact des vérificateurs de texte IA sur la créativité des étudiants
    Les détecteurs d'IA obligent les étudiants à adopter un style d'écriture dépourvu d'originalité pour éviter d'être accusés de tricherie,
    l'essor de ces outils cause des problèmes inattendus

    Avec l’essor des outils d’intelligence artificielle comme ChatGPT, les enseignants et les institutions éducatives se retrouvent face à un défi inédit : comment distinguer les travaux écrits par des étudiants de ceux générés par des machines. Cette situation a conduit à l’utilisation croissante de vérificateurs de texte IA, mais ces outils posent des problèmes inattendus.

    La peur des étudiants d'utiliser l'IA générative et la montée en puissance d'outils douteux de « vérification » de l'IA peuvent-elles créer une culture dépourvue de créativité ? C'est un sujet qui, curieusement, mérite d'être approfondi.

    En début d'année, des articles ont émergé dans la presse parlant du projet de loi californien SB 942. Ce projet de loi obligerait les entreprises spécialisées dans l'IA à proposer gratuitement un outil de détection de l'IA, en dépit du fait que ces outils sont notoirement peu fiables et sujets à des absurdités. Comme indiqué dans la presse, le projet de loi adopte une approche « plus difficile pour les nerds » pour réglementer une technologie que ses partisans ne comprennent pas.

    Le projet de loi SB 942 a continué à progresser et vient d'être adopté par l'Assemblée de Californie. Il est maintenant sur le bureau du gouverneur Newsom, qui pourrait le signer.

    L’essor des vérificateurs de texte IA et les conséquences sur l’écriture des étudiants

    Les vérificateurs de texte IA sont conçus pour détecter les contenus générés par des machines. Cependant, leur efficacité est souvent remise en question. Selon une étude récente, ces outils peuvent facilement être trompés et ont tendance à produire des faux positifs, accusant à tort des étudiants d’avoir utilisé des IA. Cette situation crée une pression sur les étudiants pour qu’ils écrivent de manière plus mécanique et prévisible, afin de ne pas être suspectés d’utiliser des outils d’IA.

    Pour éviter d’être accusés de tricherie, de nombreux étudiants modifient leur style d’écriture pour qu’il soit moins créatif et plus conforme aux attentes des vérificateurs de texte IA. Cela peut inclure l’utilisation de phrases courtes, de structures de phrases simples et de vocabulaire limité. En conséquence, les étudiants risquent de perdre leur voix unique et leur créativité, se conformant à un modèle d’écriture plus robotique.


    Le cas d'un parent

    Ci-dessous les remarques d'un parent.

    L'un de mes enfants avait un devoir d'anglais. Il devait lire la célèbre nouvelle de Kurt Vonnegut, Harrison Bergeron, et rédiger un court essai à son sujet. Comme j'écris beaucoup, mon enfant m'a demandé de relire son essai et de lui donner des conseils. J'ai fait quelques suggestions générales sur la manière d'améliorer la fluidité du texte, car il ressemblait beaucoup à un premier jet standard : un peu guindé. Mon fils est parti travailler sur une réécriture.

    Si vous ne connaissez pas l'histoire de Harrison Bergeron, il s'agit d'une société qui cherche à imposer « l’égalité » en imposant des « handicaps » à tous ceux qui excellent dans quelque domaine que ce soit, afin de les ramener au plus petit dénominateur commun (par exemple, des masques laids pour les jolies personnes, l'obligation de porter des poids supplémentaires pour les personnes fortes). L'une des morales de cette histoire porte sur les dangers qu'il y a à vouloir imposer l'égalité d'une manière qui limite l'excellence et la créativité.

    Plus tard dans la journée, le jeune est venu avec son Chromebook fourni par l'école, sur lequel Grammarly Pro est préinstallé. Les élèves sont encouragés à l'utiliser pour améliorer leur écriture. L'outil dispose notamment d'un « AI Checker » qui tente de déterminer si le texte soumis a été écrit par une IA.

    Cet outil est similaire aux « vérificateurs de plagiat » qui existent depuis quelques décennies. En fait, le « contrôle » de Grammarly couvre à la fois l'IA et le plagiat (c'est du moins ce qu'il dit). Ces systèmes ont toujours eu des problèmes, notamment en ce qui concerne les faux positifs. Et il semble que les vérificateurs d'IA soient (sans surprise) pires.

    Nom : grammar.png
Affichages : 165605
Taille : 297,6 Ko

    Il s'avère que Grammarly n'a introduit cette fonctionnalité qu'il y a quelques semaines. Heureusement, l'annonce de Grammarly indique très clairement que la détection de l'IA est assez incertaine :

    Les détecteurs d'IA sont une technologie émergente et inexacte. Lorsqu'un détecteur d'IA affirme avec certitude que le contenu analysé contient de l'IA, il n'agit pas de manière responsable. Aucun détecteur d'IA ne peut déterminer avec certitude si l'IA a été utilisée pour produire un texte. La précision de ces outils peut varier en fonction des algorithmes utilisés et du texte analysé.
    Quoi qu'il en soit, le jeune voulait me montrer que lorsque le mot « devoid » (dépourvu, vide, sans) était utilisé, le vérificateur d'intelligence artificielle suggérait que l'essai était « rédigé à 18 % par l'intelligence artificielle ». La signification de ces 18 % n'est pas très claire. S'agit-il d'une « probabilité que cet essai ait été écrit par une IA » ou d'un « pourcentage de l'essai que nous pensons avoir été écrit par une IA » ? Mais, comme par magie, lorsque le mot « devoid » a été remplacé par « without » (sans), le score de l'IA est tombé à 0 %.

    Dans son communiqué, Grammarly affirme qu'en raison de la fragilité de ces outils, il « fait les choses différemment » des autres outils de vérification de l'IA. Il affirme notamment que son propre outil est plus transparent :

    La détection de l'IA de Grammarly montre aux utilisateurs quelle partie de leur texte, le cas échéant, semble avoir été générée par l'IA, et nous fournissons des conseils sur l'interprétation des résultats. Ce pourcentage ne répond pas forcément à la question de savoir « pourquoi » le texte a été signalé. Toutefois, il permet au rédacteur d'attribuer les sources de manière appropriée, de réécrire le contenu et d'atténuer le risque d'être accusé à tort de plagiat par l'IA. Cette approche est similaire à nos capacités de détection du plagiat, qui aident les rédacteurs à identifier et à réviser les plagiats potentiels, garantissant ainsi l'originalité et l'authenticité de leur travail.
    Je peux vous dire que ce n'est pas vrai. Après que le jeune a continué à travailler sur son essai et a atteint un point où il pensait qu'il était en bonne forme, le vérificateur d'IA a indiqué qu'il était composé à 17 % d'IA, mais n'a donné aucune indication sur ce qui pourrait être généré par l'IA ou sur la raison de ce choix.

    Pour être clair, la dissertation peut toujours être rendue. Rien n'indique que l'enseignant s'appuie sur le vérificateur d'IA, ni même qu'il l'utilise. Lorsque j'ai mentionné tout cela sur Bluesky, d'autres enseignants m'ont dit qu'ils savaient qu'il fallait ignorer tout score inférieur à 60 %, car il s'agissait probablement d'un faux positif. Mais mon enfant est raisonnablement troublé par le fait que si le vérificateur d'IA suggère que la dissertation semble avoir été écrite par une IA, cela pourrait signifier qu'il y a un problème avec la dissertation.

    C'est à ce moment-là que nous avons commencé à chercher ce qui pouvait bien être à l'origine de ce score de 17 %. La cible immédiate était un vocabulaire plus avancé (le problème qui avait déjà été identifié avec « devoid »).

    L'essai utilisait le mot « delve » (plonger), qui est maintenant devenu une sorte de punchline car il apparaît dans tous les travaux générés par l'IA.

    Un cercle vicieux

    Cette situation crée un cercle vicieux où les étudiants, pour éviter d’être accusés d’utiliser des IA, adoptent un style d’écriture qui ressemble de plus en plus à celui généré par des machines. Les vérificateurs de texte IA, en réponse, deviennent de plus en plus stricts, poussant les étudiants à se conformer encore davantage. Ce phénomène soulève des questions sur l’impact de la technologie sur l’éducation et sur la manière dont nous évaluons les compétences des étudiants.

    Il faut dire que les outils de détection eux-mêmes présentent un risque de biais

    Une étude réalisée en 2023 a révélé un taux de faux positifs de 61,3 % lors de l'évaluation des examens du Test of English as a Foreign Language (TOEFL) à l'aide de sept détecteurs d'intelligence artificielle différents. La société affirme qu'elle a entraîné son détecteur sur des textes rédigés par des apprenants d'anglais et par des anglophones de naissance.

    Dans notre étude, nous avons évalué les performances de sept détecteurs GPT largement utilisés sur 91 essais TOEFL (Test of English as a Foreign Language) provenant d'un forum chinois et 88 essais d'élèves américains de quatrième (eight-grade) provenant de l'ensemble de données ASAP de la Fondation Hewlett. Alors que les détecteurs ont correctement classé les essais des étudiants américains, ils ont incorrectement étiqueté plus de la moitié des essais du TOEFL comme étant « générés par l'IA » (taux moyen de faux positifs : 61,3 %).

    Tous les détecteurs ont unanimement identifié 19,8 % des essais du TOEFL écrits par des humains comme étant rédigés par des IA, et au moins un détecteur a signalé 97,8 % des essais du TOEFL comme étant générés par des IA. En y regardant de plus près, les essais TOEFL identifiés à l'unanimité présentaient une perplexité de texte significativement plus faible. La perplexité du texte est une mesure de la « surprise » ou de la « confusion » d'un modèle de langage génératif lorsqu'il tente de deviner le mot suivant dans une phrase. Si un modèle de langage génératif peut prédire facilement le mot suivant, la perplexité du texte est faible. En revanche, si le mot suivant est difficile à prédire, la perplexité du texte est élevée. La plupart des détecteurs GPT utilisent la perplexité du texte pour détecter les textes générés par l'IA, ce qui risque de pénaliser par inadvertance les auteurs non natifs qui utilisent une gamme plus limitée d'expressions linguistiques.
    Nom : mis.png
Affichages : 25628
Taille : 16,4 Ko

    Vers une solution

    Pour résoudre ce problème, il est essentiel de repenser notre approche de l’évaluation des travaux écrits. Plutôt que de se fier uniquement aux vérificateurs de texte IA, les enseignants pourraient adopter une approche plus holistique, en tenant compte du processus de rédaction et en encourageant les étudiants à développer leur propre style. De plus, il est crucial de sensibiliser les étudiants aux limites des outils d’IA et de les encourager à utiliser ces technologies de manière éthique et responsable.

    En fin de compte, l’objectif devrait être de préserver la créativité et l’authenticité des étudiants tout en garantissant l’intégrité académique. Cela nécessite une collaboration entre les éducateurs, les développeurs de technologies et les étudiants pour créer un environnement d’apprentissage équilibré et équitable.

    Sources : SB-942 California AI Transparency Act, Grammarly

    Et vous ?

    Pensez-vous que les vérificateurs de texte IA sont une solution efficace pour détecter la tricherie ? Pourquoi ou pourquoi pas ?
    Comment les enseignants peuvent-ils encourager la créativité des étudiants tout en maintenant l’intégrité académique ?
    Avez-vous déjà ressenti la pression de modifier votre style d’écriture pour éviter d’être accusé d’utiliser des outils d’IA ?
    Quels sont les avantages et les inconvénients de l’utilisation des vérificateurs de texte IA dans l’éducation ?
    Comment les institutions éducatives peuvent-elles équilibrer l’utilisation de la technologie et la préservation de l’authenticité des travaux des étudiants ?
    Quelles alternatives aux vérificateurs de texte IA pourraient être mises en place pour évaluer les travaux écrits des étudiants ?
    Pensez-vous que l’utilisation croissante des outils d’IA dans l’éducation pourrait changer la manière dont nous percevons la créativité et l’originalité ?

  2. #22
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 390
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 390
    Points : 4 209
    Points
    4 209
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Pour éviter d’être accusés de tricherie, de nombreux étudiants modifient leur style d’écriture pour qu’il soit moins créatif et plus conforme aux attentes des vérificateurs de texte IA. Cela peut inclure l’utilisation de phrases courtes, de structures de phrases simples et de vocabulaire limité. En conséquence, les étudiants risquent de perdre leur voix unique et leur créativité, se conformant à un modèle d’écriture plus robotique.
    Ce truc me fascine.
    Donc pour éviter d'être suspecté d'utiliser un système fort peu créatif les élèves brident leur propre créativité?
    Je comprends l'idée d'exploiter les mêmes mécaniques à chaque fois pour faire le moins d'effort sur une activité sur laquelle on risque d'être sanctionné. Mais l'uniformisation n'est elle pas un risque d'augmenter le risque de faux positif?
    A l'époque ma technique était plus simple : si je risquais la punition je ne faisais rien comme ça je n'avais que la punition (dire que certains avaient travaillé et devaient faire la punition...)
    Quoi qu'il en soit, le jeune voulait me montrer que lorsque le mot « devoid » (dépourvu, vide, sans) était utilisé, le vérificateur d'intelligence artificielle suggérait que l'essai était « rédigé à 18 % par l'intelligence artificielle ». La signification de ces 18 % n'est pas très claire. S'agit-il d'une « probabilité que cet essai ait été écrit par une IA » ou d'un « pourcentage de l'essai que nous pensons avoir été écrit par une IA » ? Mais, comme par magie, lorsque le mot « devoid » a été remplacé par « without » (sans), le score de l'IA est tombé à 0 %.
    Ok donc si on utilise un terme peu fréquent notre évaluation passe immédiatement de "c'est pas une IA" à "il y a une chance sur 5 que ça soit une IA"
    Je ne suis pas un défenseur radical de la recherche du terme exact mais sur certains sujets je peux être amené à faire cet effort.
    Je pense d'ailleurs que l'utilisation adéquate d'un terme particulièrement précis devrait être une preuve de non utilisation de l'IA (ou d'utilisation acceptable parce que la précision a été affinée).
    Cet exemple montre bien le manque de pertinence de ces outils.
    C'est à ce moment-là que nous avons commencé à chercher ce qui pouvait bien être à l'origine de ce score de 17 %. La cible immédiate était un vocabulaire plus avancé (le problème qui avait déjà été identifié avec « devoid »).
    L'essai utilisait le mot « delve » (plonger), qui est maintenant devenu une sorte de punchline car il apparaît dans tous les travaux générés par l'IA.
    Voila le problème des corrélations, elle fournit des indices mais en rien des preuves.
    Cependant ce que suggère leur expérience et qu'il y a des critères qui ont une portée limitée (vocabulaire soutenu <20%?) et qu'il faut multiplier les critères pour augmenter le score et que n'avoir qu'un gimmick limite le risque.
    Mais je vois bien un prof donner 80% de la note en cas d'une suspicion de 20% ce qui pose de gros problèmes.
    Pour résoudre ce problème, il est essentiel de repenser notre approche de l’évaluation des travaux écrits. Plutôt que de se fier uniquement aux vérificateurs de texte IA, les enseignants pourraient adopter une approche plus holistique, en tenant compte du processus de rédaction et en encourageant les étudiants à développer leur propre style. De plus, il est crucial de sensibiliser les étudiants aux limites des outils d’IA et de les encourager à utiliser ces technologies de manière éthique et responsable.
    Ce texte risque d'avoir été écrit par une IA à 19%
    Et je complèterait : De plus, il est crucial de sensibiliser les étudiants et les enseignants aux limites des outils d’IA et de les encourager à utiliser ces technologies de manière éthique et responsable.

    Pensez-vous que les vérificateurs de texte IA sont une solution efficace pour détecter la tricherie ? Pourquoi ou pourquoi pas ?
    Non.
    Mais la vraie réponse est qu'utiliser un IA n'est pas forcément tricher.
    Comment les enseignants peuvent-ils encourager la créativité des étudiants tout en maintenant l’intégrité académique ?
    En encourageant les écrits originaux/personnels etc.
    J'étais très mauvais en francais pourtant je me souviens clairement avoir fait une rédaction marquante juste après avoir vu American History X, par chance le sujet était lié à ce film (je ne me souviens plus de quelle façon).
    J'ai eu un bonus ce jour là, parce que mon texte a incité la prof à aller voir le film.
    Avez-vous déjà ressenti la pression de modifier votre style d’écriture pour éviter d’être accusé d’utiliser des outils d’IA ?
    Non mon style était inimitable à l'époque et se résumait facilement : "Un seul point, tout à la fin, mais BEAUCOUP de virgules"
    Quels sont les avantages et les inconvénients de l’utilisation des vérificateurs de texte IA dans l’éducation ?
    Il n'y a AUCUN avantage
    Comment les institutions éducatives peuvent-elles équilibrer l’utilisation de la technologie et la préservation de l’authenticité des travaux des étudiants ?
    En évoluant autant qu'elle veut que les étudiants évoluent.
    Quelles alternatives aux vérificateurs de texte IA pourraient être mises en place pour évaluer les travaux écrits des étudiants ?
    La bonne vielle méthode : lire, corriger, commenter etc.
    Pensez-vous que l’utilisation croissante des outils d’IA dans l’éducation pourrait changer la manière dont nous percevons la créativité et l’originalité ?
    Oui

  3. #23
    Membre régulier
    Profil pro
    Inscrit en
    Juillet 2008
    Messages
    15
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juillet 2008
    Messages : 15
    Points : 73
    Points
    73
    Par défaut L'arroseur arrosé en somme
    L'Ia pompe les textes sur le net en masse sans les comprendre et peut ou pas les réinjecter dans une réponse. Mais un étudiant qui lirait les mêmes textes lui n'aurait plus le droit d'utiliser le vocabulaire qu'il aurait acquis alors qu'il les (les textes) a compris. Le problème c'est l'utilisation de la machine par le professeur et le manque de connaissance de ses étudiants. De toute façon, quoi qu'il arrive, il y en a au moins un des deux - étudiant/prof - qui fait mal son boulot à cause d'un outil inapproprié. C'est sans solution.

  4. #24
    Membre expert
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    905
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 905
    Points : 3 881
    Points
    3 881
    Par défaut
    Citation Envoyé par cobalt3d Voir le message
    C'est sans solution.
    Partiels sur table en salle blindée + éducation à l' "IA."

  5. #25
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 092
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 092
    Points : 209 790
    Points
    209 790
    Par défaut Des parents poursuivent l'école qui a donné une mauvaise note à un lycéen qui a utilisé l'IA pour son devoir
    Des parents poursuivent l'école qui a donné une mauvaise note à un lycéen qui a utilisé l'IA pour faire son devoir,
    soutenant qu'elle ne disposait pas d'une politique claire concernant l'utilisation de l'IA, rendant la punition injustifiée

    Un couple de parents au Massachusetts a intenté une action en justice contre une école après que leur fils a été puni pour avoir utilisé des outils d'intelligence artificielle pour un projet. Le lycéen avait utilisé l'IA pour aider à la recherche pour un devoir d'histoire, mais pas pour rédiger le devoir lui-même. Les parents affirment que l'école a injustement accusé leur fils de triche et a infligé une punition qui pourrait nuire à ses chances d'admission à l'université de Stanford et dans d'autres écoles d'élite. Ils soutiennent que le manuel des étudiants de l'école ne précise pas une politique claire concernant l'utilisation de l'IA, rendant ainsi la punition injustifiée.

    Dans ce qui semble être la première affaire de ce type, du moins dans le Massachusetts, les parents d'un élève de la Hingham High School poursuivent les administrateurs de l'école et les enseignants de leur fils après qu'il a été sanctionné pour avoir utilisé l'intelligence artificielle dans le cadre d'un projet d'histoire.

    Lorsque l'utilisation de l'IA par l'élève a été découverte, il a été mis en retenue et sa note a été affectée, selon la famille.

    La plainte déposée devant le tribunal fédéral par Dale et Jennifer Harris indique que l'élève a subi une « notation arbitraire » et n'a pas été sélectionné pour la National Honor Society « en raison de cette prétendue violation de l'intégrité académique » (la National Honor Society est l'une des organisations étudiantes parascolaires les plus anciennes, les plus importantes et les plus reconnues dans les lycées américains, avec 1,4 million de membres).

    La plainte accuse l'école d'avoir manqué de clarté dans ses règles concernant l'utilisation de l'intelligence artificielle

    Selon la plainte, le manuel de l'école « n'a pas de règles, de politiques ou de procédures établies non seulement pour l'utilisation de l'intelligence artificielle, mais aussi pour ce que les administrateurs, les professeurs ou les étudiants doivent faire lorsqu'ils sont confrontés à cette utilisation ».

    Une copie du manuel de l'école indique que « l'utilisation non autorisée de la technologie, y compris l'intelligence artificielle » peut être considérée comme un acte de tricherie ou de plagiat, mais ne donne pas plus de détails sur la manière dont elle peut ou ne peut pas être utilisée. Le manuel définit le plagiat comme « l'utilisation non autorisée ou l'imitation proche du langage et des pensées d'un autre auteur, y compris l'intelligence artificielle, et la représentation de ces éléments comme son propre travail ».

    Un enseignant qui découvre des cas de tricherie doit « enregistrer une note insuffisante pour ce travail pour chaque élève impliqué » et informer les parents de l'élève, selon le manuel. L'enseignant doit également informer le directeur adjoint, « qui ajoutera l'information au dossier disciplinaire de l'élève » et « pourra prendre d'autres mesures s'il le juge nécessaire », précise le manuel.

    Jennifer Harris a exhorté l'école à clarifier ses règles concernant l'utilisation de l'IA.

    « J'aimerais également qu'ils mettent en place une politique en matière d'intelligence artificielle qui ait du sens, que les enseignants comprennent et qu'ils puissent ensuite expliquer aux élèves », a-t-elle déclaré.

    La plainte demande également aux administrateurs scolaires de « suivre une formation sur l'utilisation et la mise en œuvre de l'intelligence artificielle dans les classes, les écoles et l'environnement éducatif, dispensée par une tierce partie dûment qualifiée qui n'est pas employée par le district ».

    Nom : IA.png
Affichages : 6161
Taille : 41,4 Ko

    Les parents veulent que la note de l'élève soit relevée

    Les parents demandent au tribunal d'ordonner à l'école de relever la note de l'élève en sciences sociales à « B » et de supprimer de son dossier toute sanction scolaire liée à l'utilisation de l'IA. Ils ne veulent pas non plus que son utilisation de l'IA soit qualifiée de « tricherie » ou de « malhonnêteté académique ».

    « Les défendeurs ont poursuivi une politique omniprésente, destructrice et impitoyable de menaces, d'intimidation et de coercition afin d'influencer et de faire dérailler l'avenir [de notre fils] et son dossier exemplaire », affirme la famille Harris dans son action en justice, qui a d'abord été déposée auprès de la cour supérieure de l'État avant d'être renvoyée devant un tribunal fédéral de première instance.

    « Il postule à des établissements d'enseignement supérieur et à des universités d'élite, compte tenu de son haut niveau de réussite scolaire et personnelle », indique l'action en justice. « En l'absence d'une injonction de la part de cette Cour, le lycéen subira un préjudice irréparable et imminent ».

    « C'est un enfant dont je pense vraiment qu'il peut faire tout ce qu'il veut », a déclaré sa mère, Jenifer Harris. « Il étudie certaines des meilleures écoles du pays et son meilleur établissement, son premier choix, est Stanford ».

    Madame Harris est écrivaine et le père du garçon est enseignant. Dans l'un de ses cours de spécialisation, il a été associé à un autre étudiant. Ils devaient rédiger un article sur une personne célèbre et ses actions civiles. Lui et son partenaire ont choisi Kareem Abdul-Jabbar. Pendant le processus, ils ont utilisé l'IA pour prendre des notes et créer un plan, mais pas pour rédiger l'article lui-même.

    Il a été demandé à madame Harris si elle pensait qu'il s'agissait d'une tricherie. « Absolument pas. Tout d'abord, l'école n'avait pas encore de politique en la matière », explique-t-elle. « Je sais que mon fils s'est défendu auprès de l'école en disant que l'IA n'est pas de la triche et qu'il ne s'agit pas de plagiat. Il a dit que, si vous vérifiez, il est bien établi que l'IA est la propriété de la personne qui l'a générée », a déclaré monsieur Harris.


    En réponse, l'école a demandé aux deux lycéens de refaire le travail séparément et sur un autre sujet

    « Nous avons découvert dans les documents du tribunal qu'ils n'allaient jamais lui donner une note supérieure à 65, ce qui est étrange car l'autre élève a obtenu 75 sur son devoir », poursuit madame Harris.

    À la suite de cet incident, son fils n'a pas été en mesure de remplir les demandes d'inscription à l'université en raison de la nature non résolue de la situation. Cela l'a empêché de bénéficier d'une admission anticipée ou d'une admission par roulement dans les principales écoles.

    Toutefois, le NHS est revenu sur sa décision : « Nous avons déjà obtenu quelque chose, à savoir son intégration dans la National Honors Society », a déclaré l'avocat de la famille, Peter Farrell.

    Farrell a déclaré que l'organisation avait initialement refusé de l'admettre en raison de la situation de l'IA. Il a ajouté qu'une enquête avait montré que sept autres étudiants acceptés avaient fait l'objet de sanctions disciplinaires, notamment pour l'utilisation de l'IA. Depuis, l'organisation l'a autorisé à présenter une nouvelle demande.

    L'action en justice désigne comme défendeurs le directeur général, les administrateurs de l'école, les professeurs d'études sociales et le comité de l'école de Hingham. Un porte-parole des écoles publiques de Hingham a déclaré que le district ne ferait aucun commentaire sur le procès « pour respecter la vie privée de l'élève concerné et en raison d'un litige en cours ».

    Nom : hingam.png
Affichages : 2022
Taille : 498,4 Ko

    Arguments des parents

    Les avocats des parents ont souligné que l'intelligence artificielle représente une extension des outils technologiques déjà couramment acceptés dans l'éducation, comme les correcteurs grammaticaux ou les calculatrices avancées. Ils ont fait valoir que sanctionner l'utilisation de l'IA démontre une incompréhension de la part de l'établissement des avancées technologiques et de leur intégration bénéfique dans les pratiques éducatives modernes. En outre, les parents ont pointé du doigt l'absence de règlement clair au sein de l'école concernant l'usage des technologies d'IA, ce qui, selon eux, rend la sanction injustifiée.

    Position de l'école

    De son côté, l'administration de l'école affirme que leur manuel de l'étudiant interdit l'utilisation de « technologies non autorisées » et « l'utilisation non autorisée ou l'imitation proche du langage et des pensées d'un autre auteur et la représentation de ceux-ci comme son propre travail ».

    Les responsables de l'établissement insistent sur l'importance de promouvoir des compétences individuelles et d'encourager un apprentissage autonome sans recours excessif à des technologies automatisées. Selon eux, l'intégrité académique et les valeurs d'apprentissage doivent primer sur l'utilisation de l'IA, surtout dans un contexte où ces outils peuvent potentiellement dénaturer les efforts personnels des élèves.

    Dans une demande de rejet de cette affaire, ils ont estimé que la sanction administrée au fils des Harris était « relativement indulgente » et qu'une décision contraire « inviterait les parents et les élèves mécontents à contester la discipline quotidienne, voire le classement des élèves, devant les tribunaux de l'État et les tribunaux fédéraux ».

    Enjeux et réflexions

    Presque immédiatement après la publication de ChatGPT par OpenAI en 2022, les écoles ont reconnu la menace que les outils d'IA générative gratuits et facilement accessibles représentaient pour l'intégrité académique. Certains districts ont essayé d'interdire complètement la technologie aux élèves, puis ont fait marche arrière. Les ministères de l'éducation des États ont lentement mis en place des orientations pour les districts locaux, mais dans de nombreuses régions du pays, il n'y a pas de consensus clair sur la manière dont les étudiants devraient être autorisés à utiliser l'IA générative.

    Une enquête nationale menée par le Center for Democracy and Technology a révélé que les écoles sanctionnent de plus en plus les élèves qui utilisent l'IA et a noté que les élèves historiquement marginalisés, notamment les élèves de couleur et les apprenants de la langue anglaise, ont tendance à être sanctionnés de manière disproportionnée pour avoir enfreint les règles de l'école,

    Cette affaire pose des questions cruciales sur la manière dont le système éducatif doit s'adapter aux évolutions technologiques. Alors que certains voient dans l'IA une opportunité pour enrichir l'apprentissage et augmenter l'efficacité des études, d'autres craignent qu'elle ne remplace l'effort personnel et ne compromette l'intégrité académique. La question centrale est de savoir jusqu'où les établissements scolaires doivent aller pour encadrer l'utilisation de ces technologies tout en restant en phase avec les réalités contemporaines.

    Perspectives futures

    Il est probable que cette affaire poussera d'autres établissements scolaires à revoir leurs politiques concernant l'utilisation de l'IA et d'autres technologies avancées. Une approche équilibrée pourrait être de définir des directives claires sur l'utilisation de l'IA, en distinguant les situations où elle peut être utilisée comme un outil d'aide pédagogique et celles où elle pourrait constituer un abus. Les éducateurs devront également être formés pour comprendre les capacités et les limitations de ces technologies afin de mieux les intégrer dans les pratiques d'enseignement et d'évaluation.

    En conclusion, cette situation met en lumière l'importance d'une réflexion approfondie et d'un dialogue ouvert sur l'équilibre entre technologie et éducation. Les établissements scolaires, les élèves et les parents devront collaborer pour trouver des solutions qui permettent de tirer parti des avantages des nouvelles technologies tout en préservant les valeurs fondamentales de l'apprentissage.

    Sources : plainte des parents, demande de rejet, copie du manuel de l'école

    Et vous ?

    De quel côté penchez-vous ? De celui de l'établissement ou de celui des parents ? Pourquoi ?
    Que pensez-vous de la décision des parents de porter plainte ? La trouvez-vous excessive ou la comprenez-vous ?
    Selon vous, l'utilisation de l'intelligence artificielle dans l'éducation pourrait-elle améliorer ou détériorer la qualité de l'apprentissage ?
    Quels outils technologiques devraient être autorisés pour les devoirs scolaires ? Devrait-on considérer l'utilisation de l'IA comme une simple aide éducative ou une forme de triche ?
    L'IA devrait-elle être intégrée dans les méthodes d'enseignement dès le plus jeune âge ou réservée à un usage spécifique et limité ?
    Comment les établissements scolaires devraient-ils équilibrer l'utilisation de la technologie et le développement des compétences individuelles ?
    Quels seraient les avantages et les inconvénients de la mise en place de politiques claires concernant l'usage de l'IA dans les écoles ?
    Pensez-vous que l'usage de l'IA dans les devoirs scolaires pourrait préparer les élèves aux défis du futur marché du travail ou les en détourner ?

    Voir aussi :

    Le pourcentage d'étudiants utilisant ChatGPT pour rédiger leurs devoirs et d'enseignants pour les corriger a augmenté selon un rapport, une situation qui provoque plusieurs interrogations
    Les détecteurs d'IA obligent les étudiants à adopter un style d'écriture dépourvu d'originalité pour éviter d'être accusés de tricherie. L'essor de ces outils cause des problèmes inattendus
    99% des étudiants utilisent les IA génératives pour diminuer leur temps de travail, et 51% constatent qu'ils auraient du mal à se passer de ChatGPT, mais est-ce une bonne chose ?
    Les étudiants qui utilisent l'IA sont moins productifs et ont peu de chances de réussir à l'avenir car l'IA générative encourage la tricherie et rend paresseux et incompétent, selon une étude
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #26
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 714
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 714
    Points : 8 023
    Points
    8 023
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Des parents poursuivent l'école qui a donné une mauvaise note à un lycéen qui a utilisé l'IA pour faire son devoir,
    soutenant qu'elle ne disposait pas d'une politique claire concernant l'utilisation de l'IA, rendant la punition injustifiée
    Quel ramassis de débiles... Si l'école veut un devoir rédigé par IA, elle n'a pas besoin de le demander aux gamins. Non parce que sinon il va aussi falloir préciser que faire faire ses devoirs par quelqu'un d'autre ne fonctionne pas non-plus, parce que je suppose que ce n'est pas clairement indiqué dans la politique de l'école... Monde de débiles...

    Citation Envoyé par Stéphane le calme Voir le message
    Les parents affirment que l'école a injustement accusé leur fils de triche et a infligé une punition qui pourrait nuire à ses chances d'admission à l'université de Stanford et dans d'autres écoles d'élite. Ils soutiennent que le manuel des étudiants de l'école ne précise pas une politique claire concernant l'utilisation de l'IA, rendant ainsi la punition injustifiée.
    Non mais déjà ils peuvent oublier les écoles prestigieuses: si à son âge, le gamin n'arrive pas à faire ses devoirs tout seul, il n'est pas fait pour les études "prestigieuses"...
    Ensuite, dans ce cas là, autant enlever les mauvaises notes des autres gamins puisqu'elles les empêchent aussi de pouvoir entrer dans des écoles prestigieuses...

    Citation Envoyé par Stéphane le calme Voir le message
    « Il postule à des établissements d'enseignement supérieur et à des universités d'élite, compte tenu de son haut niveau de réussite scolaire et personnelle », indique l'action en justice. « En l'absence d'une injonction de la part de cette Cour, le lycéen subira un préjudice irréparable et imminent ».
    Et il apprendra peut-être une leçon. Lui supprimer sa note revient à lui dire: "triche autant que tu veux partout, et vas pleurer au tribunal quand tu te feras prendre".

    Citation Envoyé par Stéphane le calme Voir le message
    « C'est un enfant dont je pense vraiment qu'il peut faire tout ce qu'il veut », a déclaré sa mère, Jenifer Harris. « Il étudie certaines des meilleures écoles du pays et son meilleur établissement, son premier choix, est Stanford ».
    Ah ben oui, tiens. L'avis de sa propre mère est forcément un avis très objectif.
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  7. #27
    Membre émérite Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    610
    Détails du profil
    Informations personnelles :
    Âge : 33
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 610
    Points : 2 497
    Points
    2 497
    Par défaut
    Terrible les problèmes de bourges.

    « C'est un enfant dont je pense vraiment qu'il peut faire tout ce qu'il veut »

    Typiquement le genre de phrase et comportement de sa mère qui fera de ce garçon une raclure humaine.

    Bref. Un peu du mal à comprendre en quoi c'est une news en rapport avec l'informatique. Et plus déprimant qu'autre chose quand on se dit que ce genre de gamin finira très probablement par faire parti de cette fameuse "élite" dirigeante.
    Circuits intégrés mis à nu: https://twitter.com/TICS_Game

  8. #28
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    2 819
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 2 819
    Points : 5 638
    Points
    5 638
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    « C'est un enfant dont je pense vraiment qu'il peut faire tout ce qu'il veut », a déclaré sa mère, Jenifer Harris. « Il étudie certaines des meilleures écoles du pays et son meilleur établissement, son premier choix, est Stanford ».
    Très objectif de la part de maman.

    Pour paraphraser :
    Un jour mon fils, qui est bien au dessus de la moyenne et dont l'intelligence est bien supérieure à la votre et à celle de tout le corps enseignant réuni, sera président.
    Et vous tous, bande d'incultes et de sous merdes, devrez vous soumettre au décisions que Chat GPT lui aura soufflé.

  9. #29
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 796
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 796
    Points : 125 180
    Points
    125 180
    Par défaut Les détecteurs d'IA étiquettent mal les travaux des étudiants, donnant lieu à de fausses accusations
    Les détecteurs d'IA étiquettent mal les travaux des étudiants, ce qui donne lieu à de fausses accusations d'utilisation de l'intelligence artificielle pour soumettre des devoirs et des copies d'examen.

    Les détecteurs d'IA étiquettent mal les travaux des étudiants, selon un rapport de Bloomberg. Ces résultats confirment que les outils de détection de l'IA ne sont pas infaillibles et peuvent signaler à tort des contenus générés par des humains comme étant produits par l'IA. Cela présente également des risques potentiels pour les étudiants, qui peuvent être confrontés à de graves conséquences si leur travail est repéré par erreur par ces systèmes.

    Avec l’essor des outils d’intelligence artificielle comme ChatGPT, les enseignants et les institutions éducatives se retrouvent face à un défi inédit : comment distinguer les travaux écrits par des étudiants de ceux générés par des machines. Cette situation a conduit à l’utilisation croissante de vérificateurs de texte IA, mais ces outils posent des problèmes inattendus.

    Pour éviter d’être accusés de tricherie, de nombreux étudiants modifient leur style d’écriture pour qu’il soit moins créatif et plus conforme aux attentes des vérificateurs de texte IA. Cela peut inclure l’utilisation de phrases courtes, de structures de phrases simples et de vocabulaire limité. En conséquence, les étudiants risquent de perdre leur voix unique et leur créativité, se conformant à un modèle d’écriture plus robotique.

    Pourtant, de récents rapports confirment que les détecteurs d'IA "étiquettent mal les travaux des étudiants", ce qui donne lieu à de fausses accusations. Certains détecteurs d'IA accuseraient à tort des étudiants d'utiliser l'intelligence artificielle pour rendre des travaux et des copies d'examen. Selon des courriels consultés par Bloomberg Businessweek, une étudiante atteinte d'un trouble du spectre autistique a déclaré qu'elle avait tendance à écrire de manière formelle, ce qui a été interprété à tort comme étant généré par l'IA. Elle a donc reçu un avertissement écrit pour avoir prétendument plagié son travail.

    Nom : 1.jpg
Affichages : 3880
Taille : 35,7 Ko

    Bloomberg a effectué un test sur 500 demandes d'admission à l'université Texas A&M avant la publication de ChatGPT, en utilisant des services de détection d'IA tels que Copyleaks et GPTZero. Ces services ont signalé 1 à 2 % de ces demandes comme étant "probablement" rédigées par l'IA, et certaines ont été étiquetées avec une certitude de 100 %. La précision des détecteurs d'IA a été mise en doute, car bon nombre de ces applications ont été écrites par des humains et ne font partie d'aucun ensemble de données utilisé pour former des modèles de langage.

    Bien que l'échantillon testé soit petit, il met en évidence un problème plus large. Les outils de détection de l'IA ne sont pas infaillibles et peuvent signaler à tort des contenus générés par des humains comme étant produits par l'IA. Cela présente également des risques potentiels pour les étudiants, qui peuvent être confrontés à de graves conséquences si leur travail est repéré par erreur par ces systèmes.

    Par exemple, une étude réalisée en 2023 par l'université de Stanford a révélé que les détecteurs d'IA avaient identifié plus de la moitié des essais rédigés par des étudiants dont l'anglais n'était pas la langue maternelle comme étant générés par l'IA. Ethan Mollick, professeur de gestion à l'université de Pennsylvanie (Wharton), a critiqué ces outils sur le site X. Il a déclaré : "Il est moralement répréhensible d'utiliser des détecteurs d'IA lorsqu'ils produisent des faux positifs qui salissent les étudiants d'une manière qui leur fait du tort et pour laquelle ils ne peuvent jamais prouver leur innocence."

    Le rapport cite également le cofondateur de Copyleaks, qui a reconnu qu'aucun système de détection n'est précis à 100 % et qu'il devrait être utilisé pour repérer des tendances, et non des réponses définitives. Alon Yamin a ajouté : "Nous expliquons clairement aux institutions universitaires que rien n'est sûr à 100 % et que le système doit être utilisé pour identifier les tendances dans les travaux des étudiants. Il s'agit en quelque sorte d'un signal d'alarme qu'ils doivent examiner et utiliser pour discuter avec les étudiants."

    De même, le cofondateur de GPTZero, Edward Tian, a admis que les détecteurs d'IA ont des "angles morts", ajoutant que son entreprise a fait des progrès dans l'atténuation des résultats pour les étudiants d'anglais langue seconde en particulier. OpenAI a également déclaré récemment qu'elle s'était abstenue de publier un outil de détection de l'écriture par l'IA, craignant qu'il n'ait un impact disproportionné sur certains groupes, tels que les étudiants d'anglais langue seconde.

    Alon Yamin, PDG et cofondateur de Copyleaks, a commenté le rapport :

    Chez Copyleaks, nous comprenons l'impact profond que de fausses accusations peuvent avoir sur la carrière universitaire d'un étudiant, et nous assumons cette responsabilité avec le plus grand sérieux. Bien que notre détecteur d'IA soit précis à plus de 99 %, avec un taux de faux positifs de 0,6 %, le plus bas du marché, aucune technologie n'est parfaite, quel que soit le secteur d'activité. En fait, de nombreux autres services utilisés quotidiennement présentent des taux de faux positifs plus élevés, qu'il s'agisse de technologies pour les diagnostics médicaux, de produits pharmaceutiques, de modèles de notation de crédit ou de systèmes de navigation, et pourtant nous continuons à les utiliser et à leur faire confiance.

    Bien que le test de Bloomberg ait révélé un taux de faux positifs de 1 à 2 % dans la détection de textes générés par l'IA, il est important de noter qu'aucun outil de détection n'est infaillible, en particulier lorsqu'il s'agit de contenus antérieurs à ChatGPT. Nous améliorons continuellement notre précision grâce à l'apprentissage automatique. Néanmoins, quelle que soit la précision d'un outil, nous encouragerons toujours les éducateurs à utiliser ces outils comme un guide plutôt que comme un outil définitif de contrôle et de jugement. Notre objectif est de favoriser un dialogue ouvert entre les enseignants et les élèves lorsque l'utilisation potentielle de l'IA est signalée, offrant ainsi la possibilité de mieux comprendre le travail des élèves et les processus d'apprentissage. La détection de l'IA devrait être un outil de croissance, et non un obstacle, garantissant l'équité et la transparence du processus académique.
    La distinction entre le contenu créé par l’homme et celui généré par l’IA devient floue. Les détecteurs d’IA, conçus pour identifier les textes générés par l’IA, sont devenus des outils controversés. Des rédacteurs se retrouvent licenciés suite à des accusations erronées d’utilisation d’IA, soulevant des questions sur la fiabilité de ces technologies et leurs implications pour l’emploi.


    Source : Bloomberg Businessweek

    Et vous ?

    Pensez-vous que ce rapport est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Les détecteurs d'IA sont biaisés par rapport aux rédacteurs dont l'anglais n'est pas la langue maternelle. Leur fiabilité est remise en question : le contenu de ChatGPT n'est pas détecté

    Qui a utilisé ChatGPT, Claude, ou encore Bard pour ses créations ? Quelle est l'efficacité réelle des détecteurs de contenu IA ? Les réponses dans un sujet de recherche universitaire

    Écriture académique à l'ère de l'IA : progrès ou problème ? Les étudiants rédigent probablement des millions d'articles à l'aide de l'IA, selon une étude menée par Turnitin
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #30
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 092
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 092
    Points : 209 790
    Points
    209 790
    Par défaut Un tribunal affirme qu'une école n'a commis aucune faute en sanctionnant un élève pour utilisation de l'IA
    Un tribunal affirme qu'un établissement n'a commis aucune faute en sanctionnant un élève pour utilisation de l'IA,
    cette décision pourrait faire office de jurisprudence face aux plaintes des parents

    La récente décision d’un tribunal affirmant que l'école n’a commis aucune faute en sanctionnant un élève pour l’utilisation d’une intelligence artificielle (IA) soulève des questions cruciales sur l’éducation et l’évolution des technologies. Cet arrêt, qui fait désormais office de jurisprudence, met en lumière les défis auxquels sont confrontés les établissements scolaires dans un monde de plus en plus marqué par l’intégration des technologies avancées dans la vie quotidienne.

    Dans ce qui semble être la première affaire de ce type, du moins dans le Massachusetts, les parents d'un élève de la Hingham High School poursuivent les administrateurs de l'école et les enseignants de leur fils après qu'il a été sanctionné pour avoir utilisé l'intelligence artificielle dans le cadre d'un projet d'histoire.

    Lorsque l'utilisation de l'IA par l'élève a été découverte, il a été mis en retenue et sa note a été affectée, selon la famille.

    La plainte déposée devant le tribunal fédéral par Dale et Jennifer Harris indique que l'élève a subi une « notation arbitraire » et n'a pas été sélectionné pour la National Honor Society « en raison de cette prétendue violation de l'intégrité académique » (la National Honor Society est l'une des organisations étudiantes parascolaires les plus anciennes, les plus importantes et les plus reconnues dans les lycées américains, avec 1,4 million de membres).

    La plainte accuse l'école d'avoir manqué de clarté dans ses règles concernant l'utilisation de l'intelligence artificielle

    Selon la plainte, le manuel de l'école « n'a pas de règles, de politiques ou de procédures établies non seulement pour l'utilisation de l'intelligence artificielle, mais aussi pour ce que les administrateurs, les professeurs ou les étudiants doivent faire lorsqu'ils sont confrontés à cette utilisation ».

    Une copie du manuel de l'école indique que « l'utilisation non autorisée de la technologie, y compris l'intelligence artificielle » peut être considérée comme un acte de tricherie ou de plagiat, mais ne donne pas plus de détails sur la manière dont elle peut ou ne peut pas être utilisée. Le manuel définit le plagiat comme « l'utilisation non autorisée ou l'imitation proche du langage et des pensées d'un autre auteur, y compris l'intelligence artificielle, et la représentation de ces éléments comme son propre travail ».

    Un enseignant qui découvre des cas de tricherie doit « enregistrer une note insuffisante pour ce travail pour chaque élève impliqué » et informer les parents de l'élève, selon le manuel. L'enseignant doit également informer le directeur adjoint, « qui ajoutera l'information au dossier disciplinaire de l'élève » et « pourra prendre d'autres mesures s'il le juge nécessaire », précise le manuel.

    Jennifer Harris a exhorté l'école à clarifier ses règles concernant l'utilisation de l'IA.

    « J'aimerais également qu'ils mettent en place une politique en matière d'intelligence artificielle qui ait du sens, que les enseignants comprennent et qu'ils puissent ensuite expliquer aux élèves », a-t-elle déclaré.

    Les parents demandent au tribunal d'ordonner à l'école de relever la note de l'élève en sciences sociales à « B » et de supprimer de son dossier toute sanction scolaire liée à l'utilisation de l'IA. Ils ne veulent pas non plus que son utilisation de l'IA soit qualifiée de « tricherie » ou de « malhonnêteté académique ».


    La décision de justice

    Un tribunal fédéral a rendu une décision défavorable aux parents qui avaient poursuivi un district scolaire du Massachusetts pour avoir puni leur fils qui avait utilisé un outil d'intelligence artificielle pour réaliser un travail.

    Dale et Jennifer Harris ont poursuivi les responsables du lycée de Hingham et le comité scolaire et ont demandé une injonction préliminaire exigeant que l'école modifie la note de leur fils et efface l'incident de son dossier disciplinaire avant qu'il ne doive soumettre des demandes d'admission à l'université. Les parents ont fait valoir qu'il n'y avait pas de règle interdisant l'utilisation de l'IA dans le manuel de l'élève, mais les responsables de l'école ont déclaré que l'élève avait violé de nombreuses règles.

    La demande d'injonction des Harris a été rejetée dans une ordonnance rendue par le tribunal de district des États-Unis pour le district du Massachusetts. Le juge Paul Levenson a estimé que les responsables de l'école « ont le dessus sur les faits et sur la loi ».

    « En ce qui concerne les faits, il n'y a rien dans le dossier préliminaire qui suggère que les responsables de la HHS se sont empressés de conclure que RNH [le fils des Harris, désigné par ses initiales] avait triché », a écrit Levenson. « Les conséquences imposées par les défendeurs n'étaient pas non plus si lourdes qu'elles dépassaient le pouvoir discrétionnaire considérable des défendeurs en la matière ».

    « Sur la base des preuves dont dispose actuellement la Cour, je ne décèle aucun acte répréhensible de la part des défendeurs », a également écrit Levenson.

    Des étudiants ont copié et collé des « hallucinations » de l'IA

    L'incident s'est produit en décembre 2023, alors que RNH était en première année. L'école a déterminé que RNH et un autre élève « avaient triché dans le cadre d'un projet d'histoire des États-Unis en tentant de faire passer pour leur propre travail des éléments qu'ils avaient tirés d'une application d'intelligence artificielle générative (IA) », a écrit Levenson. « Bien que les étudiants soient autorisés à utiliser l'IA pour réfléchir à des sujets et identifier des sources, dans ce cas précis, les étudiants avaient copié et collé sans discernement du texte provenant de l'application d'IA, y compris des citations de livres inexistants (c'est-à-dire des hallucinations de l'IA) ».

    Ils ont reçu des notes insuffisantes pour deux parties du projet en plusieurs parties, mais « ont été autorisés à repartir de zéro, chacun travaillant séparément, pour achever et soumettre le projet final », précise l'ordonnance. RNH a fait l'objet d'une mesure disciplinaire comprenant une retenue du samedi. Il a également été exclu de la sélection pour la National Honor Society, mais il a finalement été autorisé à intégrer le groupe après que ses parents ont intenté un procès.

    Les responsables de l'école « soulignent que RNH s'est vu enseigner à plusieurs reprises les principes fondamentaux de l'intégrité académique, y compris la manière d'utiliser et de citer l'IA », a écrit Levenson. Le juge a reconnu que « les responsables de l'école pouvaient raisonnablement conclure que l'utilisation de l'IA par RNH constituait une violation des règles d'intégrité académique de l'école et que tout étudiant dans la situation de RNH l'aurait compris ».

    L'ordonnance de Levenson décrit comment les étudiants ont utilisé l'IA pour générer un scénario pour un film documentaire :

    Les preuves montrent que le couple n'a pas simplement utilisé l'IA pour l'aider à formuler des sujets de recherche ou à identifier des sources à examiner. Au contraire, il semble qu'ils aient copié et collé sans discernement du texte généré par Grammarly.com (« Grammarly »), un outil d'IA accessible au public, dans leur projet de script. De toute évidence, ils n'ont même pas examiné les « sources » fournies par Grammarly avant de les utiliser. La toute première note de bas de page de la soumission consiste en une citation d'un livre inexistant : « Lee, Robert. Hoop Dreams : A Century of Basketball. Los Angeles : Courtside Publications, 2018 ». La troisième note de bas de page semble également entièrement factice : « Doe, Jane. Muslim Pioneers : The Spiritual Journey of American Icons. Chicago : Windy City Publishers, 2017. » Fait significatif, même si le texte contient des citations de diverses sources - dont certaines sont réelles - il n'y a pas de citation de Grammarly, ni de reconnaissance de l'utilisation d'une IA quelconque.
    Nom : hingam.png
Affichages : 5320
Taille : 495,2 Ko

    Un outil de détection a signalé que le document était généré par l'IA

    Lorsque les élèves ont soumis leur texte à Turnitin.com, le site Web a signalé des parties du texte comme étant générées par l'IA. L'enseignante d'histoire des États-Unis a procédé à un examen plus approfondi et a découvert que de grandes parties du texte avaient été copiées et collées. Elle a également trouvé d'autres détails accablants.

    Susan Petrie, professeur d'histoire, « a déclaré que l'historique des révisions montrait que RNH n'avait passé qu'environ 52 minutes sur le document, alors que d'autres étudiants y avaient consacré entre sept et neuf heures ». Petrie a également fait passer le document par 'Draft Back' et 'Chat Zero', deux autres outils de détection de l'IA, qui ont également indiqué que l'IA avait été utilisée pour générer le document », indique l'ordonnance.

    Les responsables de l'école ont fait valoir que « l'affaire n'impliquait pas de questions subtiles sur les pratiques acceptables dans le déploiement d'une nouvelle technologie, mais qu'il s'agissait plutôt d'un simple cas de malhonnêteté académique », a écrit Levenson. L'ordonnance du juge magistrat indique « qu'il est douteux que la Cour ait un rôle à jouer dans la remise en question » de la décision de l'école, et que les plaignants de RNH n'ont pas démontré de mauvaise conduite de la part des autorités de l'école.

    Les autres demandes des parents sont rejetées

    Les Harris affirment également que les responsables de l'école se sont livrés à un « schéma généralisé de menaces, d'intimidation, de coercition, d'intimidation, de harcèlement et d'intimidation de représailles ». Mais Levenson a conclu que « les plaignants fournissent peu d'allégations factuelles dans ce sens ».

    Bien que l'affaire ne soit pas terminée, le rejet de l'injonction préliminaire montre que Levenson pense que les défendeurs ont des chances de gagner. « La manière dont RNH a utilisé Grammarly - copier et coller en gros le langage directement dans le projet de script qu'il a soumis - soutient puissamment la conclusion des défendeurs selon laquelle RNH savait qu'il utilisait l'IA d'une manière inadmissible », a écrit Levenson.

    Bien que « l'émergence de l'IA générative puisse présenter des défis nuancés pour les éducateurs, la question ici n'est pas particulièrement nuancée, car il n'y a pas d'objectif pédagogique discernable dans le fait de demander à Grammarly (ou à tout autre outil d'IA) de générer un script, de régurgiter le résultat sans le citer et de le revendiquer comme son propre travail », a déclaré l'ordonnance.

    Levenson n'a pas validé l'affirmation des parents selon laquelle le droit constitutionnel de RNH à une procédure régulière avait été violé. Les défendeurs « ont pris de multiples mesures pour confirmer que RNH avait effectivement utilisé l'IA pour réaliser le devoir » avant d'imposer une punition, a-t-il écrit. La discipline imposée « n'a pas privé RNH de son droit à l'éducation publique », et donc « toute demande d'application de la loi fondée sur le droit de RNH à l'éducation publique doit être rejetée ».

    Levenson a conclu en citant un arrêt de la Cour suprême de 1988 selon lequel l'éducation des jeunes « relève principalement de la responsabilité des parents, des enseignants et des responsables scolaires locaux et nationaux, et non de celle des juges fédéraux ». Selon Levenson, « cette affaire illustre bien le bon sens de cette division du travail. L'intérêt public pèse ici en faveur des défendeurs ».

    Source : décision de justice

    Et vous ?

    Que pensez-vous de la décision de la Cour ?

    Les établissements scolaires sont-ils suffisamment préparés pour encadrer l’utilisation de l’IA par les élèves ?

    L’utilisation d’un outil d’IA comme support peut-elle être comparée au recours à un dictionnaire ou à une encyclopédie en ligne ?

    Où devrait-on tracer la frontière entre l’assistance et la tricherie lorsqu’il s’agit d’intelligence artificielle ?
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  11. #31
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 003
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 003
    Points : 17 818
    Points
    17 818
    Par défaut Les outils de détections de texte généré par l'IA accusent à tort des étudiants innocents de tricherie
    Les outils pilotés par l'IA et les outils de détection de la tricherie nuisent-ils aux étudiants ? Des étudiants innocents sont accusés à tort de tricherie et leur réussite scolaire est menacée

    L'essor de l'IA générative est en train de bouleverser le monde universitaire. Les outils de détection de contenu généré par l'IA s'avèrent un véritable problème : leur imprécision et le taux élevé de faux positifs nuisent aux étudiants. De nombreux étudiants rapportent que leurs professeurs les avaient accusés à tort d'avoir utilisé l'IA pour rédiger leurs devoirs de dissertation. Ils dénoncent le manque de fiabilité criant des outils de détection de la tricherie et l'impact négatif que cela peut avoir sur la réussite scolaire. Les systèmes d'IA deviennent un cauchemar pour les enseignants et certains appellent à l'interdiction de ces outils en milieu scolaire.

    L'IA : une sorte de fée marraine pour les dissertations de dernière minute

    Selon une étude du Higher Education Policy Institute (HEPI), plus de la moitié des étudiants utilisent aujourd'hui l'IA générative dans le cadre de leurs devoirs et environ 5 % admettent l'utiliser pour tricher. Le Times Higher Education a rapporté récemment qu'en dépit d'une tenue de registres inégale, les cas semblaient monter en flèche dans les universités du groupe Russell, certaines d'entre elles ayant signalé une multiplication par quinze des cas de tricherie.


    Mais la confusion sur la manière dont ces outils doivent être utilisés, si tant est qu'ils doivent l'être, a semé la suspicion dans des institutions conçues pour être fondées sur la confiance. Certains pensent que l'IA va révolutionner la façon dont les gens apprennent, comme un tuteur personnel 24/7. Pour d'autres, en revanche, l'IA est une menace existentielle pour l'ensemble du système d'apprentissage qui risque de démolir le processus de recherche académique.

    Afin de remettre le génie dans la bouteille, les universités cherchent désespérément des outils pouvant les aider à détecter la tricherie, allant même jusqu'à recourir à l'IA pour tenter d'enrayer les comportements répréhensibles. Les tuteurs se retournent contre les étudiants, les étudiants entre eux et les apprenants qui travaillent dur sont pris sous le feu des critiques. Nombreux sont ceux qui se sentent pessimistes quant à l'avenir de l'enseignement supérieur.

    De nombreuses études ont révélé que les détecteurs de texte généré par l'IA ne sont pas aussi précis que certains le prétendent. Une autre étude réalisée par des chercheurs de l'université du Maryland indique que les outils de détection les plus performants ne peuvent pas détecter de manière fiable les sorties des modèles d'IA de génération de texte dans des scénarios pratiques. Ils affirment que cela pourrait être dangereux pour Internet à l'avenir.

    Les systèmes de détection accusent à tort les apprenants de tricherie

    De plus en plus de rapports soulignent le ras-le-bol des étudiants accusés à tort d'avoir utilisé l'IA pour rédiger leurs devoirs de dissertation ou d'essai. Un jeune homme de 19 ans accusé à tort d'avoir utilisé l'IA a déclaré que « le fait d'être accusé d'avoir utilisé l'IA à cause de "phrases indicatives", telles que "en plus de" et "par opposition à", était très humiliant ». Il a déclaré avoir été « profondément bouleversé » par cette accusation et les impacts potentiels.

    « J'ai eu l'impression de recevoir une gifle après avoir travaillé dur pendant toute la durée du module, à cause d'un essai mal écrit. J'avais beaucoup étudié et j'étais généralement un bon élève, une mauvaise dissertation signifiait-elle soudain que j'avais utilisé l'IA ? », a-t-il déclaré. Un autre étudiant a raconté qu'il avait été convoqué à une audition pour « mauvaise conduite », malgré un faible score sur l'outil de détection créé par le service antiplagiat Turnitin.

    Pendant de nombreuses années, le principal outil de l'arsenal anti-triche des universités a été un logiciel, tel que Turnitin, qui analyse les soumissions à la recherche de signes de plagiat. En 2023, Turnitin a lancé un nouvel outil de détection de texte généré par l'IA qui évalue la proportion du texte susceptible d'avoir été rédigée par l'IA. Cet outil a semblé être une solution miracle dans le cadre de la lutte contre l'augmentation du nombre de travaux rédigés par l'IA.

    Depuis lors, Turnitin a traité plus de 130 millions de devoirs et affirme en avoir repéré 3,5 millions comme étant rédigés à 80 % par l'IA. Toutefois, son outil n'est pas fiable à 100 % ; des cas de faux positifs ont été largement signalés et certaines universités ont même décidé de se retirer du système.

    Selon Turnitin, le taux d'erreur est inférieur à 1 %, mais compte tenu de la taille de la population étudiante, il n'est pas étonnant que de nombreuses personnes se soient retrouvées dans la ligne de mire. Il existe des preuves qui suggèrent que les outils de détection de l'IA désavantagent certains groupes démographiques.

    Les détecteurs de contenu généré par l'IA comportent de nombreux biais

    Une étude menée à Stanford a révélé qu'un certain nombre de détecteurs avaient un parti pris pour les non-anglophones, signalant leur travail 61 % du temps, contre 5 % pour les anglophones natifs (Turnitin n'a pas été pris en compte). En novembre 2024, Bloomberg Businessweek a rapporté le cas d'une étudiante atteinte d'un trouble du spectre autistique dont le travail avait été faussement signalé par un outil de détection comme ayant été rédigé par l'IA.

    L'étudiante en question a décrit cette accusation de tricherie comme un « coup de poing dans le ventre ». Les élèves neurodivergents, ainsi que ceux qui écrivent en utilisant un langage et une syntaxe plus simples, semblent être affectés de manière disproportionnée par ces systèmes. Mike Perkins, chercheur en IA générative à l'université britannique du Vietnam, note que les outils de détection du texte généré par l'IA présentent des « limites importantes ».

    « Toutes les recherches montrent à maintes reprises que ces outils ne sont pas fiables. Et ils sont très faciles à tromper. Sa propre enquête a révélé que les détecteurs de texte généré par l'IA pouvaient détecter les textes générés par l'IA avec une précision d'environ 39,5 %. En appliquant des techniques de contournement simples, telles que des manipulations mineures du texte, la précision tombait à 22,1 % seulement. Et la manipulation peut être répétée.

    Ceux qui décident de tricher ne se contentent pas de couper et de coller le texte de ChatGPT, ils le modifient ou le transforment en leur propre travail. Il existe également des « humaniseurs » d'IA, tels que CopyGenius et StealthGPT, ce dernier se vantant de pouvoir produire un contenu indétectable et affirmant avoir aidé un demi-million d'étudiants à produire près de 5 millions de devoirs. De nombreux outils de ce type sont apparus ces dernières années.

    « Les seuls étudiants qui ne le font pas ont vraiment du mal, ou ne veulent pas ou ne peuvent pas payer pour les outils d'IA les plus avancés, comme GPT-4 ou Gemini 1.5. En fin de compte, ce sont les étudiants qui risquent le plus de voir leur carrière universitaire compromise », explique Mike Perkins.

    Le monde universitaire chamboulé par le débat intense sur l'IA générative

    De nombreux universitaires semblent croire qu'il est toujours possible de savoir si un travail a été rédigé par une IA, qu'ils peuvent repérer les traits stylistiques associés à ces outils. Mais les preuves s'accumulent pour suggérer qu'ils surestiment peut-être leurs capacités. Des chercheurs de l'université de Reading ont récemment mené un test en aveugle dans lequel des réponses rédigées par ChatGPT ont été soumises via le système d'examen de l'université.

    Environ 94 % des réponses de l'IA n'ont pas été détectées et ont reçu des notes plus élevées que celles soumises par les humains. De plus, les étudiants se retournent également les uns contre les autres. Lors des travaux de groupes, les étudiants s'accusent parfois mutuellement d'avoir utilisé l'IA pour réaliser leurs tâches. Dans un cas rapporté par The Guardian, un étudiant accusant son camarade d'avoir utilisé l'IA pour faire son exercice d'anglais a expliqué :

    « Cet étudiant avait quelques difficultés en anglais, et ce n'est pas de sa faute, mais le rapport était honnêtement le meilleur que j'aie jamais vu ». Il a raconté avoir soumis le travail à quelques outils de détection qui ont confirmé ses soupçons, et il en a poliment parlé à l'étudiant. Ce dernier a bien entendu nié les faits. Il a ajouté qu'il ne pouvait pas faire grand-chose de plus. Cela dit, il s'est assuré de « collecter des preuves » de leurs différentes conversations.

    « Ainsi, si notre travail est signalé, je pourrai dire que j'ai vérifié. Je connais des gens qui ont passé des heures à travailler sur ce sujet et il suffit d'un seul pour tout gâcher », a-t-il conclu. Il a précisé qu'il ne s'oppose pas à l'IA générative, mais la tricherie académique qu'elle a occasionnée l'a découragé. « J'y suis devenu insensible. La moitié des étudiants de ma classe présentent des exposés qui ne sont manifestement pas le fruit de leur travail », dit-il.

    « Si je devais réagir à chaque cas d'utilisation de l'IA, je deviendrais fou à ce stade », a-t-il ajouté. En fin de compte, cet apprenant pense que les étudiants ne trompent qu'eux-mêmes, mais il se demande parfois comment cette érosion de l'intégrité affectera sa propre vie universitaire et professionnelle à l'avenir. « Que se passera-t-il si j'obtiens une maîtrise, ou si j'occupe un emploi, et que tout le monde y est arrivé en trichant ? », se demande-t-il.

    Comment les responsables de l'enseignement peuvent-ils faire face à cette évolution ?

    Certaines universités adaptent leur approche de l'évaluation en élaborant des politiques positives à l'égard de l'IA. À l'université de Cambridge, l'utilisation appropriée de l'IA générative comprend une « vue d'ensemble des nouveaux concepts », un « accompagnement collaboratif » ou une « aide à la gestion du temps ».

    L'université met en garde contre une dépendance excessive à l'égard des outils d'IA, qui pourrait limiter la capacité des étudiants à développer leur esprit critique. Certains enseignants avec ont déclaré que ce type d'approche est utile, mais d'autres ont estimé qu'il s'agit d'une capitulation. Ces derniers estiment qu'il faut passer à d'autres formes d'enseignement et d'évaluation, ce qui rendrait plus difficile pour les étudiants d'utiliser l'IA pour faire le gros du travail.

    Face à la tricherie, les professeurs d'université optent pour des devoirs résistants à ChatGPT, comme les examens oraux ou sur papier en présentiel. Selon des témoignages de professeurs d’université, les étudiants confient de plus en plus à ChatGPT la rédaction de leurs devoirs à la maison. « Le monde universitaire n’a pas anticipé cela. Nous sommes donc démunis », explique Darren Hudson Hick, professeur adjoint de philosophie à l’université Furman.

    La crise de l'IA a révélé à quel point le processus d'obtention d'un diplôme est devenu transactionnel. L'enseignement supérieur est de plus en plus commercialisé ; les universités sont à court d'argent et recherchent des clients au détriment de la qualité de l'enseignement. Les étudiants, quant à eux, subissent eux-mêmes des pressions financières et sont douloureusement conscients que les carrières sûres pour les diplômés sont de plus en plus rares.

    Tout comme l'essor des usines à dissertation a coïncidé avec l'expansion rapide de l'enseignement supérieur dans les années 2000, ChatGPT a frappé à un moment où un diplôme semble plus dévalorisé que jamais. Les responsables de l'enseignement cherchent comment adapter le secteur à l'ère de l'IA générative.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des bouleversements induits par l'IA générative dans le secteur de l'enseignement ?
    Les outils de détection de texte généré par l'IA finissent par nuire aux étudiants innocents. Qu'en pensez-vous ?
    Les outils de détection de texte généré par l'IA sont-il la solution contre la tricherie ? Peuvent-ils s'améliorer ?
    Comment le secteur de l'enseignement peut-il s'adapter à l'ère de l'IA générative ? Quels sont les défis potentiels ?

    Voir aussi

    Face à la tricherie par l'IA, les professeurs d'université optent pour des devoirs résistants à ChatGPT et reviennent aux examens papier

    Le service antiplagiat Turnitin affirme avoir mis au point un outil pour détecter les rédactions écrites par ChatGPT, mais les critiques sont sceptiques quant à l'efficacité du système

    Les détecteurs de texte généré par l'IA ne sont pas aussi précis que certains le prétendent, selon une évaluation de la robustesse des détecteurs sur le benchmark partagé RAID

Discussions similaires

  1. Réponses: 5
    Dernier message: 04/09/2022, 04h14
  2. Réponses: 18
    Dernier message: 12/10/2021, 22h36
  3. [VB]Retouver les clés des items d'une Collection, c'est possible ?
    Par marchand_de_sable dans le forum VBA Access
    Réponses: 11
    Dernier message: 19/12/2016, 17h44
  4. Application web pour les réseaux sociaux des étudiants universitaires
    Par zakii2plus dans le forum Général Conception Web
    Réponses: 0
    Dernier message: 21/02/2014, 10h24
  5. Réponses: 3
    Dernier message: 25/10/2013, 17h39

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo