IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Un tribunal affirme qu'une école n'a commis aucune faute en sanctionnant un élève pour utilisation de l'IA


Sujet :

Intelligence artificielle

  1. #21
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 019
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 019
    Points : 208 547
    Points
    208 547
    Par défaut L’impact des vérificateurs de texte IA sur la créativité des étudiants
    Les détecteurs d'IA obligent les étudiants à adopter un style d'écriture dépourvu d'originalité pour éviter d'être accusés de tricherie,
    l'essor de ces outils cause des problèmes inattendus

    Avec l’essor des outils d’intelligence artificielle comme ChatGPT, les enseignants et les institutions éducatives se retrouvent face à un défi inédit : comment distinguer les travaux écrits par des étudiants de ceux générés par des machines. Cette situation a conduit à l’utilisation croissante de vérificateurs de texte IA, mais ces outils posent des problèmes inattendus.

    La peur des étudiants d'utiliser l'IA générative et la montée en puissance d'outils douteux de « vérification » de l'IA peuvent-elles créer une culture dépourvue de créativité ? C'est un sujet qui, curieusement, mérite d'être approfondi.

    En début d'année, des articles ont émergé dans la presse parlant du projet de loi californien SB 942. Ce projet de loi obligerait les entreprises spécialisées dans l'IA à proposer gratuitement un outil de détection de l'IA, en dépit du fait que ces outils sont notoirement peu fiables et sujets à des absurdités. Comme indiqué dans la presse, le projet de loi adopte une approche « plus difficile pour les nerds » pour réglementer une technologie que ses partisans ne comprennent pas.

    Le projet de loi SB 942 a continué à progresser et vient d'être adopté par l'Assemblée de Californie. Il est maintenant sur le bureau du gouverneur Newsom, qui pourrait le signer.

    L’essor des vérificateurs de texte IA et les conséquences sur l’écriture des étudiants

    Les vérificateurs de texte IA sont conçus pour détecter les contenus générés par des machines. Cependant, leur efficacité est souvent remise en question. Selon une étude récente, ces outils peuvent facilement être trompés et ont tendance à produire des faux positifs, accusant à tort des étudiants d’avoir utilisé des IA. Cette situation crée une pression sur les étudiants pour qu’ils écrivent de manière plus mécanique et prévisible, afin de ne pas être suspectés d’utiliser des outils d’IA.

    Pour éviter d’être accusés de tricherie, de nombreux étudiants modifient leur style d’écriture pour qu’il soit moins créatif et plus conforme aux attentes des vérificateurs de texte IA. Cela peut inclure l’utilisation de phrases courtes, de structures de phrases simples et de vocabulaire limité. En conséquence, les étudiants risquent de perdre leur voix unique et leur créativité, se conformant à un modèle d’écriture plus robotique.


    Le cas d'un parent

    Ci-dessous les remarques d'un parent.

    L'un de mes enfants avait un devoir d'anglais. Il devait lire la célèbre nouvelle de Kurt Vonnegut, Harrison Bergeron, et rédiger un court essai à son sujet. Comme j'écris beaucoup, mon enfant m'a demandé de relire son essai et de lui donner des conseils. J'ai fait quelques suggestions générales sur la manière d'améliorer la fluidité du texte, car il ressemblait beaucoup à un premier jet standard : un peu guindé. Mon fils est parti travailler sur une réécriture.

    Si vous ne connaissez pas l'histoire de Harrison Bergeron, il s'agit d'une société qui cherche à imposer « l’égalité » en imposant des « handicaps » à tous ceux qui excellent dans quelque domaine que ce soit, afin de les ramener au plus petit dénominateur commun (par exemple, des masques laids pour les jolies personnes, l'obligation de porter des poids supplémentaires pour les personnes fortes). L'une des morales de cette histoire porte sur les dangers qu'il y a à vouloir imposer l'égalité d'une manière qui limite l'excellence et la créativité.

    Plus tard dans la journée, le jeune est venu avec son Chromebook fourni par l'école, sur lequel Grammarly Pro est préinstallé. Les élèves sont encouragés à l'utiliser pour améliorer leur écriture. L'outil dispose notamment d'un « AI Checker » qui tente de déterminer si le texte soumis a été écrit par une IA.

    Cet outil est similaire aux « vérificateurs de plagiat » qui existent depuis quelques décennies. En fait, le « contrôle » de Grammarly couvre à la fois l'IA et le plagiat (c'est du moins ce qu'il dit). Ces systèmes ont toujours eu des problèmes, notamment en ce qui concerne les faux positifs. Et il semble que les vérificateurs d'IA soient (sans surprise) pires.

    Nom : grammar.png
Affichages : 164707
Taille : 297,6 Ko

    Il s'avère que Grammarly n'a introduit cette fonctionnalité qu'il y a quelques semaines. Heureusement, l'annonce de Grammarly indique très clairement que la détection de l'IA est assez incertaine :

    Les détecteurs d'IA sont une technologie émergente et inexacte. Lorsqu'un détecteur d'IA affirme avec certitude que le contenu analysé contient de l'IA, il n'agit pas de manière responsable. Aucun détecteur d'IA ne peut déterminer avec certitude si l'IA a été utilisée pour produire un texte. La précision de ces outils peut varier en fonction des algorithmes utilisés et du texte analysé.
    Quoi qu'il en soit, le jeune voulait me montrer que lorsque le mot « devoid » (dépourvu, vide, sans) était utilisé, le vérificateur d'intelligence artificielle suggérait que l'essai était « rédigé à 18 % par l'intelligence artificielle ». La signification de ces 18 % n'est pas très claire. S'agit-il d'une « probabilité que cet essai ait été écrit par une IA » ou d'un « pourcentage de l'essai que nous pensons avoir été écrit par une IA » ? Mais, comme par magie, lorsque le mot « devoid » a été remplacé par « without » (sans), le score de l'IA est tombé à 0 %.

    Dans son communiqué, Grammarly affirme qu'en raison de la fragilité de ces outils, il « fait les choses différemment » des autres outils de vérification de l'IA. Il affirme notamment que son propre outil est plus transparent :

    La détection de l'IA de Grammarly montre aux utilisateurs quelle partie de leur texte, le cas échéant, semble avoir été générée par l'IA, et nous fournissons des conseils sur l'interprétation des résultats. Ce pourcentage ne répond pas forcément à la question de savoir « pourquoi » le texte a été signalé. Toutefois, il permet au rédacteur d'attribuer les sources de manière appropriée, de réécrire le contenu et d'atténuer le risque d'être accusé à tort de plagiat par l'IA. Cette approche est similaire à nos capacités de détection du plagiat, qui aident les rédacteurs à identifier et à réviser les plagiats potentiels, garantissant ainsi l'originalité et l'authenticité de leur travail.
    Je peux vous dire que ce n'est pas vrai. Après que le jeune a continué à travailler sur son essai et a atteint un point où il pensait qu'il était en bonne forme, le vérificateur d'IA a indiqué qu'il était composé à 17 % d'IA, mais n'a donné aucune indication sur ce qui pourrait être généré par l'IA ou sur la raison de ce choix.

    Pour être clair, la dissertation peut toujours être rendue. Rien n'indique que l'enseignant s'appuie sur le vérificateur d'IA, ni même qu'il l'utilise. Lorsque j'ai mentionné tout cela sur Bluesky, d'autres enseignants m'ont dit qu'ils savaient qu'il fallait ignorer tout score inférieur à 60 %, car il s'agissait probablement d'un faux positif. Mais mon enfant est raisonnablement troublé par le fait que si le vérificateur d'IA suggère que la dissertation semble avoir été écrite par une IA, cela pourrait signifier qu'il y a un problème avec la dissertation.

    C'est à ce moment-là que nous avons commencé à chercher ce qui pouvait bien être à l'origine de ce score de 17 %. La cible immédiate était un vocabulaire plus avancé (le problème qui avait déjà été identifié avec « devoid »).

    L'essai utilisait le mot « delve » (plonger), qui est maintenant devenu une sorte de punchline car il apparaît dans tous les travaux générés par l'IA.

    Un cercle vicieux

    Cette situation crée un cercle vicieux où les étudiants, pour éviter d’être accusés d’utiliser des IA, adoptent un style d’écriture qui ressemble de plus en plus à celui généré par des machines. Les vérificateurs de texte IA, en réponse, deviennent de plus en plus stricts, poussant les étudiants à se conformer encore davantage. Ce phénomène soulève des questions sur l’impact de la technologie sur l’éducation et sur la manière dont nous évaluons les compétences des étudiants.

    Il faut dire que les outils de détection eux-mêmes présentent un risque de biais

    Une étude réalisée en 2023 a révélé un taux de faux positifs de 61,3 % lors de l'évaluation des examens du Test of English as a Foreign Language (TOEFL) à l'aide de sept détecteurs d'intelligence artificielle différents. La société affirme qu'elle a entraîné son détecteur sur des textes rédigés par des apprenants d'anglais et par des anglophones de naissance.

    Dans notre étude, nous avons évalué les performances de sept détecteurs GPT largement utilisés sur 91 essais TOEFL (Test of English as a Foreign Language) provenant d'un forum chinois et 88 essais d'élèves américains de quatrième (eight-grade) provenant de l'ensemble de données ASAP de la Fondation Hewlett. Alors que les détecteurs ont correctement classé les essais des étudiants américains, ils ont incorrectement étiqueté plus de la moitié des essais du TOEFL comme étant « générés par l'IA » (taux moyen de faux positifs : 61,3 %).

    Tous les détecteurs ont unanimement identifié 19,8 % des essais du TOEFL écrits par des humains comme étant rédigés par des IA, et au moins un détecteur a signalé 97,8 % des essais du TOEFL comme étant générés par des IA. En y regardant de plus près, les essais TOEFL identifiés à l'unanimité présentaient une perplexité de texte significativement plus faible. La perplexité du texte est une mesure de la « surprise » ou de la « confusion » d'un modèle de langage génératif lorsqu'il tente de deviner le mot suivant dans une phrase. Si un modèle de langage génératif peut prédire facilement le mot suivant, la perplexité du texte est faible. En revanche, si le mot suivant est difficile à prédire, la perplexité du texte est élevée. La plupart des détecteurs GPT utilisent la perplexité du texte pour détecter les textes générés par l'IA, ce qui risque de pénaliser par inadvertance les auteurs non natifs qui utilisent une gamme plus limitée d'expressions linguistiques.
    Nom : mis.png
Affichages : 25319
Taille : 16,4 Ko

    Vers une solution

    Pour résoudre ce problème, il est essentiel de repenser notre approche de l’évaluation des travaux écrits. Plutôt que de se fier uniquement aux vérificateurs de texte IA, les enseignants pourraient adopter une approche plus holistique, en tenant compte du processus de rédaction et en encourageant les étudiants à développer leur propre style. De plus, il est crucial de sensibiliser les étudiants aux limites des outils d’IA et de les encourager à utiliser ces technologies de manière éthique et responsable.

    En fin de compte, l’objectif devrait être de préserver la créativité et l’authenticité des étudiants tout en garantissant l’intégrité académique. Cela nécessite une collaboration entre les éducateurs, les développeurs de technologies et les étudiants pour créer un environnement d’apprentissage équilibré et équitable.

    Sources : SB-942 California AI Transparency Act, Grammarly

    Et vous ?

    Pensez-vous que les vérificateurs de texte IA sont une solution efficace pour détecter la tricherie ? Pourquoi ou pourquoi pas ?
    Comment les enseignants peuvent-ils encourager la créativité des étudiants tout en maintenant l’intégrité académique ?
    Avez-vous déjà ressenti la pression de modifier votre style d’écriture pour éviter d’être accusé d’utiliser des outils d’IA ?
    Quels sont les avantages et les inconvénients de l’utilisation des vérificateurs de texte IA dans l’éducation ?
    Comment les institutions éducatives peuvent-elles équilibrer l’utilisation de la technologie et la préservation de l’authenticité des travaux des étudiants ?
    Quelles alternatives aux vérificateurs de texte IA pourraient être mises en place pour évaluer les travaux écrits des étudiants ?
    Pensez-vous que l’utilisation croissante des outils d’IA dans l’éducation pourrait changer la manière dont nous percevons la créativité et l’originalité ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #22
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 370
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 370
    Points : 4 143
    Points
    4 143
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Pour éviter d’être accusés de tricherie, de nombreux étudiants modifient leur style d’écriture pour qu’il soit moins créatif et plus conforme aux attentes des vérificateurs de texte IA. Cela peut inclure l’utilisation de phrases courtes, de structures de phrases simples et de vocabulaire limité. En conséquence, les étudiants risquent de perdre leur voix unique et leur créativité, se conformant à un modèle d’écriture plus robotique.
    Ce truc me fascine.
    Donc pour éviter d'être suspecté d'utiliser un système fort peu créatif les élèves brident leur propre créativité?
    Je comprends l'idée d'exploiter les mêmes mécaniques à chaque fois pour faire le moins d'effort sur une activité sur laquelle on risque d'être sanctionné. Mais l'uniformisation n'est elle pas un risque d'augmenter le risque de faux positif?
    A l'époque ma technique était plus simple : si je risquais la punition je ne faisais rien comme ça je n'avais que la punition (dire que certains avaient travaillé et devaient faire la punition...)
    Quoi qu'il en soit, le jeune voulait me montrer que lorsque le mot « devoid » (dépourvu, vide, sans) était utilisé, le vérificateur d'intelligence artificielle suggérait que l'essai était « rédigé à 18 % par l'intelligence artificielle ». La signification de ces 18 % n'est pas très claire. S'agit-il d'une « probabilité que cet essai ait été écrit par une IA » ou d'un « pourcentage de l'essai que nous pensons avoir été écrit par une IA » ? Mais, comme par magie, lorsque le mot « devoid » a été remplacé par « without » (sans), le score de l'IA est tombé à 0 %.
    Ok donc si on utilise un terme peu fréquent notre évaluation passe immédiatement de "c'est pas une IA" à "il y a une chance sur 5 que ça soit une IA"
    Je ne suis pas un défenseur radical de la recherche du terme exact mais sur certains sujets je peux être amené à faire cet effort.
    Je pense d'ailleurs que l'utilisation adéquate d'un terme particulièrement précis devrait être une preuve de non utilisation de l'IA (ou d'utilisation acceptable parce que la précision a été affinée).
    Cet exemple montre bien le manque de pertinence de ces outils.
    C'est à ce moment-là que nous avons commencé à chercher ce qui pouvait bien être à l'origine de ce score de 17 %. La cible immédiate était un vocabulaire plus avancé (le problème qui avait déjà été identifié avec « devoid »).
    L'essai utilisait le mot « delve » (plonger), qui est maintenant devenu une sorte de punchline car il apparaît dans tous les travaux générés par l'IA.
    Voila le problème des corrélations, elle fournit des indices mais en rien des preuves.
    Cependant ce que suggère leur expérience et qu'il y a des critères qui ont une portée limitée (vocabulaire soutenu <20%?) et qu'il faut multiplier les critères pour augmenter le score et que n'avoir qu'un gimmick limite le risque.
    Mais je vois bien un prof donner 80% de la note en cas d'une suspicion de 20% ce qui pose de gros problèmes.
    Pour résoudre ce problème, il est essentiel de repenser notre approche de l’évaluation des travaux écrits. Plutôt que de se fier uniquement aux vérificateurs de texte IA, les enseignants pourraient adopter une approche plus holistique, en tenant compte du processus de rédaction et en encourageant les étudiants à développer leur propre style. De plus, il est crucial de sensibiliser les étudiants aux limites des outils d’IA et de les encourager à utiliser ces technologies de manière éthique et responsable.
    Ce texte risque d'avoir été écrit par une IA à 19%
    Et je complèterait : De plus, il est crucial de sensibiliser les étudiants et les enseignants aux limites des outils d’IA et de les encourager à utiliser ces technologies de manière éthique et responsable.

    Pensez-vous que les vérificateurs de texte IA sont une solution efficace pour détecter la tricherie ? Pourquoi ou pourquoi pas ?
    Non.
    Mais la vraie réponse est qu'utiliser un IA n'est pas forcément tricher.
    Comment les enseignants peuvent-ils encourager la créativité des étudiants tout en maintenant l’intégrité académique ?
    En encourageant les écrits originaux/personnels etc.
    J'étais très mauvais en francais pourtant je me souviens clairement avoir fait une rédaction marquante juste après avoir vu American History X, par chance le sujet était lié à ce film (je ne me souviens plus de quelle façon).
    J'ai eu un bonus ce jour là, parce que mon texte a incité la prof à aller voir le film.
    Avez-vous déjà ressenti la pression de modifier votre style d’écriture pour éviter d’être accusé d’utiliser des outils d’IA ?
    Non mon style était inimitable à l'époque et se résumait facilement : "Un seul point, tout à la fin, mais BEAUCOUP de virgules"
    Quels sont les avantages et les inconvénients de l’utilisation des vérificateurs de texte IA dans l’éducation ?
    Il n'y a AUCUN avantage
    Comment les institutions éducatives peuvent-elles équilibrer l’utilisation de la technologie et la préservation de l’authenticité des travaux des étudiants ?
    En évoluant autant qu'elle veut que les étudiants évoluent.
    Quelles alternatives aux vérificateurs de texte IA pourraient être mises en place pour évaluer les travaux écrits des étudiants ?
    La bonne vielle méthode : lire, corriger, commenter etc.
    Pensez-vous que l’utilisation croissante des outils d’IA dans l’éducation pourrait changer la manière dont nous percevons la créativité et l’originalité ?
    Oui

  3. #23
    Membre régulier
    Profil pro
    Inscrit en
    Juillet 2008
    Messages
    15
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juillet 2008
    Messages : 15
    Points : 73
    Points
    73
    Par défaut L'arroseur arrosé en somme
    L'Ia pompe les textes sur le net en masse sans les comprendre et peut ou pas les réinjecter dans une réponse. Mais un étudiant qui lirait les mêmes textes lui n'aurait plus le droit d'utiliser le vocabulaire qu'il aurait acquis alors qu'il les (les textes) a compris. Le problème c'est l'utilisation de la machine par le professeur et le manque de connaissance de ses étudiants. De toute façon, quoi qu'il arrive, il y en a au moins un des deux - étudiant/prof - qui fait mal son boulot à cause d'un outil inapproprié. C'est sans solution.

  4. #24
    Membre expert
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    887
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 887
    Points : 3 821
    Points
    3 821
    Par défaut
    Citation Envoyé par cobalt3d Voir le message
    C'est sans solution.
    Partiels sur table en salle blindée + éducation à l' "IA."

  5. #25
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 019
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 019
    Points : 208 547
    Points
    208 547
    Par défaut Des parents poursuivent l'école qui a donné une mauvaise note à un lycéen qui a utilisé l'IA pour son devoir
    Des parents poursuivent l'école qui a donné une mauvaise note à un lycéen qui a utilisé l'IA pour faire son devoir,
    soutenant qu'elle ne disposait pas d'une politique claire concernant l'utilisation de l'IA, rendant la punition injustifiée

    Un couple de parents au Massachusetts a intenté une action en justice contre une école après que leur fils a été puni pour avoir utilisé des outils d'intelligence artificielle pour un projet. Le lycéen avait utilisé l'IA pour aider à la recherche pour un devoir d'histoire, mais pas pour rédiger le devoir lui-même. Les parents affirment que l'école a injustement accusé leur fils de triche et a infligé une punition qui pourrait nuire à ses chances d'admission à l'université de Stanford et dans d'autres écoles d'élite. Ils soutiennent que le manuel des étudiants de l'école ne précise pas une politique claire concernant l'utilisation de l'IA, rendant ainsi la punition injustifiée.

    Dans ce qui semble être la première affaire de ce type, du moins dans le Massachusetts, les parents d'un élève de la Hingham High School poursuivent les administrateurs de l'école et les enseignants de leur fils après qu'il a été sanctionné pour avoir utilisé l'intelligence artificielle dans le cadre d'un projet d'histoire.

    Lorsque l'utilisation de l'IA par l'élève a été découverte, il a été mis en retenue et sa note a été affectée, selon la famille.

    La plainte déposée devant le tribunal fédéral par Dale et Jennifer Harris indique que l'élève a subi une « notation arbitraire » et n'a pas été sélectionné pour la National Honor Society « en raison de cette prétendue violation de l'intégrité académique » (la National Honor Society est l'une des organisations étudiantes parascolaires les plus anciennes, les plus importantes et les plus reconnues dans les lycées américains, avec 1,4 million de membres).

    La plainte accuse l'école d'avoir manqué de clarté dans ses règles concernant l'utilisation de l'intelligence artificielle

    Selon la plainte, le manuel de l'école « n'a pas de règles, de politiques ou de procédures établies non seulement pour l'utilisation de l'intelligence artificielle, mais aussi pour ce que les administrateurs, les professeurs ou les étudiants doivent faire lorsqu'ils sont confrontés à cette utilisation ».

    Une copie du manuel de l'école indique que « l'utilisation non autorisée de la technologie, y compris l'intelligence artificielle » peut être considérée comme un acte de tricherie ou de plagiat, mais ne donne pas plus de détails sur la manière dont elle peut ou ne peut pas être utilisée. Le manuel définit le plagiat comme « l'utilisation non autorisée ou l'imitation proche du langage et des pensées d'un autre auteur, y compris l'intelligence artificielle, et la représentation de ces éléments comme son propre travail ».

    Un enseignant qui découvre des cas de tricherie doit « enregistrer une note insuffisante pour ce travail pour chaque élève impliqué » et informer les parents de l'élève, selon le manuel. L'enseignant doit également informer le directeur adjoint, « qui ajoutera l'information au dossier disciplinaire de l'élève » et « pourra prendre d'autres mesures s'il le juge nécessaire », précise le manuel.

    Jennifer Harris a exhorté l'école à clarifier ses règles concernant l'utilisation de l'IA.

    « J'aimerais également qu'ils mettent en place une politique en matière d'intelligence artificielle qui ait du sens, que les enseignants comprennent et qu'ils puissent ensuite expliquer aux élèves », a-t-elle déclaré.

    La plainte demande également aux administrateurs scolaires de « suivre une formation sur l'utilisation et la mise en œuvre de l'intelligence artificielle dans les classes, les écoles et l'environnement éducatif, dispensée par une tierce partie dûment qualifiée qui n'est pas employée par le district ».

    Nom : IA.png
Affichages : 5753
Taille : 41,4 Ko

    Les parents veulent que la note de l'élève soit relevée

    Les parents demandent au tribunal d'ordonner à l'école de relever la note de l'élève en sciences sociales à « B » et de supprimer de son dossier toute sanction scolaire liée à l'utilisation de l'IA. Ils ne veulent pas non plus que son utilisation de l'IA soit qualifiée de « tricherie » ou de « malhonnêteté académique ».

    « Les défendeurs ont poursuivi une politique omniprésente, destructrice et impitoyable de menaces, d'intimidation et de coercition afin d'influencer et de faire dérailler l'avenir [de notre fils] et son dossier exemplaire », affirme la famille Harris dans son action en justice, qui a d'abord été déposée auprès de la cour supérieure de l'État avant d'être renvoyée devant un tribunal fédéral de première instance.

    « Il postule à des établissements d'enseignement supérieur et à des universités d'élite, compte tenu de son haut niveau de réussite scolaire et personnelle », indique l'action en justice. « En l'absence d'une injonction de la part de cette Cour, le lycéen subira un préjudice irréparable et imminent ».

    « C'est un enfant dont je pense vraiment qu'il peut faire tout ce qu'il veut », a déclaré sa mère, Jenifer Harris. « Il étudie certaines des meilleures écoles du pays et son meilleur établissement, son premier choix, est Stanford ».

    Madame Harris est écrivaine et le père du garçon est enseignant. Dans l'un de ses cours de spécialisation, il a été associé à un autre étudiant. Ils devaient rédiger un article sur une personne célèbre et ses actions civiles. Lui et son partenaire ont choisi Kareem Abdul-Jabbar. Pendant le processus, ils ont utilisé l'IA pour prendre des notes et créer un plan, mais pas pour rédiger l'article lui-même.

    Il a été demandé à madame Harris si elle pensait qu'il s'agissait d'une tricherie. « Absolument pas. Tout d'abord, l'école n'avait pas encore de politique en la matière », explique-t-elle. « Je sais que mon fils s'est défendu auprès de l'école en disant que l'IA n'est pas de la triche et qu'il ne s'agit pas de plagiat. Il a dit que, si vous vérifiez, il est bien établi que l'IA est la propriété de la personne qui l'a générée », a déclaré monsieur Harris.


    En réponse, l'école a demandé aux deux lycéens de refaire le travail séparément et sur un autre sujet

    « Nous avons découvert dans les documents du tribunal qu'ils n'allaient jamais lui donner une note supérieure à 65, ce qui est étrange car l'autre élève a obtenu 75 sur son devoir », poursuit madame Harris.

    À la suite de cet incident, son fils n'a pas été en mesure de remplir les demandes d'inscription à l'université en raison de la nature non résolue de la situation. Cela l'a empêché de bénéficier d'une admission anticipée ou d'une admission par roulement dans les principales écoles.

    Toutefois, le NHS est revenu sur sa décision : « Nous avons déjà obtenu quelque chose, à savoir son intégration dans la National Honors Society », a déclaré l'avocat de la famille, Peter Farrell.

    Farrell a déclaré que l'organisation avait initialement refusé de l'admettre en raison de la situation de l'IA. Il a ajouté qu'une enquête avait montré que sept autres étudiants acceptés avaient fait l'objet de sanctions disciplinaires, notamment pour l'utilisation de l'IA. Depuis, l'organisation l'a autorisé à présenter une nouvelle demande.

    L'action en justice désigne comme défendeurs le directeur général, les administrateurs de l'école, les professeurs d'études sociales et le comité de l'école de Hingham. Un porte-parole des écoles publiques de Hingham a déclaré que le district ne ferait aucun commentaire sur le procès « pour respecter la vie privée de l'élève concerné et en raison d'un litige en cours ».

    Nom : hingam.png
Affichages : 1820
Taille : 498,4 Ko

    Arguments des parents

    Les avocats des parents ont souligné que l'intelligence artificielle représente une extension des outils technologiques déjà couramment acceptés dans l'éducation, comme les correcteurs grammaticaux ou les calculatrices avancées. Ils ont fait valoir que sanctionner l'utilisation de l'IA démontre une incompréhension de la part de l'établissement des avancées technologiques et de leur intégration bénéfique dans les pratiques éducatives modernes. En outre, les parents ont pointé du doigt l'absence de règlement clair au sein de l'école concernant l'usage des technologies d'IA, ce qui, selon eux, rend la sanction injustifiée.

    Position de l'école

    De son côté, l'administration de l'école affirme que leur manuel de l'étudiant interdit l'utilisation de « technologies non autorisées » et « l'utilisation non autorisée ou l'imitation proche du langage et des pensées d'un autre auteur et la représentation de ceux-ci comme son propre travail ».

    Les responsables de l'établissement insistent sur l'importance de promouvoir des compétences individuelles et d'encourager un apprentissage autonome sans recours excessif à des technologies automatisées. Selon eux, l'intégrité académique et les valeurs d'apprentissage doivent primer sur l'utilisation de l'IA, surtout dans un contexte où ces outils peuvent potentiellement dénaturer les efforts personnels des élèves.

    Dans une demande de rejet de cette affaire, ils ont estimé que la sanction administrée au fils des Harris était « relativement indulgente » et qu'une décision contraire « inviterait les parents et les élèves mécontents à contester la discipline quotidienne, voire le classement des élèves, devant les tribunaux de l'État et les tribunaux fédéraux ».

    Enjeux et réflexions

    Presque immédiatement après la publication de ChatGPT par OpenAI en 2022, les écoles ont reconnu la menace que les outils d'IA générative gratuits et facilement accessibles représentaient pour l'intégrité académique. Certains districts ont essayé d'interdire complètement la technologie aux élèves, puis ont fait marche arrière. Les ministères de l'éducation des États ont lentement mis en place des orientations pour les districts locaux, mais dans de nombreuses régions du pays, il n'y a pas de consensus clair sur la manière dont les étudiants devraient être autorisés à utiliser l'IA générative.

    Une enquête nationale menée par le Center for Democracy and Technology a révélé que les écoles sanctionnent de plus en plus les élèves qui utilisent l'IA et a noté que les élèves historiquement marginalisés, notamment les élèves de couleur et les apprenants de la langue anglaise, ont tendance à être sanctionnés de manière disproportionnée pour avoir enfreint les règles de l'école,

    Cette affaire pose des questions cruciales sur la manière dont le système éducatif doit s'adapter aux évolutions technologiques. Alors que certains voient dans l'IA une opportunité pour enrichir l'apprentissage et augmenter l'efficacité des études, d'autres craignent qu'elle ne remplace l'effort personnel et ne compromette l'intégrité académique. La question centrale est de savoir jusqu'où les établissements scolaires doivent aller pour encadrer l'utilisation de ces technologies tout en restant en phase avec les réalités contemporaines.

    Perspectives futures

    Il est probable que cette affaire poussera d'autres établissements scolaires à revoir leurs politiques concernant l'utilisation de l'IA et d'autres technologies avancées. Une approche équilibrée pourrait être de définir des directives claires sur l'utilisation de l'IA, en distinguant les situations où elle peut être utilisée comme un outil d'aide pédagogique et celles où elle pourrait constituer un abus. Les éducateurs devront également être formés pour comprendre les capacités et les limitations de ces technologies afin de mieux les intégrer dans les pratiques d'enseignement et d'évaluation.

    En conclusion, cette situation met en lumière l'importance d'une réflexion approfondie et d'un dialogue ouvert sur l'équilibre entre technologie et éducation. Les établissements scolaires, les élèves et les parents devront collaborer pour trouver des solutions qui permettent de tirer parti des avantages des nouvelles technologies tout en préservant les valeurs fondamentales de l'apprentissage.

    Sources : plainte des parents, demande de rejet, copie du manuel de l'école

    Et vous ?

    De quel côté penchez-vous ? De celui de l'établissement ou de celui des parents ? Pourquoi ?
    Que pensez-vous de la décision des parents de porter plainte ? La trouvez-vous excessive ou la comprenez-vous ?
    Selon vous, l'utilisation de l'intelligence artificielle dans l'éducation pourrait-elle améliorer ou détériorer la qualité de l'apprentissage ?
    Quels outils technologiques devraient être autorisés pour les devoirs scolaires ? Devrait-on considérer l'utilisation de l'IA comme une simple aide éducative ou une forme de triche ?
    L'IA devrait-elle être intégrée dans les méthodes d'enseignement dès le plus jeune âge ou réservée à un usage spécifique et limité ?
    Comment les établissements scolaires devraient-ils équilibrer l'utilisation de la technologie et le développement des compétences individuelles ?
    Quels seraient les avantages et les inconvénients de la mise en place de politiques claires concernant l'usage de l'IA dans les écoles ?
    Pensez-vous que l'usage de l'IA dans les devoirs scolaires pourrait préparer les élèves aux défis du futur marché du travail ou les en détourner ?

    Voir aussi :

    Le pourcentage d'étudiants utilisant ChatGPT pour rédiger leurs devoirs et d'enseignants pour les corriger a augmenté selon un rapport, une situation qui provoque plusieurs interrogations
    Les détecteurs d'IA obligent les étudiants à adopter un style d'écriture dépourvu d'originalité pour éviter d'être accusés de tricherie. L'essor de ces outils cause des problèmes inattendus
    99% des étudiants utilisent les IA génératives pour diminuer leur temps de travail, et 51% constatent qu'ils auraient du mal à se passer de ChatGPT, mais est-ce une bonne chose ?
    Les étudiants qui utilisent l'IA sont moins productifs et ont peu de chances de réussir à l'avenir car l'IA générative encourage la tricherie et rend paresseux et incompétent, selon une étude
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #26
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 707
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 707
    Points : 7 985
    Points
    7 985
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Des parents poursuivent l'école qui a donné une mauvaise note à un lycéen qui a utilisé l'IA pour faire son devoir,
    soutenant qu'elle ne disposait pas d'une politique claire concernant l'utilisation de l'IA, rendant la punition injustifiée
    Quel ramassis de débiles... Si l'école veut un devoir rédigé par IA, elle n'a pas besoin de le demander aux gamins. Non parce que sinon il va aussi falloir préciser que faire faire ses devoirs par quelqu'un d'autre ne fonctionne pas non-plus, parce que je suppose que ce n'est pas clairement indiqué dans la politique de l'école... Monde de débiles...

    Citation Envoyé par Stéphane le calme Voir le message
    Les parents affirment que l'école a injustement accusé leur fils de triche et a infligé une punition qui pourrait nuire à ses chances d'admission à l'université de Stanford et dans d'autres écoles d'élite. Ils soutiennent que le manuel des étudiants de l'école ne précise pas une politique claire concernant l'utilisation de l'IA, rendant ainsi la punition injustifiée.
    Non mais déjà ils peuvent oublier les écoles prestigieuses: si à son âge, le gamin n'arrive pas à faire ses devoirs tout seul, il n'est pas fait pour les études "prestigieuses"...
    Ensuite, dans ce cas là, autant enlever les mauvaises notes des autres gamins puisqu'elles les empêchent aussi de pouvoir entrer dans des écoles prestigieuses...

    Citation Envoyé par Stéphane le calme Voir le message
    « Il postule à des établissements d'enseignement supérieur et à des universités d'élite, compte tenu de son haut niveau de réussite scolaire et personnelle », indique l'action en justice. « En l'absence d'une injonction de la part de cette Cour, le lycéen subira un préjudice irréparable et imminent ».
    Et il apprendra peut-être une leçon. Lui supprimer sa note revient à lui dire: "triche autant que tu veux partout, et vas pleurer au tribunal quand tu te feras prendre".

    Citation Envoyé par Stéphane le calme Voir le message
    « C'est un enfant dont je pense vraiment qu'il peut faire tout ce qu'il veut », a déclaré sa mère, Jenifer Harris. « Il étudie certaines des meilleures écoles du pays et son meilleur établissement, son premier choix, est Stanford ».
    Ah ben oui, tiens. L'avis de sa propre mère est forcément un avis très objectif.
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  7. #27
    Membre émérite Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    609
    Détails du profil
    Informations personnelles :
    Âge : 33
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 609
    Points : 2 485
    Points
    2 485
    Par défaut
    Terrible les problèmes de bourges.

    « C'est un enfant dont je pense vraiment qu'il peut faire tout ce qu'il veut »

    Typiquement le genre de phrase et comportement de sa mère qui fera de ce garçon une raclure humaine.

    Bref. Un peu du mal à comprendre en quoi c'est une news en rapport avec l'informatique. Et plus déprimant qu'autre chose quand on se dit que ce genre de gamin finira très probablement par faire parti de cette fameuse "élite" dirigeante.
    Circuits intégrés mis à nu: https://twitter.com/TICS_Game

  8. #28
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    2 802
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 2 802
    Points : 5 597
    Points
    5 597
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    « C'est un enfant dont je pense vraiment qu'il peut faire tout ce qu'il veut », a déclaré sa mère, Jenifer Harris. « Il étudie certaines des meilleures écoles du pays et son meilleur établissement, son premier choix, est Stanford ».
    Très objectif de la part de maman.

    Pour paraphraser :
    Un jour mon fils, qui est bien au dessus de la moyenne et dont l'intelligence est bien supérieure à la votre et à celle de tout le corps enseignant réuni, sera président.
    Et vous tous, bande d'incultes et de sous merdes, devrez vous soumettre au décisions que Chat GPT lui aura soufflé.

  9. #29
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 698
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 698
    Points : 118 952
    Points
    118 952
    Par défaut Les détecteurs d'IA étiquettent mal les travaux des étudiants, donnant lieu à de fausses accusations
    Les détecteurs d'IA étiquettent mal les travaux des étudiants, ce qui donne lieu à de fausses accusations d'utilisation de l'intelligence artificielle pour soumettre des devoirs et des copies d'examen.

    Les détecteurs d'IA étiquettent mal les travaux des étudiants, selon un rapport de Bloomberg. Ces résultats confirment que les outils de détection de l'IA ne sont pas infaillibles et peuvent signaler à tort des contenus générés par des humains comme étant produits par l'IA. Cela présente également des risques potentiels pour les étudiants, qui peuvent être confrontés à de graves conséquences si leur travail est repéré par erreur par ces systèmes.

    Avec l’essor des outils d’intelligence artificielle comme ChatGPT, les enseignants et les institutions éducatives se retrouvent face à un défi inédit : comment distinguer les travaux écrits par des étudiants de ceux générés par des machines. Cette situation a conduit à l’utilisation croissante de vérificateurs de texte IA, mais ces outils posent des problèmes inattendus.

    Pour éviter d’être accusés de tricherie, de nombreux étudiants modifient leur style d’écriture pour qu’il soit moins créatif et plus conforme aux attentes des vérificateurs de texte IA. Cela peut inclure l’utilisation de phrases courtes, de structures de phrases simples et de vocabulaire limité. En conséquence, les étudiants risquent de perdre leur voix unique et leur créativité, se conformant à un modèle d’écriture plus robotique.

    Pourtant, de récents rapports confirment que les détecteurs d'IA "étiquettent mal les travaux des étudiants", ce qui donne lieu à de fausses accusations. Certains détecteurs d'IA accuseraient à tort des étudiants d'utiliser l'intelligence artificielle pour rendre des travaux et des copies d'examen. Selon des courriels consultés par Bloomberg Businessweek, une étudiante atteinte d'un trouble du spectre autistique a déclaré qu'elle avait tendance à écrire de manière formelle, ce qui a été interprété à tort comme étant généré par l'IA. Elle a donc reçu un avertissement écrit pour avoir prétendument plagié son travail.

    Nom : 1.jpg
Affichages : 3231
Taille : 35,7 Ko

    Bloomberg a effectué un test sur 500 demandes d'admission à l'université Texas A&M avant la publication de ChatGPT, en utilisant des services de détection d'IA tels que Copyleaks et GPTZero. Ces services ont signalé 1 à 2 % de ces demandes comme étant "probablement" rédigées par l'IA, et certaines ont été étiquetées avec une certitude de 100 %. La précision des détecteurs d'IA a été mise en doute, car bon nombre de ces applications ont été écrites par des humains et ne font partie d'aucun ensemble de données utilisé pour former des modèles de langage.

    Bien que l'échantillon testé soit petit, il met en évidence un problème plus large. Les outils de détection de l'IA ne sont pas infaillibles et peuvent signaler à tort des contenus générés par des humains comme étant produits par l'IA. Cela présente également des risques potentiels pour les étudiants, qui peuvent être confrontés à de graves conséquences si leur travail est repéré par erreur par ces systèmes.

    Par exemple, une étude réalisée en 2023 par l'université de Stanford a révélé que les détecteurs d'IA avaient identifié plus de la moitié des essais rédigés par des étudiants dont l'anglais n'était pas la langue maternelle comme étant générés par l'IA. Ethan Mollick, professeur de gestion à l'université de Pennsylvanie (Wharton), a critiqué ces outils sur le site X. Il a déclaré : "Il est moralement répréhensible d'utiliser des détecteurs d'IA lorsqu'ils produisent des faux positifs qui salissent les étudiants d'une manière qui leur fait du tort et pour laquelle ils ne peuvent jamais prouver leur innocence."

    Le rapport cite également le cofondateur de Copyleaks, qui a reconnu qu'aucun système de détection n'est précis à 100 % et qu'il devrait être utilisé pour repérer des tendances, et non des réponses définitives. Alon Yamin a ajouté : "Nous expliquons clairement aux institutions universitaires que rien n'est sûr à 100 % et que le système doit être utilisé pour identifier les tendances dans les travaux des étudiants. Il s'agit en quelque sorte d'un signal d'alarme qu'ils doivent examiner et utiliser pour discuter avec les étudiants."

    De même, le cofondateur de GPTZero, Edward Tian, a admis que les détecteurs d'IA ont des "angles morts", ajoutant que son entreprise a fait des progrès dans l'atténuation des résultats pour les étudiants d'anglais langue seconde en particulier. OpenAI a également déclaré récemment qu'elle s'était abstenue de publier un outil de détection de l'écriture par l'IA, craignant qu'il n'ait un impact disproportionné sur certains groupes, tels que les étudiants d'anglais langue seconde.

    Alon Yamin, PDG et cofondateur de Copyleaks, a commenté le rapport :

    Chez Copyleaks, nous comprenons l'impact profond que de fausses accusations peuvent avoir sur la carrière universitaire d'un étudiant, et nous assumons cette responsabilité avec le plus grand sérieux. Bien que notre détecteur d'IA soit précis à plus de 99 %, avec un taux de faux positifs de 0,6 %, le plus bas du marché, aucune technologie n'est parfaite, quel que soit le secteur d'activité. En fait, de nombreux autres services utilisés quotidiennement présentent des taux de faux positifs plus élevés, qu'il s'agisse de technologies pour les diagnostics médicaux, de produits pharmaceutiques, de modèles de notation de crédit ou de systèmes de navigation, et pourtant nous continuons à les utiliser et à leur faire confiance.

    Bien que le test de Bloomberg ait révélé un taux de faux positifs de 1 à 2 % dans la détection de textes générés par l'IA, il est important de noter qu'aucun outil de détection n'est infaillible, en particulier lorsqu'il s'agit de contenus antérieurs à ChatGPT. Nous améliorons continuellement notre précision grâce à l'apprentissage automatique. Néanmoins, quelle que soit la précision d'un outil, nous encouragerons toujours les éducateurs à utiliser ces outils comme un guide plutôt que comme un outil définitif de contrôle et de jugement. Notre objectif est de favoriser un dialogue ouvert entre les enseignants et les élèves lorsque l'utilisation potentielle de l'IA est signalée, offrant ainsi la possibilité de mieux comprendre le travail des élèves et les processus d'apprentissage. La détection de l'IA devrait être un outil de croissance, et non un obstacle, garantissant l'équité et la transparence du processus académique.
    La distinction entre le contenu créé par l’homme et celui généré par l’IA devient floue. Les détecteurs d’IA, conçus pour identifier les textes générés par l’IA, sont devenus des outils controversés. Des rédacteurs se retrouvent licenciés suite à des accusations erronées d’utilisation d’IA, soulevant des questions sur la fiabilité de ces technologies et leurs implications pour l’emploi.


    Source : Bloomberg Businessweek

    Et vous ?

    Pensez-vous que ce rapport est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Les détecteurs d'IA sont biaisés par rapport aux rédacteurs dont l'anglais n'est pas la langue maternelle. Leur fiabilité est remise en question : le contenu de ChatGPT n'est pas détecté

    Qui a utilisé ChatGPT, Claude, ou encore Bard pour ses créations ? Quelle est l'efficacité réelle des détecteurs de contenu IA ? Les réponses dans un sujet de recherche universitaire

    Écriture académique à l'ère de l'IA : progrès ou problème ? Les étudiants rédigent probablement des millions d'articles à l'aide de l'IA, selon une étude menée par Turnitin
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #30
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 019
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 019
    Points : 208 547
    Points
    208 547
    Par défaut Un tribunal affirme qu'une école n'a commis aucune faute en sanctionnant un élève pour utilisation de l'IA
    Un tribunal affirme qu'un établissement n'a commis aucune faute en sanctionnant un élève pour utilisation de l'IA,
    cette décision pourrait faire office de jurisprudence face aux plaintes des parents

    La récente décision d’un tribunal affirmant que l'école n’a commis aucune faute en sanctionnant un élève pour l’utilisation d’une intelligence artificielle (IA) soulève des questions cruciales sur l’éducation et l’évolution des technologies. Cet arrêt, qui fait désormais office de jurisprudence, met en lumière les défis auxquels sont confrontés les établissements scolaires dans un monde de plus en plus marqué par l’intégration des technologies avancées dans la vie quotidienne.

    Dans ce qui semble être la première affaire de ce type, du moins dans le Massachusetts, les parents d'un élève de la Hingham High School poursuivent les administrateurs de l'école et les enseignants de leur fils après qu'il a été sanctionné pour avoir utilisé l'intelligence artificielle dans le cadre d'un projet d'histoire.

    Lorsque l'utilisation de l'IA par l'élève a été découverte, il a été mis en retenue et sa note a été affectée, selon la famille.

    La plainte déposée devant le tribunal fédéral par Dale et Jennifer Harris indique que l'élève a subi une « notation arbitraire » et n'a pas été sélectionné pour la National Honor Society « en raison de cette prétendue violation de l'intégrité académique » (la National Honor Society est l'une des organisations étudiantes parascolaires les plus anciennes, les plus importantes et les plus reconnues dans les lycées américains, avec 1,4 million de membres).

    La plainte accuse l'école d'avoir manqué de clarté dans ses règles concernant l'utilisation de l'intelligence artificielle

    Selon la plainte, le manuel de l'école « n'a pas de règles, de politiques ou de procédures établies non seulement pour l'utilisation de l'intelligence artificielle, mais aussi pour ce que les administrateurs, les professeurs ou les étudiants doivent faire lorsqu'ils sont confrontés à cette utilisation ».

    Une copie du manuel de l'école indique que « l'utilisation non autorisée de la technologie, y compris l'intelligence artificielle » peut être considérée comme un acte de tricherie ou de plagiat, mais ne donne pas plus de détails sur la manière dont elle peut ou ne peut pas être utilisée. Le manuel définit le plagiat comme « l'utilisation non autorisée ou l'imitation proche du langage et des pensées d'un autre auteur, y compris l'intelligence artificielle, et la représentation de ces éléments comme son propre travail ».

    Un enseignant qui découvre des cas de tricherie doit « enregistrer une note insuffisante pour ce travail pour chaque élève impliqué » et informer les parents de l'élève, selon le manuel. L'enseignant doit également informer le directeur adjoint, « qui ajoutera l'information au dossier disciplinaire de l'élève » et « pourra prendre d'autres mesures s'il le juge nécessaire », précise le manuel.

    Jennifer Harris a exhorté l'école à clarifier ses règles concernant l'utilisation de l'IA.

    « J'aimerais également qu'ils mettent en place une politique en matière d'intelligence artificielle qui ait du sens, que les enseignants comprennent et qu'ils puissent ensuite expliquer aux élèves », a-t-elle déclaré.

    Les parents demandent au tribunal d'ordonner à l'école de relever la note de l'élève en sciences sociales à « B » et de supprimer de son dossier toute sanction scolaire liée à l'utilisation de l'IA. Ils ne veulent pas non plus que son utilisation de l'IA soit qualifiée de « tricherie » ou de « malhonnêteté académique ».


    La décision de justice

    Un tribunal fédéral a rendu une décision défavorable aux parents qui avaient poursuivi un district scolaire du Massachusetts pour avoir puni leur fils qui avait utilisé un outil d'intelligence artificielle pour réaliser un travail.

    Dale et Jennifer Harris ont poursuivi les responsables du lycée de Hingham et le comité scolaire et ont demandé une injonction préliminaire exigeant que l'école modifie la note de leur fils et efface l'incident de son dossier disciplinaire avant qu'il ne doive soumettre des demandes d'admission à l'université. Les parents ont fait valoir qu'il n'y avait pas de règle interdisant l'utilisation de l'IA dans le manuel de l'élève, mais les responsables de l'école ont déclaré que l'élève avait violé de nombreuses règles.

    La demande d'injonction des Harris a été rejetée dans une ordonnance rendue par le tribunal de district des États-Unis pour le district du Massachusetts. Le juge Paul Levenson a estimé que les responsables de l'école « ont le dessus sur les faits et sur la loi ».

    « En ce qui concerne les faits, il n'y a rien dans le dossier préliminaire qui suggère que les responsables de la HHS se sont empressés de conclure que RNH [le fils des Harris, désigné par ses initiales] avait triché », a écrit Levenson. « Les conséquences imposées par les défendeurs n'étaient pas non plus si lourdes qu'elles dépassaient le pouvoir discrétionnaire considérable des défendeurs en la matière ».

    « Sur la base des preuves dont dispose actuellement la Cour, je ne décèle aucun acte répréhensible de la part des défendeurs », a également écrit Levenson.

    Des étudiants ont copié et collé des « hallucinations » de l'IA

    L'incident s'est produit en décembre 2023, alors que RNH était en première année. L'école a déterminé que RNH et un autre élève « avaient triché dans le cadre d'un projet d'histoire des États-Unis en tentant de faire passer pour leur propre travail des éléments qu'ils avaient tirés d'une application d'intelligence artificielle générative (IA) », a écrit Levenson. « Bien que les étudiants soient autorisés à utiliser l'IA pour réfléchir à des sujets et identifier des sources, dans ce cas précis, les étudiants avaient copié et collé sans discernement du texte provenant de l'application d'IA, y compris des citations de livres inexistants (c'est-à-dire des hallucinations de l'IA) ».

    Ils ont reçu des notes insuffisantes pour deux parties du projet en plusieurs parties, mais « ont été autorisés à repartir de zéro, chacun travaillant séparément, pour achever et soumettre le projet final », précise l'ordonnance. RNH a fait l'objet d'une mesure disciplinaire comprenant une retenue du samedi. Il a également été exclu de la sélection pour la National Honor Society, mais il a finalement été autorisé à intégrer le groupe après que ses parents ont intenté un procès.

    Les responsables de l'école « soulignent que RNH s'est vu enseigner à plusieurs reprises les principes fondamentaux de l'intégrité académique, y compris la manière d'utiliser et de citer l'IA », a écrit Levenson. Le juge a reconnu que « les responsables de l'école pouvaient raisonnablement conclure que l'utilisation de l'IA par RNH constituait une violation des règles d'intégrité académique de l'école et que tout étudiant dans la situation de RNH l'aurait compris ».

    L'ordonnance de Levenson décrit comment les étudiants ont utilisé l'IA pour générer un scénario pour un film documentaire :

    Les preuves montrent que le couple n'a pas simplement utilisé l'IA pour l'aider à formuler des sujets de recherche ou à identifier des sources à examiner. Au contraire, il semble qu'ils aient copié et collé sans discernement du texte généré par Grammarly.com (« Grammarly »), un outil d'IA accessible au public, dans leur projet de script. De toute évidence, ils n'ont même pas examiné les « sources » fournies par Grammarly avant de les utiliser. La toute première note de bas de page de la soumission consiste en une citation d'un livre inexistant : « Lee, Robert. Hoop Dreams : A Century of Basketball. Los Angeles : Courtside Publications, 2018 ». La troisième note de bas de page semble également entièrement factice : « Doe, Jane. Muslim Pioneers : The Spiritual Journey of American Icons. Chicago : Windy City Publishers, 2017. » Fait significatif, même si le texte contient des citations de diverses sources - dont certaines sont réelles - il n'y a pas de citation de Grammarly, ni de reconnaissance de l'utilisation d'une IA quelconque.
    Nom : hingam.png
Affichages : 1886
Taille : 495,2 Ko

    Un outil de détection a signalé que le document était généré par l'IA

    Lorsque les élèves ont soumis leur texte à Turnitin.com, le site Web a signalé des parties du texte comme étant générées par l'IA. L'enseignante d'histoire des États-Unis a procédé à un examen plus approfondi et a découvert que de grandes parties du texte avaient été copiées et collées. Elle a également trouvé d'autres détails accablants.

    Susan Petrie, professeur d'histoire, « a déclaré que l'historique des révisions montrait que RNH n'avait passé qu'environ 52 minutes sur le document, alors que d'autres étudiants y avaient consacré entre sept et neuf heures ». Petrie a également fait passer le document par 'Draft Back' et 'Chat Zero', deux autres outils de détection de l'IA, qui ont également indiqué que l'IA avait été utilisée pour générer le document », indique l'ordonnance.

    Les responsables de l'école ont fait valoir que « l'affaire n'impliquait pas de questions subtiles sur les pratiques acceptables dans le déploiement d'une nouvelle technologie, mais qu'il s'agissait plutôt d'un simple cas de malhonnêteté académique », a écrit Levenson. L'ordonnance du juge magistrat indique « qu'il est douteux que la Cour ait un rôle à jouer dans la remise en question » de la décision de l'école, et que les plaignants de RNH n'ont pas démontré de mauvaise conduite de la part des autorités de l'école.

    Les autres demandes des parents sont rejetées

    Les Harris affirment également que les responsables de l'école se sont livrés à un « schéma généralisé de menaces, d'intimidation, de coercition, d'intimidation, de harcèlement et d'intimidation de représailles ». Mais Levenson a conclu que « les plaignants fournissent peu d'allégations factuelles dans ce sens ».

    Bien que l'affaire ne soit pas terminée, le rejet de l'injonction préliminaire montre que Levenson pense que les défendeurs ont des chances de gagner. « La manière dont RNH a utilisé Grammarly - copier et coller en gros le langage directement dans le projet de script qu'il a soumis - soutient puissamment la conclusion des défendeurs selon laquelle RNH savait qu'il utilisait l'IA d'une manière inadmissible », a écrit Levenson.

    Bien que « l'émergence de l'IA générative puisse présenter des défis nuancés pour les éducateurs, la question ici n'est pas particulièrement nuancée, car il n'y a pas d'objectif pédagogique discernable dans le fait de demander à Grammarly (ou à tout autre outil d'IA) de générer un script, de régurgiter le résultat sans le citer et de le revendiquer comme son propre travail », a déclaré l'ordonnance.

    Levenson n'a pas validé l'affirmation des parents selon laquelle le droit constitutionnel de RNH à une procédure régulière avait été violé. Les défendeurs « ont pris de multiples mesures pour confirmer que RNH avait effectivement utilisé l'IA pour réaliser le devoir » avant d'imposer une punition, a-t-il écrit. La discipline imposée « n'a pas privé RNH de son droit à l'éducation publique », et donc « toute demande d'application de la loi fondée sur le droit de RNH à l'éducation publique doit être rejetée ».

    Levenson a conclu en citant un arrêt de la Cour suprême de 1988 selon lequel l'éducation des jeunes « relève principalement de la responsabilité des parents, des enseignants et des responsables scolaires locaux et nationaux, et non de celle des juges fédéraux ». Selon Levenson, « cette affaire illustre bien le bon sens de cette division du travail. L'intérêt public pèse ici en faveur des défendeurs ».

    Source : décision de justice

    Et vous ?

    Que pensez-vous de la décision de la Cour ?

    Les établissements scolaires sont-ils suffisamment préparés pour encadrer l’utilisation de l’IA par les élèves ?

    L’utilisation d’un outil d’IA comme support peut-elle être comparée au recours à un dictionnaire ou à une encyclopédie en ligne ?

    Où devrait-on tracer la frontière entre l’assistance et la tricherie lorsqu’il s’agit d’intelligence artificielle ?
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 5
    Dernier message: 04/09/2022, 04h14
  2. Réponses: 18
    Dernier message: 12/10/2021, 22h36
  3. [VB]Retouver les clés des items d'une Collection, c'est possible ?
    Par marchand_de_sable dans le forum VBA Access
    Réponses: 11
    Dernier message: 19/12/2016, 17h44
  4. Application web pour les réseaux sociaux des étudiants universitaires
    Par zakii2plus dans le forum Général Conception Web
    Réponses: 0
    Dernier message: 21/02/2014, 10h24
  5. Réponses: 3
    Dernier message: 25/10/2013, 17h39

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo