L’émergence de l’IA générative telle que ChatGPT a posé des défis sans précédent dans le domaine de l’éducation. Il est de plus en plus courant que les étudiants utilisent l’IA pour réaliser leurs devoirs et leurs examens. Cela réduit non seulement la valeur des diplômes, mais peut également conduire à ce que des talents dépourvus de capacités pratiques accèdent à des domaines professionnels clés, mettant ainsi en danger la sécurité sociale. Cet article fournira une analyse approfondie du problème de fraude scolaire provoqué par l’IA dans l’éducation, et discutera de sa gravité et des lacunes des stratégies de réponse.
Depuis la sortie publique de ChatGPT, l’impact sur l’éducation a été profond et inquiétant. De plus en plus d’étudiants utilisent l’IA générative pour réaliser leurs devoirs et examens, et le travail soumis est considéré comme un travail académique authentique. Ce phénomène non seulement dévalorise les diplômes d'études secondaires et collégiales, mais peut également conduire de nombreux étudiants à accéder à des domaines professionnels importants tels que les infirmiers, les ingénieurs et les pompiers sans véritable formation, ce qui aura de graves conséquences pour la société.
Remarque sur la source de l'image : l'image est générée par l'IA et le fournisseur de services d'autorisation d'image Midjourney
Cependant, la plupart des écoles et des établissements d’enseignement n’accordent pas suffisamment d’attention à la lutte contre la fraude scolaire liée à l’IA. Ce qui est encore plus choquant, c’est que certaines écoles ont même pris l’initiative d’assouplir les restrictions sur l’utilisation de l’IA, permettant aux étudiants d’utiliser des outils d’IA mais interdisant l’utilisation de technologies capables de détecter les devoirs d’IA. Cette mauvaise décision affaiblira considérablement la capacité de supervision de l’enseignant.
Une étude récente de l’Université de Reading au Royaume-Uni montre que les enseignants sont presque incapables de reconnaître le travail académique généré par l’IA. L’équipe de recherche a soumis des devoirs générés par l’IA sous de fausses identités d’étudiant et a constaté que 94 % des travaux soumis n’étaient pas détectés. Si des normes de détection plus strictes étaient appliquées, 97 % des soumissions d’IA ne seraient toujours pas signalées comme une génération possible d’IA. Cela montre que même dans des circonstances idéales, le taux de reconnaissance des travaux d’IA par les enseignants est très faible.
Ce n’est pas la première fois qu’un tel avertissement apparaît. Des recherches antérieures de l’Université de Floride du Sud ont montré que les experts linguistiques étaient incapables de faire la distinction entre le texte généré par l’IA et le texte écrit par l’homme. Une autre étude menée au Vietnam a montré que le système de détection de l'IA était capable d'identifier efficacement le texte de l'IA, alors que la capacité de reconnaissance des enseignants humains était loin derrière.
De plus, les dernières recherches ont révélé que les devoirs générés par l’IA ont tendance à obtenir des résultats plus élevés que ceux des vrais étudiants. La recherche montre que 83,4 % du temps, les devoirs soumis par l'IA ont obtenu des résultats supérieurs à ceux sélectionnés au hasard par des étudiants humains similaires. Cela signifie que les étudiants qui utilisent des outils d’IA de base sont plus susceptibles d’obtenir des résultats plus élevés que ceux qui terminent leurs devoirs avec soin.
Dans les salles de classe réelles, même si les systèmes de détection peuvent signaler les tâches d’IA, les professeurs hésitent souvent à signaler l’intégrité académique, et de nombreuses écoles ne disposent pas de mesures punitives adéquates pour les contrevenants. En résumé, si les écoles n’utilisent pas la technologie de détection de l’IA, les élèves qui utilisent l’IA pour tricher peuvent presque facilement obtenir des scores plus élevés sans craindre d’être découverts.
L’environnement actuel des cours en ligne aggrave ce problème, les enseignants étant incapables de connaître véritablement l’identité de leurs élèves, ce qui augmente le risque de tricherie. Bien que les écoles puissent résoudre ce problème en surveillant les tests ou en utilisant des environnements d'écriture permettant de suivre les révisions, de nombreuses écoles ne sont pas disposées à dépenser de l'énergie et de l'argent pour mettre en œuvre ces mesures. Le phénomène de la fraude scolaire devient donc de plus en plus grave et les réponses efficaces à ce problème restent insuffisantes.
Face à la crise de l'intégrité académique provoquée par l'IA, les écoles et les établissements d'enseignement doivent prendre activement des mesures, telles que le renforcement de l'application de la technologie de détection de l'IA, l'amélioration des méthodes d'enseignement, le développement de la pensée critique des étudiants et la formulation de normes d'intégrité académique et de mesures punitives plus strictes. . Ce n’est qu’ainsi que l’on pourra relever efficacement les défis et maintenir l’équité et la justice dans l’éducation.