Cela fait deux ans que ChatGTP a fait ses débuts publics, et dans aucun secteur son impact n’a été plus dramatique et préjudiciable que celui de l’éducation. De plus en plus, les devoirs et la rédaction des examens sont effectués par l’IA générative plutôt que par les étudiants, remis et présentés comme un travail authentique pour les notes, les crédits et les diplômes.
Il s’agit d’un problème grave qui dévalorise le diplôme d’études secondaires et le diplôme collégial. Cela envoie également un nombre incalculable de personnes soi-disant qualifiées vers des carrières et des postes tels que les infirmiers, les ingénieurs et les pompiers, où leur manque d’apprentissage réel pourrait avoir des conséquences dramatiques et dangereuses.
Mais dans l’ensemble, mettre fin à la fraude scolaire liée à l’IA n’a pas été une priorité pour la plupart des écoles ou des établissements d’enseignement. Incroyablement, quelques écoles ont activement rendu plus facile et moins risqué l’utilisation de l’IA pour raccourcir les résultats scolaires, en autorisant l’utilisation de l’IA, mais interdire la technologie fiable qui peut le détecter.
Désactiver ces systèmes d’alerte précoce est une grave erreur de calcul car, comme le souligne une fois de plus une nouvelle étude britannique, les enseignants ne peuvent absolument pas ou ne repèrent pas les travaux académiques crachés par un chatbot.
L’article, rédigé par Peter Scarfe et d’autres de l’Université de Reading au Royaume-Uni, a examiné ce qui se passerait lorsque des chercheurs créeraient de faux profils d’étudiants et soumettraient les travaux les plus élémentaires générés par l’IA pour ces faux étudiants à l’insu des enseignants. L’équipe de recherche a constaté que « dans l’ensemble, les soumissions d’IA étaient presque indétectables, 94 % d’entre elles n’étant pas détectées. Si nous adoptons un critère de « détection » plus strict, exigeant que le drapeau mentionne spécifiquement l’IA, 97 % des soumissions d’IA n’ont pas été détectées.
Vous avez bien lu : 97 % des travaux sur l’IA dans les cours universitaires n’ont pas été signalés comme une IA possible par les enseignants. Mais c’est en réalité pire que cela, comme le dit également le rapport : « Dans l’ensemble, notre taux de détection de 6 % surestime probablement notre capacité à détecter l’utilisation réelle de l’IA pour tricher aux examens. »
Ce n’est pas la première fois qu’on nous prévient que les humains ne peuvent pas trouver le travail de l’IA par eux-mêmes. L’année dernière, une étude de l’Université de Floride du Sud a conclu que les linguistes ne pouvaient pas faire la différence entre un texte créé par l’IA et un texte écrit par des humains.
Une autre étude menée l’année dernière – celle-ci menée dans des universités américaines au Vietnam – a révélé que les détecteurs d’IA étaient bien meilleurs que les enseignants humains pour détecter les textes d’IA. L’équipe vietnamienne a écrit : « Bien que (le système de détection de l’IA) Turnitin ait correctement identifié 91 % des articles comme contenant du contenu généré par l’IA, les membres du corps professoral n’ont officiellement signalé que 54,5 % des articles comme cas potentiels de mauvaise conduite académique. »
Dans cette étude, les enseignants avaient été informés à l’avance que des travaux utilisant l’IA seraient soumis dans leurs cours et ils n’en ont trouvé qu’un peu plus de la moitié. Cette étude a également utilisé une « ingénierie rapide » pour rendre les documents plus difficiles à repérer pour les détecteurs d’IA. Pourtant, les machines ont capturé 91 %. Les humains, 55%. Et les écoles éteignent ces machines.
Encore une fois, on a dit aux humains de les chercher et ils ont quand même respiré. Lorsque les humains ne sont pas mis en alerte et que les détecteurs d’IA ne sont pas utilisés, comme ce fut le cas dans une étude britannique plus récente, le travail de l’IA est presque à chaque fois manqué.
Pire encore, l’étude britannique a également révélé qu’en moyenne, le travail créé par l’IA était mieux noté que le travail humain réel. « Nous avons constaté que dans 83,4 % des cas, les notes obtenues grâce aux soumissions d’IA étaient supérieures à une sélection aléatoire du même nombre de soumissions d’étudiants », indique le reportage.
En d’autres termes, un élève utilisant l’invite d’IA la plus élémentaire, sans aucune modification ni révision, avait 83 % de chances de surpasser un camarade qui avait réellement fait le travail – tout en ayant une chance généreuse de 6 % d’être signalé si les enseignants le faisaient. n’utilisez aucun logiciel de détection d’IA. Gardez à l’esprit que, dans les salles de classe réelles, un signalement d’utilisation suspectée d’IA ne signifie pas grand-chose puisque les professeurs sont très réticents à poursuivre les cas d’intégrité académique, et même lorsqu’ils le font, les écoles sont souvent encore plus réticentes à imposer des sanctions.
Récemment, la BBC a couvert le cas d’un étudiant universitaire qui a été surpris en train d’utiliser l’IA dans un essai académique, capturé d’ailleurs par un détecteur d’IA. L’élève a admis avoir utilisé l’IA en violation des règles de la classe et de l’école. Mais, a rapporté la BBC, « elle a été innocentée car un panel a jugé qu’il n’y avait pas suffisamment de preuves contre elle, bien qu’elle ait admis avoir utilisé l’IA. »
À l’heure actuelle, si une école ou un enseignant ne bénéficie pas de l’aide de la technologie de détection de l’IA, utiliser l’IA pour tricher est très susceptible d’améliorer vos notes tout en n’ayant pratiquement aucune chance que quelque chose de grave se produise. En d’autres termes, si votre école n’utilise pas de systèmes de détection d’IA, il faudrait être idiot pour pas utilisez l’IA dans vos cours et examens, surtout si vos camarades de classe le sont. Alerte spoiler – ils le sont.
Il ne faut pas oublier dans les résultats de la nouvelle étude britannique que les faux étudiants suivaient des cours en ligne et que leurs faux cours étaient soumis en ligne – où les enseignants ne pouvaient absolument rien savoir de leurs étudiants, y compris s’ils étaient réellement humains. Cela met en évidence la réalité selon laquelle les cours en ligne sont plus vulnérables à la triche, et en particulier à la triche de l’IA, car les enseignants ne connaissent pas leurs étudiants et ne peuvent pas observer leur travail.
Naturellement, les écoles pourraient également utiliser la technologie pour résoudre ce problème, soit en surveillant les devoirs et les examens, soit en utilisant des environnements d’écriture qui suivent les modifications et les révisions. Mais tout comme l’utilisation de détecteurs d’IA en premier lieu, de nombreuses écoles ne veulent pas non plus faire ces choses parce que cela demande du travail et coûte de l’argent.
Au lieu de cela, ils préfèrent dispenser des cours en ligne sans détecteurs d’IA, sans surveillance des tests et sans possibilité de vérifier le travail – laissant aux enseignants le soin de jouer le rôle de détectives d’IA. C’est une solution qui ne fonctionne pas, qui ne fonctionne pas et qui ne fonctionnera pas.
En conséquence, la fraude est endémique, en grande partie parce que les écoles ne s’intéressent pas à la détection et aux conséquences. Deux ans plus tard, l’IA est là. La volonté de limiter son pouvoir corrosif n’est pas encore au rendez-vous.