Madeleine terminait son stage d'infirmière lorsqu'un courriel lui est parvenu avec pour objet « Inquiétude en matière d'intégrité académique ». À l'intérieur, l'accusation (fausse) d'avoir utilisé l'intelligence artificielle pour rédiger un devoir. Elle n'avait rien fait de tel, mais peu importait. L'université disposait d'un rapport généré par une autre IA, et cela suffisait. Six mois plus tard, elle était toujours là, expliquant pourquoi, qui sait, le système s'était peut-être trompé.
Entre-temps, son CV indiquait « résultats en attente », et aucun hôpital ne la recherchait. C'est un court-circuit parfait : une IA qui accuse les étudiants d'utiliser l'IA, en se basant sur une autre IA qui ne fonctionne pas bien. Et ce sont les gens qui paient, pas les algorithmes. Ce n'est pas Black Mirror, et je ne l'ai pas inventé : c'est vraiment arrivé.
Six mille cas, quatre-vingt-dix pour cent d'erreurs
L'Université catholique australienne a enregistré près de 6 000 cas de plagiat présumé en 2024. 90 % d’entre eux impliquaient l’intelligence artificielle. Le problème ? Un nombre important de ces étudiants n'avaient rien fait de mal. Toutes ces accusations étaient fausses. Le détecteur utilisé par l'université… TurnitinIl avait simplement décidé que ces textes étaient trop bien écrits pour être humains. Un compliment, en théorie. Une condamnation, en pratique.
Tania Broadley, vice-chancelière de l'ACU, a déclaré à l'ABC que les chiffres étaient « considérablement surestimés ». Elle a reconnu une augmentation des cas de mauvaise conduite académique, mais a refusé de commenter le nombre d'étudiants victimes de fausses accusations. Un quart des signalements ont été archivés après enquête. Mais les mois perdus ne sont pas récupérés.
Le cas de Madeleine n’est pas isolé. Des centaines d’étudiants ont dû soumettre des historiques de navigation complets, des notes manuscrites et des justifications détaillées. sur des choses qu'ils n'avaient pas faites. Comme l'a confié un étudiant en médecine urgentiste à ABC :
« Ce ne sont pas des policiers. Ils n'ont pas de mandat pour demander votre historique de navigation. Mais quand vous risquez de devoir refaire un cours, ils font ce qu'ils veulent. »
Turnitin, le système qui admet qu'il n'est pas fiable
Sur son propre site Web, Turnitin prévient que Le détecteur d’IA « ne devrait pas être utilisé comme seule base pour prendre des mesures défavorables à l’encontre d’un étudiant »L'entreprise a admis que son taux de faux positifs au niveau des documents est inférieur à 1 % pour les documents contenant 20 % ou plus de contenu IA. Mais au niveau de la peine, le taux monte à 4%. Et quand le texte mélange écriture humaine et IA, les problèmes se multiplient.
Un étudiant a déclaré à ABC : « C’est une IA qui détecte une IA, et presque tout mon essai était surligné en bleu : 84 % aurait été écrit par une IA. » Son texte était entièrement original. Mais l'algorithme s'en fichait.
L'Université Vanderbilt a complètement désactivé le détecteur d'IA de Turnitin. Dès 2023, invoquant des inquiétudes quant à sa fiabilité. L'université a calculé qu'avec 75 000 articles soumis chaque année et un taux de faux positifs de « seulement » 1 %, Environ 750 étudiants ont été faussement accusés. C'est beaucoup trop.
Le problème n’est pas seulement technique
L'université australienne était au courant des problèmes du système depuis plus d'un an avant de le mettre hors service en mars 2025. Documents internes consultés par ABC montrer que le personnel était au courant de la« fiabilité limitée de l'outil » et « incapacité à distinguer l'édition assistée par l'IA de la génération complète »Mais les fausses accusations ont continué pendant des mois.
Le phénomène ne se limite pas à l’Australie. En Italie, plusieurs universités mettent en œuvre des logiciels anti-plagiat avancésL'Université de Padoue a mis en place un nouveau serveur anti-plagiat plus sophistiqué. L'Université de Vérone a intégré un logiciel capable d'identifier les textes générés artificiellement.Université de Ferrare Il a annulé un examen complet de psychobiologie après avoir découvert que certains étudiants avaient utilisé ChatGPT, sans pouvoir identifier les responsables.
Un détail que je ne voudrais pas négliger : un Étude de Stanford Des études ont révélé que les détecteurs d'IA présentent un biais à l'encontre des anglophones non natifs. Les algorithmes ont tendance à signaler plus fréquemment les textes rédigés par des étudiants étrangers comme étant « générés par l'IA ». Ce problème aggrave la discrimination.
Fausses accusations de plagiat : une situation paradoxale
Les universités adoptent l'intelligence artificielle. De nombreuses ils ont des partenariats avec des entreprises technologiques Intégrer l'IA à l'enseignement. Ils accusent ensuite les étudiants d'utiliser les mêmes outils. Le message est confus : l'IA est l'avenir, mais l'utiliser revient à escroquer.
Dans l'intervalle, selon une enquête italienne75 % des étudiants ayant passé leurs examens finaux en 2023 ont admis avoir utilisé des outils d'IA pour les préparer. 18 % des étudiants âgés de 16 à 18 ans utilisent l'IA dans le cadre de leurs cours. La technologie est là, accessible, et les étudiants l'utilisent. Il serait irréaliste de s'attendre à ce qu'ils ne le fassent pas.
Que se passe-t-il maintenant
Comme mentionné précédemment, le système anti-plagiat a été abandonné et les problèmes personnels ont été progressivement (et trop lentement) mis de côté. Pour Madeleine, par exemple, il est désormais trop tard. Elle a perdu six mois, une opportunité d'emploi et sa confiance dans le système. « Je ne savais plus quoi faire. Retourner à l'école ? Abandonner et faire autre chose que des soins infirmiers hospitaliers ? » a-t-elle confié à ABC.
Cette affaire montre ce qui se passe lorsque nous déléguons notre jugement à des systèmes que nous ne comprenons pas entièrement. Les algorithmes peuvent être utiles, mais ils ne sont pas infaillibles. Et lorsqu'ils se trompent, ce sont les citoyens qui en paient les conséquences. Non pas par des données corrompues ou des erreurs de calcul, mais par des carrières ruinées et des années gâchées. L’intelligence artificielle peut paraître plus compatissante que les humains dans certains contextes, mais quand il s'agit de porter de fausses accusations, cela montre seulement à quel point il est dangereux de lui confier des décisions qui pourraient changer une vie.
Comme toujours, le problème ne vient pas de l'IA, mais de la confiance aveugle que certains lui accordent.