Les outils de détection de textes IA sont devenus populaires ces dernières années et sont utilisés par de nombreuses personnes et institutions, notamment académiques. Mais ces détecteurs sont loin d’être parfaits. Une nouvelle étude montre qu’ils peuvent être facilement trompés par des manipulations simples, remettant en question leur fiabilité.

Des détecteurs souvent inefficaces

Cette étude, intitulée « Simple techniques to bypass GenAI text detectors : Implications for inclusive education », a été publiée dans l’International Journal of Educational Technology in Higher Education. Elle a été réalisée par une équipe de chercheurs de l’université britannique du Viêt Nam et de l’université James Cook de Singapour.

Le professeur Mike Perkins, auteur principal de l’étude, ne mâche pas ses mots. « Ces détecteurs donnent aux universités une fausse impression de sécurité. Les étudiants peuvent facilement contourner ces outils, rendant leur utilisation peu fiable pour préserver l’intégrité académique », explique-t-il.

En clair, ces détecteurs d’IA sont facilement dupés par des techniques simples. Modifier légèrement le texte généré par une IA, par exemple en y ajoutant des fautes ou en changeant certains mots, suffit souvent à brouiller les pistes.

Lire Aussi : Etude : Les consommateurs sont déçus par les expériences d’IA

Des résultats qui interpellent

L’étude s’est concentrée sur six détecteurs d’IA bien connus, testés sur des échantillons générés par trois outils IA populaires. Certains de ces textes ont été modifiés avec des techniques spécifiques (ajouter des erreurs, changer la structure des phrases..).

Les résultats sont édifiants :

  • Pour les textes générés sans modification, le taux de précision moyen des détecteurs était de seulement 39,5 %.
  • Lorsqu’on appliquait des techniques pour tromper les outils, la précision tombait à 22,14 %.
  • Même pour des textes écrits par des humains, les détecteurs n’étaient précis qu’à 67 %, ce qui pose un sérieux problème de fausses accusations.

Le professeur Perkins souligne que cette marge d’erreur est inacceptable : « Les fausses accusations peuvent gravement nuire à l’avenir des étudiants. Les universités doivent en tenir compte. »

Pourquoi c’est un problème pour l’éducation ?

Ces limites ne sont pas qu’un détail technique. Elles soulèvent des questions sur l’équité et l’inclusion dans l’enseignement supérieur.

D’une part, les étudiants qui maîtrisent bien la technologie peuvent contourner les détecteurs, ce qui crée une inégalité. D’autre part, ces outils risquent de pénaliser injustement les étudiants dont le niveau d’anglais est moins élevé ou qui ont un style d’écriture plus simple.

Selon l’étude, ces détecteurs ne devraient pas être utilisés pour punir les étudiants. Le professeur Perkins recommande plutôt de repenser les méthodes d’évaluation. « Intégrer l’IA de manière responsable dans l’éducation est une meilleure approche que de chercher à sanctionner son utilisation », affirme-t-il.

Lire Aussi : L’IA générative pourrait créer 2,5 millions de tonnes de déchets par an d’ici 2030

Des recommandations pour l’avenir

L’étude propose plusieurs solutions pour améliorer la situation :

  1. Former les enseignants : Les universités devraient investir dans des formations pour aider les professeurs à comprendre et intégrer l’IA dans leurs pratiques.
  2. Changer les évaluations : Plutôt que d’interdire l’IA, il serait plus pertinent de concevoir des évaluations qui incluent son usage de manière réfléchie.
  3. Utiliser l’IA de façon formative : Les détecteurs d’IA peuvent être utiles pour aider les étudiants à améliorer leur style d’écriture.

Le professeur Perkins conclut : « L’objectif n’est pas de piéger les étudiants, mais de leur apprendre à utiliser l’IA de façon éthique et responsable. C’est ainsi que nous préparons les générations futures à travailler avec ces outils. »

À mesure que l’IA prend de l’importance, les universités doivent évoluer. S’appuyer sur des outils imparfaits pour détecter des « tricheurs » ne résoudra rien. Au contraire, cela pourrait fragiliser la crédibilité des diplômes. En revanche, avec l’intégration de l’IA de manière proactive et réfléchie, l’éducation peut transformer cette technologie en une opportunité plutôt qu’en un défi. Mais pour cela, il faut agir vite, avec pragmatisme et ouverture d’esprit.