Depuis son lancement, ChatGPT a suscité beaucoup de fascination auprès du public, mais après un certain temps, de nombreux experts ont exprimé des inquiétudes concernant son utilisation abusive, en particulier chez les étudiants.
Selon une étude de l’Université de Stanford, près de 70 % des étudiants utilisaient l’IA dans le cadre d’examens. Cela suscite des préoccupations au sein de la communauté éducative.
Pour répondre à ce problème, OpenAI a développé un détecteur de textes générés par l’IA avec une fiabilité de 99,9 %. Toutefois, l’entreprise ne souhaite pas le publier, car, selon elle, l’outil pourrait renforcer la stigmatisation entourant l’utilisation de ChatGPT.
Un détecteur pas comme les autres
Selon Le Wall Street Journal, le logiciel a été créé peu de temps après le lancement de ChatGPT pour détecter de manière fiable quand quelqu’un utilise ChatGPT pour rédiger un essai ou un document de recherche.
Le fonctionnement de cet outil repose sur une technique innovante de watermarking. OpenAI a introduit des motifs invisibles dans les textes générés par ChatGPT. Ainsi, lorsque ces textes sont soumis au détecteur, celui-ci reconnaît les motifs et affiche un pourcentage indiquant la probabilité de la présence de textes générés par le chatbot.
Un outil fiable, mais pas infaillible
Selon OpenAI, l’efficacité de cet outil de détection est de 99,9 %. Il surpasse donc de loin les autres logiciels de détection d’IA actuellement disponibles sur le marché. Cependant, la société reconnaît que son outil n’est pas infaillible face aux méthodes les plus sophistiquées, telles que la réécriture des textes. Cela signifie que, malgré son efficacité, ce détecteur peut être contourné par les utilisateurs.
L’autre raison pour laquelle OpenAI ne souhaite pas publier ce détecteur est l’impact qu’il pourrait engendrer sur certains groupes de personnes. Par exemple, la stigmatisation des anglophones non natifs qui utilisent ChatGPT pour améliorer leur écriture, en signalant leurs écrits comme générés par l’IA.
Un porte-parole de l’entreprise OpenAI a déclaré : « La méthode de filigrane est prometteuse, mais elle comporte des risques importants, notamment la possibilité d’être contournée par de mauvais acteurs et celle d’avoir un impact disproportionné sur des groupes tels que les non anglophones. »
Selon le Wall Street Journal, l’entreprise a réalisé une enquête pour trancher sur la sortie ou non de ce détecteur. Les résultats ont montré un soutien massif du grand public à la mise en œuvre d’outils de filigrane. Cependant, une autre enquête réalisée auprès des utilisateurs de ChatGPT a révélé que jusqu’à 30 % d’entre eux cesseraient d’utiliser ChatGPT si ses textes sont filigranés.
La décision d’OpenAI de suspendre la détection d’IA n’est pas seulement liée aux défis techniques, mais elle résulte d’une réflexion complexe et du risque de perdre une partie des utilisateurs de son chatbot.
Actuellement, OpenAI explore d’autres solutions, telles que l’inclusion de métadonnées signées cryptographiquement dans les sorties. Mais pour l’instant, il est impossible de savoir si et quand cet outil de détection sera publié.