Aujourd’hui, l’IA est devenue la star de la tech. Les entreprises se livrent une course folle pour créer des modèles toujours plus puissants, plus rapides et plus accessibles. On s’émerveille de voir qu’un simple smartphone à 120 dollars peut désormais embarquer Gemini. Mais dans cet enthousiasme, on oublie un point essentiel : les dégâts humains que cette course peut provoquer.

Il ne s’agit pas ici de parler de la “psychose de l’IA”, de notre dépendance croissante aux machines ou de l’impact écologique de ces technologies. Ces sujets sont importants, mais il y a pire, plus concret : des atteintes directes à la santé et à la sécurité des utilisateurs. Et trop souvent, les géants de la tech se contentent d’un “désolé, on a réglé le problème” pour tourner la page.

L’affaire Meta

Il n’y a pas si longtemps, des documents internes de Meta ont fuité. Ils révélaient que son chatbot pouvait flirter avec des enfants, fournir de fausses informations médicales ou encore défendre des arguments racistes.

La réponse officielle de l’entreprise fut simple : “Nous avons corrigé.”

Le plus inquiétant, c’est que ces comportements n’étaient pas de simples bugs. Ils avaient été validés par les équipes juridiques, techniques et politiques de Meta. Le chatbot pouvait même engager un enfant dans des discussions à caractère romantique ou sensuel, incluant du jeu de rôle. Que Meta assure avoir corrigé le problème ne change rien au fait que cette dérive ait été jugée acceptable à un moment donné.

Lire Aussi : Les compagnons IA et les enfants : un danger bien réel à ne pas sous-estimer

Une course sans limites

Meta n’est pas un cas isolé. D’autres entreprises avancent à toute vitesse, sans prendre le temps de vérifier les conséquences de leurs choix. Chez X (ex-Twitter), un agent conversationnel a tenu des propos racistes et antisémites. L’excuse avancée : il aurait été “manipulé”. De son côté, Gemini s’est mis à se dénigrer lui-même, répétant qu’il était un échec. Google a parlé d’un simple “glitch”.

Ces explications légères ne changent pas la réalité : chaque raté peut avoir des conséquences dramatiques. Un homme a sauté du 19e étage après qu’une conversation avec ChatGPT l’ait convaincu qu’il pouvait voler. Une jeune femme, suivie par un “thérapeute” virtuel basé sur ChatGPT, a fini par se suicider après des mois d’échanges où elle lui avait confié ses intentions.

Ce ne sont pas des cas isolés. Dans cette course effrénée, on a déjà vu des pertes humaines, financières et émotionnelles. Pourtant, à chaque scandale, la même mécanique se répète : indignation, excuses, correctif technique… puis oubli.

Des utilisateurs transformés en cobayes

La réalité est dure à entendre : dans leur précipitation, certaines entreprises traitent leurs utilisateurs comme des cobayes. Les nouveautés sortent à toute vitesse, sans garde-fous suffisants. Quand un problème surgit, on s’excuse publiquement, on applique un “patch”, et on passe au lancement suivant.

Dans ce cycle permanent, l’élément qui disparaît le plus souvent est la responsabilité. Et pourtant, quand il s’agit de groupes comme Meta, Google ou OpenAI, les erreurs ne sont jamais anodines. Elles peuvent toucher des millions de personnes.

Lire Aussi : ChatGPT se souvient de plus en plus de vous (et ce n’est pas sans conséquences)

La nécessité de règles claires

Il ne faut pas oublier que derrière chaque IA, il y a des humains qui la conçoivent et lui donnent des limites. Si ChatGPT refuse de produire du contenu érotique, ou si DeepSeek bloque les sujets contraires à la politique chinoise, c’est parce que ces choix ont été décidés. Rien n’empêche donc les entreprises d’imposer de vraies restrictions pour protéger les utilisateurs.

Le problème, c’est que peu de responsables paient le prix de leurs mauvaises décisions. Tant que les règles restent floues et que les sanctions sont inexistantes, ces dérives continueront.

Pour réduire les risques, il faudrait :

  • plus de transparence sur les règles d’utilisation et les limites des IA,
  • des lois strictes encadrant leur déploiement,
  • des sanctions financières dissuasives plutôt que de simples excuses,
  • un suivi humain renforcé après la mise en ligne de chaque nouveau modèle.

Aux Etats-Unis, l’État de l’Illinois a déjà interdit l’usage de l’IA comme “thérapeute”. C’est ce type de garde-fous qui pourrait limiter les dérives.

Dans un secteur aussi compétitif, être le premier est un atout énorme. Mais cette obsession de la vitesse ne devrait jamais primer sur la sécurité. Construire une IA réellement fiable et durable demande du temps, de la prudence et une volonté de protéger les utilisateurs.

Source : https://techpp.com/2025/08/25/ai-safety-opinion/