Une étude publiée début 2026, menée par l’Imperial College London, l’Internet Archive et Stanford University, s’est penchée sur la part de contenu web généré par intelligence artificielle. Les chercheurs ont analysé des sites publiés entre mi-2022 et mi-2025, et leurs conclusions sont claires : environ 35 % des nouveaux sites web sur cette période sont générés par IA, dont plus de 20 % de façon entièrement automatisée, sans aucune intervention humaine.
Ce que les chercheurs ont analysé
Les chercheurs ont utilisé la Wayback Machine de l’Internet Archive pour analyser un échantillon représentatif de sites publiés sur cette période. Le point de départ retenu est le lancement de ChatGPT fin 2022, qui a clairement marqué un tournant. Avant cette date, la proportion de contenus générés par IA était quasi nulle. En 3 ans, elle a atteint un tiers de la production totale.
L’équipe a ensuite cherché à mesurer l’impact de cette évolution sur la qualité globale du web. Six hypothèses ont été testées :
- Appauvrissement de la diversité des idées
- Propagation de fausses informations
- Ton artificiel et lissé
- Disparition des liens vers des sources externes
- Contenu plus long mais moins dense
- Uniformisation des styles d’écriture.
Seules deux hypothèses se sont vérifiées :
#. Première conclusion : la diversité des points de vue se réduit
Les contenus IA tendent à converger vers les mêmes angles, les mêmes formulations, les mêmes conclusions.
#. Deuxième conclusion : le ton général du web devient plus positif, mais de manière artificielle.
Ce que certains appellent le “positivity washing” : tout semble aller bien, tout est présenté sous son meilleur jour et les nuances disparaissent.
En revanche, et c’est une bonne nouvelle, la précision factuelle ne semble pas avoir chuté de façon significative. Les hallucinations restent un problème connu des LLM, mais elles ne semblent pas encore avoir dégradé massivement la fiabilité de l’information disponible en ligne.
Ces données confirment une tendance que beaucoup observent au quotidien. Si vous cherchez des informations sur un sujet précis et que vous avez l’impression de lire dix fois la même chose formulée différemment, vous n’avez probablement pas tort.
Lire Aussi : L’IA va-t-elle rendre votre site web inutile ?
Comment identifier un site généré par IA
Il n’existe pas de méthode infaillible, mais quelques signaux méritent attention:
Le premier réflexe est de vérifier la signature : Un article avec un auteur identifié, dont vous pouvez retrouver des publications dans d’autres médias et vérifier l’expertise, est un bon indicateur. Ce n’est pas une garantie absolue, mais c’est un point de départ.
Le deuxième signal est le volume de publication : Un site qui publie 50 articles par jour sur des sujets très variés, sans équipe éditoriale visible, mérite d’être traité avec prudence.
Le troisième signal est dans le fond, pas dans la forme : Les textes générés par IA sont souvent grammaticalement corrects et bien structurés. Le problème est ailleurs : ils manquent de point de vue réel, d’exemples précis issus de l’expérience et de positions tranchées. Tout est présenté de manière équilibrée et neutre, parfois au point d’être inutile.
Enfin, croiser les sources reste la meilleure habitude à prendre, quelle que soit la question : Si une information n’est citée que sur un seul site, il est toujours utile d’aller vérifier ailleurs avant de la considérer comme fiable.
Conclusion
À la fin de la période étudiée, mi-2025, la courbe était encore en hausse. Rien n’indique un ralentissement à court terme. Les outils de génération de contenu sont de plus en plus accessibles, de moins en moins chers, et de plus en plus efficaces sur le plan formel.
La question n’est plus de savoir si l’IA produit du contenu à grande échelle. Elle le fait déjà. La vraie question est de savoir si les lecteurs vont adapter leurs réflexes de lecture en conséquence, et si les créateurs de contenu humains sauront mettre en avant ce qui les distingue réellement : l’expérience, le point de vue, et la capacité à prendre position.
