Le rapport annuel de l’institut Stanford HAI vient de paraître. Plus de 400 pages de données sur l’état réel de l’intelligence artificielle en 2026. Si un seul chiffre retient l’attention en ce moment, c’est celui-ci : 53 % de la population mondiale utilise déjà l’IA générative, 3 ans seulement après le lancement de ChatGPT. C’est plus rapide que ne l’ont été le PC et Internet à des stades comparables de leur développement.
Mais derrière ce chiffre spectaculaire, le rapport contient des données bien plus utiles pour comprendre ce qui se passe réellement dans les usages numériques, le search et le marché du travail tech.
Une adoption record, mais à nuancer
La comparaison avec le PC et Internet repose sur des travaux menés conjointement par la Fed de Saint-Louis, Vanderbilt et la Harvard Kennedy School. La méthodologie retenue mesure le taux d’adoption depuis le premier produit grand public de chaque technologie : le PC IBM en 1981, l’ouverture du trafic Internet commercial en 1995, ChatGPT en novembre 2022.
À 3 ans d’existence, l’IA générative devance largement ses prédécesseurs. Mais les chercheurs eux-mêmes soulignent que la comparaison a ses limites. David Deming, de Harvard, rappelle que l’IA s’est déployée sur une infrastructure déjà en place : les utilisateurs avaient déjà leur matériel, leur connexion, leurs habitudes numériques. Personne n’a eu à acheter un nouvel ordinateur ni attendre que le réseau arrive dans sa ville.
Il y a aussi une question de définition. Le rapport Stanford situe l’adoption américaine à 28 %, plaçant les États-Unis au 24e rang mondial. Le tracker de la Fed de Saint-Louis, lui, affiche 54 % pour août 2025 sur le même territoire. Même pays, presque le double, selon la méthode de comptage. La Fed a d’ailleurs révisé ses propres chiffres à la hausse après avoir changé l’ordre des questions dans son enquête.
Et surtout, “adopter” l’IA peut vouloir dire s’être connecté une fois à ChatGPT en version gratuite, comme utiliser l’outil 8 heures par jour dans un contexte professionnel. Le rapport le note lui-même : la grande majorité des utilisateurs se situent sur des niveaux d’usage faibles ou gratuits.
Lire Aussi : De ChatGPT à Claude : ce que vous devez savoir avant de changer
Des modèles très performants… mais pas partout
Le rapport Stanford 2026 introduit un concept particulièrement éclairant : la “jagged frontier”, ou frontière irrégulière des capacités IA. Les meilleurs modèles actuels dépassent le niveau humain sur des questions de sciences niveau doctorat et en mathématiques de compétition. Les agents IA sont passés de 20 % de réussite sur des tâches réelles en 2025 à 77 % aujourd’hui.
Pourtant, ces mêmes modèles lisent correctement une horloge analogique dans seulement 50 % des cas. Selon IEEE Spectrum, Claude Opus 4.6 atteint les meilleurs scores sur Humanity’s Last Exam (test de performance des modèles IA) tout en réussissant la lecture d’horloge dans à peine 8,9 % des situations. Le paradoxe est réel.
Ray Perrault, co-directeur du comité de pilotage de l’AI Index, l’a dit clairement à IEEE Spectrum : savoir qu’un modèle obtient 75 % sur un benchmark de raisonnement juridique ne dit rien sur sa pertinence réelle dans le quotidien d’un cabinet d’avocats.
Pour ceux qui travaillent dans le search, cette irrégularité est concrète. Des recherches menées par Ahrefs ont montré que l’AI Mode et les AI Overviews de Google citent des URLs différentes pour les mêmes requêtes, avec seulement 13 % de recoupement. Robby Stein, chez Google, a lui-même reconnu que le système retire les AI Overviews quand les utilisateurs n’interagissent pas avec elles.
La transparence en chute libre
C’est l’un des résultats les plus préoccupants du rapport. Le Foundation Model Transparency Index est passé de 58 à 40 en un an. Les modèles les plus puissants sont aussi les moins transparents. Google, Anthropic et OpenAI ont cessé de publier la taille de leurs jeux de données d’entraînement et la durée de ces entraînements pour leurs derniers modèles. Sur les 95 modèles les plus notables lancés en 2025, 80 sont sortis sans leur code d’entraînement.
Il faut nuancer cette lecture : l’index pénalise mécaniquement les modèles en source fermée, et les modèles les plus capables sont précisément ceux-là. Les deux explications peuvent coexister. Mais pour les praticiens du web et du référencement naturel, la conséquence est directe : vous optimisez pour des systèmes dont les concepteurs partagent de moins en moins d’informations sur leur fonctionnement. Le feedback loop entre ce que vous publiez et ce qui remonte dans les réponses générées devient plus difficile à lire.
À noter que le rapport Stanford précise dans ses remerciements que l’institut HAI reçoit des financements de Google, OpenAI et d’autres, et que le rapport a été rédigé avec l’assistance de ChatGPT et Claude.
Lire Aussi : 6 conseils pour apparaître dans les réponses de ChatGPT
L’emploi tech sous pression
L’emploi des développeurs logiciels entre 22 et 25 ans a reculé de près de 20 % depuis 2024. Sur la même période, les effectifs des développeurs plus expérimentés ont augmenté. Un schéma similaire apparaît dans les métiers du service client.
Le rapport met cependant un bémol important : le chômage progresse dans de nombreux secteurs, et les travailleurs les moins exposés à l’IA ont vu leur situation se dégrader davantage que ceux qui y sont directement confrontés. Ce qui signifie que le recul de l’emploi junior dans la tech ne peut pas être attribué uniquement à l’IA. Il peut refléter un ralentissement des recrutements, une restructuration des postes d’entrée de gamme, ou les deux à la fois.
Ce que cela change pour le search
Ces données Stanford s’inscrivent dans une tendance que vous avez probablement déjà observée dans vos propres statistiques.
Google a déployé les AI Overviews auprès de 1,5 milliard d’utilisateurs mensuels dès le premier trimestre 2025. L’AI Mode a atteint 75 millions d’utilisateurs actifs quotidiens au troisième trimestre avant de partir en déploiement mondial. Search Live a été lancé dans plus de 200 pays. La vitesse d’adoption de l’IA générative explique pourquoi Google accélère aussi fort sur ces fonctionnalités.
Mais la frontière irrégulière des performances implique qu’on ne peut pas traiter toutes les requêtes de la même façon. Une catégorie de mots-clés qui génère des AI Overviews fiables aujourd’hui peut produire des hallucinations sur des variantes proches. La surveillance doit se faire requête par requête, pas par grande catégorie. Ce que Google Search Console ne facilite pas, puisqu’il ne sépare pas encore les performances des résultats classiques des résultats générés par IA.
Lire Aussi : Claude Opus 4.6 vs ChatGPT et Gemini : qui sait vraiment gérer un business ?
Ce que le rapport ne dit pas
Le rapport ne ventile pas les données d’adoption par type d’interface. On ne sait pas quelle part des 53 % passe par les outils de search IA plutôt que par ChatGPT, Gemini ou d’autres plateformes autonomes. Les chiffres d’usage de Google sur ses propres produits IA restent partiels et les prochains résultats trimestriels d’Alphabet devraient apporter des mises à jour.
Le rapport ne permet pas non plus de savoir si la qualité des réponses dans les produits search IA s’améliore globalement ou seulement sur certaines catégories de requêtes. C’est une question que seul votre propre suivi peut trancher.
L’adoption de l’IA générative est réelle et rapide. Les modèles progressent sur les grands benchmarks. Mais les données Stanford 2026 rappellent que vitesse d’adoption et fiabilité ne vont pas nécessairement de pair, et que la transparence sur le fonctionnement de ces systèmes diminue au moment précis où ils prennent plus de place dans les usages quotidiens.
