Il y a dix ans, les réseaux sociaux étaient célébrés comme les fers de lance des soulèvements démocratiques dans le monde arabe et au-delà. Aujourd’hui, les unes des journaux regorgent d’articles sur leur rôle dans la désinformation, les manipulations, les cyberattaques et les dangers pour la santé mentale. Un sondage de 2022 révèle que les Américains accusent les plateformes sociales d’être responsables de la dégradation du discours politique, de la propagation de fausses informations et de l’aggravation de la polarisation.

L’intelligence artificielle est aujourd’hui la nouvelle technologie en vogue. Comme les réseaux sociaux, elle a le potentiel de transformer le monde de multiples façons, dont certaines peuvent être bénéfiques pour la démocratie. Mais elle peut également causer des dommages importants à la société.

L’évolution non réglementée des réseaux sociaux au cours de la dernière décennie nous offre de précieux enseignements applicables aux entreprises et aux technologies d’intelligence artificielle. En tirant parti de ces leçons, nous pouvons éviter de reproduire avec l’IA les erreurs commises avec les réseaux sociaux.

Cinq caractéristiques fondamentales des réseaux sociaux ont eu un impact négatif sur la société. L’intelligence artificielle possède également ces attributs. Il est important de noter qu’elles ne sont pas intrinsèquement mauvaises. Elles constituent plutôt des épées à double tranchant, pouvant être utilisées à bon ou à mauvais escient. Le danger réside dans les mains de ceux qui les manient et dans la direction vers laquelle elles sont dirigées. Cela a été vrai pour les médias sociaux et le sera tout autant pour l’IA. Dans les deux cas, la solution réside dans la limitation et le contrôle de l’utilisation de ces technologies.

1. La publicité

Dès les débuts de la commercialisation en ligne, la publicité s’est imposée comme le modèle économique dominant sur internet. Deux facteurs majeurs ont contribué à son adoption :

  • L’absence de solutions de micropaiement pour des actions comme la consultation de pages web.
  • L’habitude des utilisateurs à la gratuité, qui les rendait réticents à l’idée de payer pour des services via des abonnements.

La publicité s’est donc présentée comme la solution la plus simple et la plus accessible, bien qu’elle ne soit pas exempte de défauts. Ce modèle a également été largement adopté par les réseaux sociaux, qui privilégient désormais l’engagement des utilisateurs à tout autre objectif.

Les géants du web, Google et Facebook, misent désormais sur l’intelligence artificielle pour maintenir leur domination sur le marché de la publicité en ligne, estimé à plusieurs milliards de dollars. D’autres acteurs, comme Microsoft et Amazon, traditionnellement moins dépendants de la publicité, voient dans l’IA un moyen de conquérir une part plus importante de ce gâteau.

L’IA : vers une publicité plus persuasive, mais plus intrusive ?

Les leaders du secteur promettent des publicités plus performantes grâce à l’IA. Google vante sa capacité à adapter les messages publicitaires en fonction des recherches des utilisateurs, tandis qu’Amazon propose des outils de génération d’images pour rendre les pages produits plus attractives. IBM, de son côté, met en avant son IA Watson pour optimiser les campagnes publicitaires.

Si ces techniques frôlent parfois la manipulation, le danger principal réside dans l’intégration de la publicité dans les chatbots d’IA. À l’instar de Google et Meta qui intègrent des publicités dans les résultats de recherche et les fils d’actualité, les entreprises d’IA seront tentées de faire de même dans les conversations. Le caractère relationnel et humain de ces interactions rend la distinction entre une recommandation sincère et une publicité déguisée encore plus difficile.

Alors que nous avons appris à ignorer les publicités sur les plateformes traditionnelles, il sera beaucoup plus ardu de discerner si un chatbot mentionne un produit en réponse à une question légitime ou en raison d’une rémunération occulte de la part d’un fabricant.

2. La surveillance

La dépendance des réseaux sociaux à la publicité comme source de revenus principale a engendré la personnalisation, et par conséquent, une surveillance accrue des utilisateurs. Pour garantir aux annonceurs un ciblage publicitaire optimal, les plateformes sociales collectent un maximum d’informations personnelles.

L’ampleur de cette surveillance est considérable. Une étude récente de Consumer Reports révèle que chaque utilisateur Facebook est suivi par plus de 2 200 entreprises différentes.

Les plateformes alimentées par l’IA et financées par les annonceurs risquent de subir les mêmes pressions que les réseaux sociaux. On peut facilement imaginer un opérateur de chatbot facturant une prime pour un ciblage précis des utilisateurs basé sur leur localisation, leurs préférences ou leur historique de conversation, afin de les inciter à acheter des produits.

Le risque de manipulation s’amplifie avec l’utilisation de l’IA pour les services personnels. L’un des attraits de l’IA générative réside dans la création d’assistants numériques personnels ultra-performants, capables de vous défendre et de vous servir de majordome. Cela implique un niveau d’intimité supérieur à celui que vous entretenez avec votre moteur de recherche, votre messagerie, votre service de stockage en ligne ou votre téléphone. Vous souhaiterez qu’il vous accompagne en permanence et, pour maximiser son efficacité, il devra tout connaître de vous. Il deviendra un ami de confiance, et vous finirez par vous fier à sa discrétion, à tort.

Même en refusant de partager votre mode de vie et vos préférences avec un assistant IA, la technologie peut permettre aux entreprises de vous connaître davantage. Des démonstrations préliminaires montrent comment les chatbots peuvent extraire subtilement des données personnelles en posant des questions banales. L’intégration croissante des chatbots dans divers systèmes, tels que les services clients ou les interfaces de recherche web, pourrait rendre ce type de collecte de données inévitable.

3. La viralité

Les réseaux sociaux offrent à chaque utilisateur la possibilité de diffuser ses idées à l’échelle mondiale. Un orateur talentueux sur une estrade peut toucher quelques centaines de personnes en une soirée. Sur Facebook, un adolescent avec un brin de sarcasme peut atteindre des centaines de millions de personnes en quelques minutes.

Il y a dix ans, les technologues espéraient que cette viralité rassemblerait les gens et garantirait l’accès à des vérités cachées. Mais structurellement, les réseaux sociaux ont intérêt à vous montrer du contenu sur lequel vous êtes susceptible de cliquer et de partager, et qui vous retiendra sur la plateforme.

En pratique, cela se traduit souvent par du contenu choquant, provocateur et outrageux. Des études ont montré que les contenus exprimant une animosité maximale envers les opposants politiques génèrent le plus d’engagement sur Facebook et Twitter. Cette incitation à l’indignation favorise et récompense la désinformation.

Le mensonge vole, et la vérité ne le suit qu’en boitant.

Jonathan Swift

Les études confirment cette citation dans le cas des réseaux sociaux : les gens sont plus enclins à partager de fausses informations, car elles semblent plus nouvelles et plus surprenantes. La désinformation virale est malheureusement omniprésente.

L’IA amplifie le problème

L’IA risque d’aggraver le problème en rendant la production et la diffusion de contenu plus facile, plus rapide et plus automatique. Les outils d’IA générative peuvent créer un nombre infini de faussetés sur n’importe quel individu ou sujet, dont certaines deviennent virales. Ces mensonges peuvent être propagés par des comptes sociaux contrôlés par des robots d’IA, capables de partager et de blanchir les fausses informations originales à grande échelle.

Des générateurs de texte et des agents autonomes de plus en plus puissants font déjà sentir leur présence sur les réseaux sociaux. En juillet, des chercheurs de l’université de l’Indiana ont découvert un botnet de plus de 1 100 comptes Twitter utilisant vraisemblablement ChatGPT.

L’IA contribuera à amplifier le contenu viral sur les réseaux sociaux. Elle permettra de créer des sites web et du contenu web, des avis d’utilisateurs et des applications pour smartphones. Elle pourra simuler des milliers, voire des millions, de faux personnages pour donner l’impression erronée qu’une idée, une position politique ou l’utilisation d’un produit est plus répandue qu’elle ne l’est en réalité. Ce que nous percevons comme un débat politique animé pourrait n’être que des robots qui dialoguent entre eux. Et ces capacités ne seront pas réservées aux puissants et aux riches ; les outils d’IA nécessaires seront facilement accessibles à tous.

4. Le verrouillage

Les réseaux sociaux déploient de nombreux efforts pour vous empêcher de quitter leurs plateformes. Ils font en sorte qu’il vous soit difficile de transférer vos données sauvegardées – connexions, messages, photos – vers une autre plateforme. Plus vous utilisez une plateforme sociale, plus vous y investissez du temps et de l’énergie (souvenirs partagés, contacts, organisation), plus il devient difficile de la quitter. C’est comme si vous construisiez un mur qui vous empêche de passer à autre chose.

Ce concept de verrouillage n’est pas propre aux médias sociaux. Microsoft a cultivé des formats de documents propriétaires pendant des années pour vous inciter à continuer à utiliser son produit phare Office. Votre service de musique ou votre lecteur de livres électroniques vous empêche de transférer le contenu que vous avez acheté vers un service ou un lecteur concurrent. Mais les médias sociaux portent ce problème à un niveau supérieur.

Quelle que soit la gravité de la situation, il est très difficile de quitter Facebook si tous vos amis s’y trouvent. Il est impossible de coordonner le départ de tout le monde vers une nouvelle plateforme, c’est pourquoi personne ne le fait.

L’IA : un piège à données ? 

De la même manière, les entreprises qui créent des assistants numériques personnels dotés d’une IA s’assureront qu’il est difficile pour les utilisateurs de transférer cette personnalisation à une autre IA. Si les assistants personnels dotés d’IA parviennent à devenir des outils de gain de temps extrêmement utiles, ce sera parce qu’ils connaissent les tenants et les aboutissants de votre vie aussi bien qu’un bon assistant humain ; voudriez-vous renoncer à cela pour prendre un nouveau départ sur le service d’une autre entreprise ? Si vous considérez votre IA comme un ami ou un thérapeute, il peut s’agir d’une forme puissante de verrouillage.

Le verrouillage est une préoccupation importante, car il se traduit par des produits et des services moins réactifs à la demande des clients. Plus il vous est difficile de passer à un concurrent, plus l’entreprise peut vous maltraiter. En l’absence de tout moyen de forcer l’interopérabilité, les entreprises spécialisées dans l’IA sont moins incitées à innover en matière de fonctionnalités ou à rivaliser sur les prix, et ont moins de scrupules à se livrer à la surveillance ou à d’autres comportements répréhensibles.

5. La monopolisation

De nombreuses plateformes sociales, initialement prometteuses et utiles, se transforment en machines à exploiter leurs utilisateurs au profit des entreprises clientes. Elles s’approprient la valeur créée et dégradent l’expérience pour tous. C’est le cas de Facebook, Twitter et, plus récemment, TikTok.

La structure des plateformes technologiques favorise la concentration du pouvoir entre les mains de quelques géants. Ce verrouillage est si puissant que six entreprises seulement (Amazon, Apple, Google, Facebook, Microsoft et Nvidia) ont atteint une valeur de marché d’un billion de dollars ou plus chacune. Ces entreprises utilisent leur richesse pour empêcher toute loi qui pourrait limiter leur pouvoir et s’entendent parfois pour augmenter encore leurs profits.

L’IA : un nouveau terrain de jeu pour les monopoles

Ce cycle se répète déjà dans le domaine de l’IA. OpenAI, avec son produit phare ChatGPT, en est un exemple frappant. Un an après son lancement, OpenAI a atteint une valorisation d’environ 90 milliards de dollars.

OpenAI se présentait comme une alternative « ouverte » aux mégacorporations, un transporteur commun pour les services d’IA avec une mission sociale à but non lucratif. Cependant, le licenciement puis la réembauche de Sam Altman fin 2023, et le rôle central de Microsoft dans ce retournement de situation, ont montré comment le financement par capital-risque issu de l’élite technologique imprègne et contrôle l’IA des entreprises. En janvier 2024, OpenAI a franchi un pas vers la monétisation de sa base d’utilisateurs en lançant son magasin GPT, où un client peut facturer à un autre l’utilisation de ses versions personnalisées du logiciel OpenAI. OpenAI, bien sûr, prélève des revenus des deux côtés. Cela enclenche le cycle d’exploitation.

Atténuer les risques de l’IA : une nécessité urgente

Atténuer les risques de l'IA

Les risques que l’IA fait peser sur la société ne sont pas nouveaux, mais leur ampleur est sans précédent. Contrairement à l’avènement des médias sociaux, nous avons aujourd’hui la chance d’anticiper et de prévenir les dangers potentiels.

L’absence de réglementation des réseaux sociaux a eu des conséquences néfastes. En dépit des preuves accablantes de leurs effets néfastes, ces plateformes demeurent largement incontrôlées. Cette situation ne peut se répéter avec l’IA, dont les implications sont encore plus profondes.

L’IA ne se limitera pas à la communication, mais affectera notre manière d’apprendre, de penser, de travailler, de créer et même de diagnostiquer des maladies. Son intégration croissante dans notre vie quotidienne confère aux entreprises un pouvoir exorbitant, avec des risques conséquents.

Des outils pour moduler le risque

Heureusement, nous disposons de plusieurs moyens pour limiter les dangers de l’IA, à commencer par la réglementation.

  • Restrictions d’activité: Limiter les types d’entreprises et de produits pouvant utiliser l’IA.
  • Transparence: Exiger la divulgation des données et des modèles d’IA.
  • Surveillance et responsabilité: Prévoir des sanctions en cas de non-respect des règles.

Le droit antitrust est crucial pour empêcher la domination de quelques géants. Il vise à préserver la concurrence et à empêcher l’émergence de monopoles comme Meta. Des mesures complémentaires, telles que la portabilité des données et l’interopérabilité des appareils, peuvent également renforcer la concurrence.

L’application des réglementations publicitaires existantes et le développement d’outils d’IA à option publique par le gouvernement sont des solutions supplémentaires à explorer.

Un débat public ouvert et dynamique est nécessaire pour déterminer les solutions les plus appropriées et les plus urgentes. Il est crucial d’agir rapidement, car les applications de l’IA se développent à grande vitesse.

Contrairement aux médias sociaux, nous avons l’opportunité de façonner l’avenir de l’IA de manière responsable. Ne laissons pas passer cette chance.

Cet article est une adaptation d’un texte rédigé par Nathan E. Sanders & Bruce Schneier, paru le 13 mars 2024 en anglais sur le site technologyreview.com : (https://www.technologyreview.com/2024/03/13/1089729/lets-not-make-the-same-mistakes-with-ai-that-we-made-with-social-media/).