OpenAI continue d’améliorer la mémoire de ChatGPT. Désormais, elle est plus performante, plus automatique, et disponible pour davantage d’utilisateurs, y compris ceux qui utilisent la version gratuite. Une avancée majeure… mais qui soulève aussi quelques questions.

Une IA qui n’oublie (presque) rien

La mémoire de ChatGPT permet au chatbot de retenir certaines informations d’une conversation à l’autre. Cela lui permet de personnaliser ses réponses selon vos préférences.

Par exemple : si vous lui avez déjà dit que vous êtes allergique aux noix, il s’en souviendra et évitera de vous proposer des recettes qui en contiennent lors de futures discussions.

Pour activer cette mémoire, vous pouvez simplement lui dire “Souviens-toi de ça” ou “N’oublie pas ça”.

Et si vous changez d’avis : “Oublie ce que je viens de dire.”

Lire Aussi : Comment ChatGPT peut-il “tout savoir” ?

Une mémoire plus naturelle et fluide

Au départ, la mémoire de ChatGPT fonctionnait comme un carnet de notes personnalisé. Vous pouviez y stocker des infos pour plus tard.

Aujourd’hui, OpenAI veut que cette mémoire fonctionne de manière plus “humaine”, presque instinctive.

Si vous lui parlez de votre projet de perdre du poids, par exemple, ChatGPT retiendra ça et vous en reparlera plus tard, sans que vous ayez à tout lui redire.

L’une des responsables de la personnalisation chez OpenAI a d’ailleurs donné un exemple personnel : Avant un voyage, elle a demandé des conseils santé à ChatGPT, qui, grâce à son historique, a suggéré cinq vaccins au lieu de quatre. L’un d’eux se basait sur de vieux résultats médicaux. L’infirmière qu’elle a consultée ensuite a confirmé que c’était un bon choix.

Le revers de la médaille

Une IA qui se souvient, c’est utile. Mais ça peut aussi déranger.

Revoir une vieille info ressortir dans un nouveau contexte peut être déstabilisant.

Lors du lancement officiel de cette fonction mémoire en février 2024, OpenAI avait assuré qu’elle prendrait des précautions pour éviter tout abus. Par défaut, ChatGPT ne conserve pas d’infos sensibles (comme vos données de santé), sauf si vous le demandez clairement.

Mais la frontière reste floue. Et même si les intentions sont bonnes, l’outil n’est pas infaillible.

Lire Aussi : l’IA comprend vos demandes comme un humain

Des maladresses… pas toujours anodines

Quand une IA mélange tout ce qu’elle sait de vous, ça peut mener à des résultats gênants ou absurdes.

Un développeur, Simon Willison, avait envoyé une photo de son chien, Cleo, et demandé une image où il porte un costume de pélican. ChatGPT l’a fait, mais a aussi ajouté un panneau “Half Moon Bay”. Parce que l’utilisateur avait mentionné cette ville lors d’une ancienne conversation.

Pour Willison, le problème est clair :

“Je fais plein d’essais absurdes avec ces modèles. Je n’ai pas envie qu’un délire de chien en costume interfère plus tard quand je travaille sur quelque chose de sérieux.”

Ce mélange de données personnelles venant de différents domaines (travail, vie privée, loisirs…) porte un nom : le “context collapse”. C’est quand tout se mélange et que les frontières s’effacent.

Ce phénomène touche déjà les réseaux sociaux, les algorithmes de pub… et maintenant les IA génératives.

Exemple :

En 2014, Facebook avait automatiquement proposé à un utilisateur un diaporama “Year in Review” rempli de photos de sa fille. Sauf qu’elle était décédée cette année-là.

Ce genre de maladresse algorithmique a même été baptisé “cruauté algorithmique involontaire”.

Lire Aussi : ChatGPT : quand l’usage intensif vire à la dépendance

Et si on veut reprendre la main ?

OpenAI affirme que les utilisateurs gardent le contrôle.

Vous pouvez :

  • Voir et gérer vos souvenirs dans les paramètres ;
  • Supprimer une mémoire spécifique ou une conversation ;
  • Dire à ChatGPT ce qu’il doit oublier ou retenir.

Et surtout, vos souvenirs ne sont visibles que par vous, selon OpenAI.

La mémoire de ChatGPT est un outil puissant. Elle permet une expérience plus personnalisée et plus fluide. Mais elle pose aussi des questions importantes : respect de la vie privée, exactitude, gestion des souvenirs embarrassants…etc.

Source : axios.com