Un chercheur en sécurité démontre qu’il est possible d’exploiter la fonction Mémoire de ChatGPT pour implanter de faux souvenirs dans l’outil d’OpenAI et voler les données des utilisateurs à perpétuité

Un chercheur en sécurité démontre qu'il est possible d'exploiter la fonction Mémoire de ChatGPT pour implanter de faux souvenirs dans l'outil d'OpenAI et voler les données des utilisateurs à perpétuité Johann Rehberger, un chercheur en sécurité, a ...

Un chercheur en sécurité démontre qu'il est possible d'exploiter la fonction Mémoire de ChatGPT
pour implanter de faux souvenirs dans l'outil d'OpenAI et voler les données des utilisateurs à perpétuité

Johann Rehberger, un chercheur en sécurité, a démontré qu'il était possible d'utiliser une technique appelée « injection de prompt indirect » pour implanter des souvenirs malveillants dans ChatGPT. Cette méthode consiste à insérer des instructions dans des contenus non fiables, tels que des emails...