Un chercheur en sécurité démontre qu'il est possible d'exploiter la fonction Mémoire de ChatGPT
pour implanter de faux souvenirs dans l'outil d'OpenAI et voler les données des utilisateurs à perpétuité
Johann Rehberger, un chercheur en sécurité, a démontré qu'il était possible d'utiliser une technique appelée « injection de prompt indirect » pour implanter des souvenirs malveillants dans ChatGPT. Cette méthode consiste à insérer des instructions dans des contenus non fiables, tels que des emails...
Un chercheur en sécurité démontre qu’il est possible d’exploiter la fonction Mémoire de ChatGPT pour implanter de faux souvenirs dans l’outil d’OpenAI et voler les données des utilisateurs à perpétuité
Un chercheur en sécurité démontre qu'il est possible d'exploiter la fonction Mémoire de ChatGPT pour implanter de faux souvenirs dans l'outil d'OpenAI et voler les données des utilisateurs à perpétuité Johann Rehberger, un chercheur en sécurité, a ...