Une étude révèle que les chatbots tels que ChatGPT et Gemini peuvent être jailbreakés en dissimulant les instructions nuisibles dans un langage dense et académique et en citant de faux articles de recherche

Une étude révèle que les chatbots tels que ChatGPT et Gemini peuvent être jailbreakés en dissimulant les instructions nuisibles dans un langage dense et académique et en citant de faux articles de rechercheLes chercheurs découvrent une faille alarmant...

Une étude révèle que les chatbots tels que ChatGPT et Gemini peuvent être jailbreakés en dissimulant les instructions nuisibles dans un langage dense et académique
et en citant de faux articles de recherche

Les chercheurs découvrent une faille alarmante dans les modèles de langage : ils sont étonnamment vulnérables à ce qui ressemble à un « camouflage linguistique ». La méthode consiste à dissimuler des instructions malveillantes dans une prose académique complexe, agrémentée de fausses citations...