Une étude révèle que les chatbots tels que ChatGPT et Gemini peuvent être jailbreakés en dissimulant les instructions nuisibles dans un langage dense et académique
et en citant de faux articles de recherche
Les chercheurs découvrent une faille alarmante dans les modèles de langage : ils sont étonnamment vulnérables à ce qui ressemble à un « camouflage linguistique ». La méthode consiste à dissimuler des instructions malveillantes dans une prose académique complexe, agrémentée de fausses citations...
Une étude révèle que les chatbots tels que ChatGPT et Gemini peuvent être jailbreakés en dissimulant les instructions nuisibles dans un langage dense et académique et en citant de faux articles de recherche
Une étude révèle que les chatbots tels que ChatGPT et Gemini peuvent être jailbreakés en dissimulant les instructions nuisibles dans un langage dense et académique et en citant de faux articles de rechercheLes chercheurs découvrent une faille alarmant...