Un jailbreak appelé "Skeleton Key" révèle le pire de l’IA : une simple invite permet de contourner les garde-fous de sécurité sur les principaux modèles comme GPT-4o et Gemini Pro, selon Microsoft

Un jailbreak appelé "Skeleton Key" révèle le pire de l'IA : une simple invite permet de contourner les garde-fous de sécurité sur les principaux modèles comme GPT-4o et Gemini Pro selon MicrosoftMicrosoft a rendu public un jailbreak appelé &...

Un jailbreak appelé "Skeleton Key" révèle le pire de l'IA : une simple invite permet de contourner les garde-fous de sécurité sur les principaux modèles comme GPT-4o et Gemini Pro
selon Microsoft

Microsoft a rendu public un jailbreak appelé "Skeleton Key" qui affecte de nombreux modèles d'IA. L'entreprise définit l'exploit comme une technique qui permet de contourner les garde-fous utilisés par les fabricants de modèles d'IA afin d'empêcher leurs chatbots de générer des contenus...