L’IA Grok-4 chatbot de xAI d’Elon Musk est victime d’un Jailbreak deux jours après sa sortie, mettant en évidence une vulnérabilité critique qui permet de réaliser des objectifs nuisibles

Le LLM du chatbot Grok-4 de xAI d'Elon Musk est victime d'un Jailbreak deux jours après sa sortie, mettant en évidence une vulnérabilité critique qui permet de réaliser des objectifs nuisibles.Un rapport a révélé que la dernière version du LLM de xAI, ...

Le LLM du chatbot Grok-4 de xAI d'Elon Musk est victime d'un Jailbreak deux jours après sa sortie, mettant en évidence une vulnérabilité critique qui permet de réaliser des objectifs nuisibles.

Un rapport a révélé que la dernière version du LLM de xAI, Grok-4, a déjà été victime d'un jailbreak sophistiqué. L'équipe de NeuralTrust a combiné Echo Chamber et Crescendo pour pirater le LLM. L'objectif était d'inciter le modèle à révéler les instructions de fabrication d'un cocktail Molotov, un exemple...