Le LLM du chatbot Grok-4 de xAI d’Elon Musk est victime d’un Jailbreak deux jours après sa sortie, mettant en évidence une vulnérabilité critique qui permet de réaliser des objectifs nuisibles

Le LLM du chatbot Grok-4 de xAI d'Elon Musk est victime d'un Jailbreak deux jours après sa sortie, mettant en évidence une vulnérabilité critique qui permet de réaliser des objectifs nuisibles.Un rapport a révélé que la dernière version du LLM de xAI, ...

Le LLM du chatbot Grok-4 de xAI d'Elon Musk est victime d'un Jailbreak deux jours après sa sortie, mettant en évidence une vulnérabilité critique qui permet de réaliser des objectifs nuisibles.

Un rapport a révélé que la dernière version du LLM de xAI, Grok-4, a déjà été victime d'un jailbreak sophistiqué. L'équipe de NeuralTrust a combiné Echo Chamber et Crescendo pour pirater le LLM. L'objectif était d'inciter le modèle à révéler les instructions de fabrication d'un cocktail Molotov, un exemple...