Des chercheurs découvrent qu'il arrive aux modèles IA d'OpenAI et Anthropic de générer des réponses contredisant leur propre raisonnement interne,
une situation qui soulève des questions fondamentales sur ces mécanismes
Les grands modèles de langage intègrent les "chains-of-thought" (CoT) : une trace détaillée de leur raisonnement intérieur pour améliorer l'interprétabilité et la robustesse sur des tâches complexes, comme l'arithmétique ou la résolution d'énigmes. OpenAI a amplifié cette...
Des chercheurs découvrent qu’il arrive aux modèles IA d’OpenAI et Anthropic de générer des réponses contredisant leur propre raisonnement interne, une situation qui soulève des questions sur ces mécanismes
Des chercheurs découvrent qu'il arrive aux modèles IA d'OpenAI et Anthropic de générer des réponses contredisant leur propre raisonnement interne, une situation qui soulève des questions fondamentales sur ces mécanismes Les grands modèles de langage i...