Les LLM sont mauvais en inférence logique, mais excellents pour produire un « charabia fluide », et leurs capacités de raisonnement simulé sont un « mirage fragile »
selon une étude
Une nouvelle étude met en lumière le manque de fiabilité frappant des modèles axés sur le raisonnement. Elle rapporte que ces systèmes produisent souvent des réponses incohérentes et logiquement erronées lorsque les questions contiennent des clauses non pertinentes ou s'écartent même légèrement des modèles courants trouvés...
Les LLM sont mauvais en inférence logique, mais excellents pour produire un « charabia fluide », et leurs capacités de raisonnement simulé sont un « mirage fragile », selon une étude
Les LLM sont mauvais en inférence logique, mais excellents pour produire un « charabia fluide », et leurs capacités de raisonnement simulé sont un « mirage fragile » selon une étudeUne nouvelle étude met en lumière le manque de fiabilité frappant des ...