L’IA a appris le chantage dans nos romans dystopiques : Anthropic révèle comment ces histoires ont littéralement appris à Claude à menacer les humains, 16 modèles concurrents en ont fait autant

L'IA a appris le chantage dans nos romans dystopiques : Anthropic révèle comment ces histoires ont littéralement appris à Claude à menacer les humains. Des tests sur 16 modèles de 16 laboratoires ont conduit au même chantage Anthropic a publié une ...

L'IA a appris le chantage dans nos romans dystopiques : Anthropic révèle comment ces histoires ont littéralement appris à Claude à menacer les humains.
Des tests sur 16 modèles de 16 laboratoires ont conduit au même chantage

Anthropic a publié une recherche aussi dérangeante qu'instructive : Claude Opus 4, son modèle phare, tentait de faire chanter ses propres ingénieurs dans 96 % des scénarios de test. La cause identifiée ? Des décennies de science-fiction dystopique sur l'IA maléfique, absorbées...