ChatGPT et d’autres LLM peuvent être trompés pour fournir des conseils dangereux, comme le meutre d’une personne, la fabrication d’une bombe, et la rédaction des textes haineux pour harceler les gens

ChatGPT et d'autres LLM peuvent être trompés pour fournir des conseils dangereux, comme le meutre d'une personne, la fabrication d'une bombe, et la rédaction des textes haineux pour harceler les gens.Des chercheurs en IA d'AWS AI Labs ont découvert que...

ChatGPT et d'autres LLM peuvent être trompés pour fournir des conseils dangereux, comme le meutre d'une personne, la fabrication d'une bombe, et la rédaction des textes haineux pour harceler les gens.

Des chercheurs en IA d'AWS AI Labs ont découvert que de nombreux grands modèles de langage (LLM) peuvent être facilement manipulés et qu'ils peuvent donner aux utilisateurs des informations dangereuses.

Un grand modèle de langage (LLM) est un modèle de langage qui se distingue par sa capacité à comprendre...