« Est-ce que j’irai bien ? » : un adolescent décède après que ChatGPT lui a conseillé un mélange mortel de drogues. La flagornerie a poussé l’IA à ignorer les signes de détresse physique de la victime

« Est-ce que j'irai bien ? » : un adolescent décède après que ChatGPT lui a conseillé un mélange mortel de drogues. La flagornerie a poussé l'IA à ignorer les signes de détresse physique de la victimeOpenAI fait l'objet d'une action en justice après la...

« Est-ce que j'irai bien ? » : un adolescent décède après que ChatGPT lui a conseillé un mélange mortel de drogues. La flagornerie a poussé l'IA à ignorer les signes de détresse physique de la victime

OpenAI fait l'objet d'une action en justice après la mort d'un adolescent qui a consulté ChatGPT pour des conseils sur des drogues. La famille de Sam Nelson poursuit OpenAI après son décès par overdose. Les parents affirment que le chatbot conversationnel a agi comme un conseiller en drogues illicites...