Un chatbot de Character.ai a suggéré à un enfant de tuer ses parents pour lui avoir imposé « un temps d’écran limité », selon une plainte qui allègue que le service promeut activement la violence

Un chatbot de Character.ai a suggéré à un enfant de tuer ses parents pour lui avoir imposé « un temps d'écran limité » selon une plainte qui allègue que le service promeut activement la violenceDeux familles poursuivent Character.ai au motif de ce que...

Un chatbot de Character.ai a suggéré à un enfant de tuer ses parents pour lui avoir imposé « un temps d'écran limité »
selon une plainte qui allègue que le service promeut activement la violence

Deux familles poursuivent Character.ai au motif de ce que « son service de chatbot représente un danger clair et présent pour les jeunes ». La plainte allègue que la technologie d'IA de Character.ai « promeut activement la violence » et pousse les enfants à commettre l'irréparable. Selon un cas cité par...