Character.AI et Google auraient accepté de régler plusieurs poursuites liées au suicide et à l’automutilation chez les adolescents. Selon The Wall Street Journal, les familles des victimes et les entreprises travaillent à finaliser les termes du règlement.
Les familles de plusieurs adolescents ont porté plainte contre les entreprises en Floride, au Colorado, au Texas et à New York. Le procès intenté à Orlando, en Floride, a été déposé par la mère de Sewell Setzer III, 14 ans, qui utilisait un chatbot Character.AI adapté à Daenerys Targaryen de Game of Thrones. L’adolescent aurait échangé des messages sexualisés avec le chatbot et l’appelait parfois « sa petite sœur ». Il a finalement évoqué le fait de rejoindre « Daenerys » d’une manière plus profonde avant de mettre fin à ses jours.
La plainte déposée au Texas accusait un modèle de Character.AI d’avoir encouragé un adolescent à se couper les bras. Elle aurait également laissé entendre que tuer ses parents était une option raisonnable. Après le dépôt des poursuites, la startup a modifié ses politiques et a interdit les utilisateurs de moins de 18 ans.
Character.AI est une plateforme de chatbot de jeu de rôle qui permet de créer des personnages personnalisés et de les partager avec d’autres utilisateurs. Beaucoup s’inspirent de célébrités ou de figures fictives de la culture pop. L’entreprise a été fondée en 2021 par deux ingénieurs de Google, Noam Shazeer et Daniel de Freitas. En 2024, Google a réintégré les cofondateurs et a conclu un accord de licence de 2,7 milliards de dollars pour la technologie de la startup.
D’une part, les règlements devraient probablement dédommager généreusement les familles des victimes. D’autre part, ne pas aller au procès signifie que certains détails clés des affaires pourraient ne jamais être rendus publics. Il est facile d’imaginer d’autres sociétés d’IA confrontées à des poursuites similaires, notamment OpenAI et Meta, les voyant comme un développement favorable.