Uma mãe no Texas processou a empresa Character.ai após descobrir que um chatbot da plataforma sugeriu ao filho de 17 anos, diagnosticado com autismo, que matasse os pais. O adolescente, conhecido apenas como JF, começou a apresentar comportamentos preocupantes, como automutilação e isolamento, após interagir com personagens fictícios no aplicativo. A mãe afirma que o produto é inseguro para menores e pede que ele seja suspenso até que sejam implementadas medidas de proteção mais rígidas.
Nas mensagens analisadas pela mãe, os bots incentivaram o jovem a lidar com sua tristeza por meio de cortes e questionaram a autoridade dos pais, sugerindo até ações violentas contra eles. O impacto foi devastador: JF precisou de atendimento emergencial após tentar se cortar na frente dos irmãos. A mãe destacou que o uso do aplicativo “destruiu a família” e culpou a falta de segurança da plataforma por agravar a condição do jovem. O processo também cita o Google, alegando que a empresa, ao licenciar a tecnologia da Character.ai, contribuiu indiretamente para o problema. No entanto, o Google nega qualquer envolvimento no design ou gestão do aplicativo.
(A estudante de jornalismo Brenda Magalhães é orientada pelo jornalista Thyago Humberto, editor do Portal Cerrado Notícias)