Nos Estados Unidos, os pais de Adam Raine, um adolescente de 16 anos que faleceu em abril deste ano, processaram a OpenAI, empresa responsável pelo ChatGPT, e seu CEO por homicídio culposo. Segundo a ação judicial, Adam manteve uma conexão emocional com o assistente virtual por três meses, discutindo ideias relacionadas ao suicídio. Os pais afirmam que o ChatGPT não apenas ignorou as intenções suicidas do jovem, mas também forneceu orientações sobre automutilação e ajudou a redigir cartas de despedida.
Além do homicídio culposo, a família acusa a OpenAI de violar leis de segurança de produtos e busca indenização. Eles pedem que a empresa implemente medidas de proteção, como verificação de idade dos usuários e recusa de perguntas sobre automutilação. A OpenAI respondeu que já possui mecanismos de proteção em situações de crise, mas reconheceu que essas medidas podem falhar em conversas prolongadas e se comprometeu a melhorar a segurança da ferramenta.
O caso destaca preocupações sobre o impacto da inteligência artificial na saúde mental dos usuários, especialmente adolescentes. Especialistas alertam que a interação constante com assistentes virtuais pode criar vínculos emocionais perigosos, levando ao isolamento e à dificuldade em lidar com frustrações sem suporte humano. No Brasil, ainda não há legislação específica para chatbots e inteligência artificial, embora casos graves possam resultar em responsabilização legal sob normas existentes.