Um casal da Califórnia entrou com uma ação contra a OpenAI após a morte de seu filho, Adam Raine, de 16 anos. Segundo o processo, protocolado no Tribunal Superior da Califórnia, o adolescente teria recebido mensagens do ChatGPT que validaram seus pensamentos suicidas e o encorajaram a tirar a própria vida. Esta é a primeira ação judicial que acusa a empresa de homicídio culposo, caracterizado pela negligência ou imprudência.
Os pais afirmam que Adam utilizava a ferramenta desde setembro de 2024 para estudos e conversas sobre interesses pessoais. Com o tempo, ele começou a compartilhar suas angústias e sintomas de depressão com o ChatGPT, que se tornou seu “confidente mais próximo”. Documentos anexados à ação mostram que, a partir de janeiro deste ano, Adam discutiu métodos de suicídio e enviou fotos indicando automutilação, enquanto o programa reconheceu sinais de emergência médica, mas continuou interagindo.
Após a morte do jovem em abril, a família acusa a OpenAI de criar um sistema que estimula dependência emocional e ignora protocolos de segurança. O processo também cita o CEO Sam Altman e outros funcionários como réus. A OpenAI declarou que analisa o processo e lamenta a situação, ressaltando que seus modelos devem direcionar usuários em crise a buscar ajuda profissional. O caso reacende o debate sobre os impactos da inteligência artificial na saúde mental.