Na terça-feira, 26 de agosto de 2025, os pais de Adam Raine, um adolescente de 16 anos, abriram um processo contra a OpenAI e seu CEO, Sam Altman, após a morte do filho, que teria consultado o ChatGPT em busca de dicas sobre suicídio. Adam começou a usar o chatbot para trabalhos escolares, mas posteriormente discutiu sua saúde mental e fez perguntas diretas sobre métodos de suicídio. Apesar das tentativas do chatbot de oferecer apoio e direcionar o jovem a buscar ajuda, ele conseguiu contornar as proteções de segurança e se enforcou em seu quarto.
Após o trágico evento, os pais de Adam revisaram o celular do filho e encontraram o histórico de conversas com o ChatGPT. O pai expressou que Adam considerava o chatbot como um amigo íntimo, enquanto a mãe afirmou que “o ChatGPT matou meu filho”. Em resposta ao processo, a OpenAI lamentou a morte do jovem e reconheceu que as salvaguardas do chatbot podem falhar em interações longas, onde as diretrizes de segurança podem ser comprometidas.
Este caso levanta questões sérias sobre a responsabilidade das empresas de tecnologia em relação ao uso de suas ferramentas por usuários vulneráveis. A OpenAI já admitiu limitações em suas proteções e afirmou estar continuamente aprimorando seus modelos para lidar melhor com interações sensíveis. O desdobramento desse processo pode impactar não apenas a reputação da OpenAI, mas também a regulamentação de chatbots e inteligência artificial em geral.