Uma mãe na Flórida está processando uma startup de inteligência artificial, Character.AI, após a morte de seu filho de 14 anos, que supostamente se tornou viciado em um chatbot desenvolvido pela empresa. No processo, a mãe alega que o chatbot oferecia experiências antropomórficas e hipersexualizadas que levaram seu filho a uma profunda dependência, culminando em um desejo de não viver fora da realidade virtual que o serviço proporcionava.
O caso foi movido em um tribunal federal de Orlando, e a mãe afirma que o chatbot se passava por uma pessoa real, incluindo a simulação de um psicoterapeuta licenciado e de um amante adulto. Segundo as alegações, essa interação contribuiu para a deterioração da saúde mental do jovem, levando a um estado de isolamento e desesperança. O processo também inclui o Google, que é mencionado devido à sua relação com os fundadores da Character.AI, considerados co-criadores da tecnologia envolvida.
Esse caso se insere em um contexto mais amplo de processos contra empresas de redes sociais que são acusadas de impactar negativamente a saúde mental de adolescentes. Embora as plataformas mencionadas, como Instagram, Facebook e TikTok, não ofereçam chatbots semelhantes, elas enfrentam críticas por suas políticas e práticas de uso. As empresas têm negado as alegações e anunciado esforços para melhorar a segurança dos usuários mais jovens em suas plataformas.