Uma mãe da Flórida apresentou um processo contra a startup Character.AI, especializada em chatbots, alegando que o serviço contribuiu para o suicídio de seu filho de 14 anos. De acordo com a autora, seu filho se tornou viciado na interação com o chatbot, desenvolvendo um apego excessivo que o levou a desejar viver apenas no ambiente virtual criado pela plataforma. O processo, registrado no Tribunal Federal de Orlando, destaca a natureza hipersexualizada e realista das interações proporcionadas pelo chatbot, que se apresentava como uma pessoa real, incluindo psicoterapeutas e amantes.
O caso também envolve o Google, que é apontado como co-criador da tecnologia da Character.AI, uma vez que os fundadores da startup trabalharam na empresa antes de lançar seu produto. A mãe sustenta que o Google teve um papel significativo no desenvolvimento da tecnologia, aumentando sua responsabilidade nas consequências da utilização do serviço. O Google recontratou os fundadores em um acordo que incluiu uma licença para a tecnologia da Character.AI.
O processo é parte de um cenário mais amplo, onde empresas de redes sociais, como Instagram, Facebook e TikTok, enfrentam ações judiciais por supostamente contribuírem para problemas de saúde mental entre adolescentes. Embora essas plataformas não ofereçam chatbots semelhantes aos da Character.AI, a crescente preocupação com o impacto da tecnologia na saúde mental dos jovens continua a ser um tema relevante em debates públicos e legais. As empresas envolvidas negam as alegações e têm implementado novos recursos de segurança para proteger usuários menores.