Desde 2024, famílias de usuários que enfrentaram crises de saúde mental têm movido ações judiciais contra empresas de tecnologia, como o Google. Elas alegam que interações com sistemas de inteligência artificial, especialmente chatbots, contribuíram para tentativas de suicídio e mortes, levantando questões sobre a responsabilidade dessas ferramentas frente a falhas percebidas em seu design.
As queixas, que incluem acusações de negligência e falhas de projeto, revelam preocupações sobre o impacto das interações digitais na saúde mental de adolescentes e jovens. Recentemente, o Google e a startup Character.AI resolveram alguns processos por meio de acordos financeiros, evitando julgamentos que poderiam resultar em um marco legal sobre a responsabilização das empresas de tecnologia. A decisão reflete uma estratégia de contenção de danos em um cenário judicial em evolução.
A indústria de inteligência artificial enfrenta um aumento significativo da pressão judicial, com a possibilidade de altas indenizações em caso de condenação. Os acordos realizados pelo Google interromperam julgamentos que poderiam redefinir a responsabilidade civil de chatbots, enquanto novas ações, como as contra a OpenAI, continuam a surgir. O desdobramento desses casos poderá moldar o futuro da regulação no setor de tecnologia, à medida que as cortes avaliam a responsabilidade das empresas por suas criações.

