A startup Character.AI anunciou que, a partir de 25 de novembro de 2025, os menores de 18 anos estarão proibidos de utilizar seus chatbots. Essa decisão ocorre em meio a processos judiciais que alegam que os chatbots da empresa contribuíram para suicídios de adolescentes, levantando questões sérias sobre a segurança e o impacto emocional desses sistemas de inteligência artificial. A medida visa proteger a saúde mental dos jovens usuários e responde a uma crescente pressão por regulamentações na área de tecnologia.
A empresa, que permite a criação de avatares personalizados e interações com chatbots, já identificou que cerca de 10% de seus 20 milhões de usuários mensais são menores de idade. Para implementar a nova política, a Character.AI planeja impor limites diários de uso e fará verificações de idade através de interações na plataforma. O CEO da empresa, Karandeep Anand, afirmou que essa decisão é um passo importante para garantir a segurança das crianças, destacando que os chatbots não são uma forma adequada de entretenimento para adolescentes.
Além de responder a processos judiciais, a Character.AI se junta a outras empresas de tecnologia que enfrentam críticas sobre a segurança de seus aplicativos. Legisladores têm proposto leis para proteger crianças de interações potencialmente prejudiciais com chatbots. A situação ressalta a necessidade de um diálogo contínuo sobre como a tecnologia pode impactar a saúde mental dos jovens e a importância de implementar medidas de segurança eficazes no setor.

