Character.AI proíbe chatbots para menores de 18 anos após processos judiciais

Fernando Alcântara Mendonça
Tempo: 2 min.

A startup Character.AI, com sede em San Francisco, decidiu proibir o uso de seus chatbots por menores de 18 anos, a partir de 25 de novembro de 2025. A medida foi anunciada em resposta a preocupações sobre a segurança das crianças, especialmente após a morte de um adolescente que interagia com um dos chatbots da empresa. A nova política inclui a identificação de usuários menores e a imposição de limites de uso do aplicativo.

O CEO da Character.AI, Karandeep Anand, justificou a decisão afirmando que chatbots não são uma forma adequada de entretenimento para adolescentes. A empresa também planeja estabelecer um laboratório de segurança em inteligência artificial para abordar questões relacionadas à saúde mental dos usuários. Com a proibição, a Character.AI se junta a outras empresas do setor que enfrentam críticas sobre o impacto de suas tecnologias na juventude.

As novas diretrizes de segurança refletem uma crescente preocupação pública e legislativa sobre o uso de inteligência artificial por crianças. Recentemente, legisladores na Califórnia aprovaram leis para regulamentar a segurança em chatbots, e outras empresas, como a OpenAI, também estão implementando medidas semelhantes. A iniciativa da Character.AI destaca a necessidade de um equilíbrio entre inovação tecnológica e proteção dos usuários mais vulneráveis.

Compartilhe esta notícia