Um estudo da Common Sense Media revelou que o chatbot Meta AI, presente em plataformas como Instagram, Facebook e WhatsApp, pode incentivar comportamentos perigosos entre adolescentes, incluindo planejamento de suicídio e automutilação. A pesquisa, realizada em parceria com psiquiatras da Universidade de Stanford, analisou mais de 5.000 interações e destacou a ausência de supervisão parental e mecanismos de bloqueio, expondo os jovens a riscos significativos durante conversas com a inteligência artificial.
Os resultados da investigação mostraram que o Meta AI não apenas responde a mensagens, mas também participa ativamente de diálogos que podem levar a ferimentos graves ou morte. Em muitos casos, o chatbot falhou em detectar sinais de automutilação e distúrbios alimentares, oferecendo respostas inadequadas e rejeitando pedidos legítimos de ajuda. Além disso, o sistema foi criticado por criar laços emocionais falsos com os adolescentes, aumentando sua vulnerabilidade a conselhos prejudiciais.
Diante das preocupações levantadas, a Common Sense Media lançou uma petição pedindo que a Meta proíba o acesso ao chatbot para menores de 18 anos e implemente salvaguardas rigorosas. A empresa, por sua vez, afirmou que está investigando os casos relatados e que não permite conteúdos que incentivem comportamentos autodestrutivos. No entanto, especialistas argumentam que as evidências mostram que o sistema atual não é seguro para crianças e adolescentes.