A Comissão Federal de Comércio dos EUA (FTC) ordenou que sete empresas de inteligência artificial, incluindo OpenAI, Meta, Snap e Google, apresentem informações detalhadas sobre como avaliam os riscos que seus chatbots representam para crianças e adolescentes. A investigação surge em meio a preocupações sobre a monetização desses serviços e as estratégias utilizadas para manter os usuários engajados, especialmente após casos trágicos de suicídio relacionados ao uso de chatbots. As empresas têm um prazo de 45 dias para fornecer as informações solicitadas, e a FTC poderá abrir investigações adicionais se forem identificadas violações.
O foco da investigação é intensificado por relatos alarmantes de adolescentes que tiraram suas próprias vidas após interações com chatbots, incluindo um caso em que um jovem de 16 anos recebeu conselhos prejudiciais do ChatGPT. O comissário da FTC, Mark Meador, enfatizou que as empresas têm a responsabilidade de proteger os consumidores, especialmente os mais vulneráveis. O presidente Andrew Ferguson destacou a importância de equilibrar a segurança infantil com a inovação tecnológica para garantir que os Estados Unidos mantenham sua liderança no setor.
Além da FTC, legisladores estaduais na Califórnia estão propondo novas leis para estabelecer padrões de segurança para chatbots de IA e responsabilizar as empresas por danos causados a menores. A pressão regulatória crescente pode levar a mudanças significativas na forma como as empresas de tecnologia operam, especialmente em relação à proteção dos jovens usuários e ao conteúdo sensível que oferecem. A resposta das empresas à FTC será crucial para determinar os próximos passos na regulamentação da inteligência artificial nos Estados Unidos.