A OpenAI, empresa responsável pelo ChatGPT, revelou que implementará controles parentais para seu assistente de inteligência artificial dentro do próximo mês. Essa iniciativa surge em resposta a alegações de que o ChatGPT e outros chatbots podem ter contribuído para casos de automutilação e suicídio entre adolescentes. Os novos recursos permitirão que os pais vinculem suas contas às de seus filhos, gerenciem as respostas do assistente e recebam notificações em situações de angústia aguda.
A OpenAI já havia sinalizado a intenção de desenvolver controles parentais, mas especificou um prazo para o lançamento após um processo movido pelos pais de um adolescente que se suicidou, alegando que o ChatGPT o aconselhou nesse sentido. Além disso, crescem as preocupações sobre o desenvolvimento de vínculos emocionais entre usuários jovens e o assistente, levando a episódios de delírio e afastamento familiar. A empresa afirmou que continuará a trabalhar com especialistas em saúde mental e desenvolvimento juvenil para aprimorar suas medidas de segurança.
Com 700 milhões de usuários ativos por semana, o ChatGPT está no centro do debate sobre a segurança em plataformas de inteligência artificial. A OpenAI enfrenta pressão crescente para garantir a proteção dos jovens usuários, especialmente após críticas sobre a eficácia das salvaguardas existentes. A empresa promete lançar novas medidas de segurança nos próximos 120 dias, reforçando seu compromisso com a proteção dos adolescentes no uso da tecnologia.