A OpenAI anunciou nesta terça-feira (02/09) a introdução de controles parentais no ChatGPT, permitindo que responsáveis configurem respostas e recebam alertas em momentos de estresse emocional intenso. Essa medida foi motivada por relatos de crises de saúde mental associadas ao uso do chatbot e por um processo judicial movido pelos pais de um jovem de 16 anos que cometeu suicídio, alegando negligência da empresa. Além disso, o ChatGPT passará a utilizar um modelo de raciocínio mais avançado em conversas sensíveis, buscando aplicar salvaguardas com maior consistência.
Os novos recursos permitirão que contas de adolescentes sejam vinculadas às de seus responsáveis, que poderão ajustar as respostas do chatbot ou desativar a memória e o histórico de chats. A OpenAI também notificará os adultos quando o adolescente vinculado estiver passando por um “momento de sofrimento agudo” com base nas interações. A empresa planeja lançar essas funcionalidades ao longo do próximo mês, embora não tenha especificado uma data exata.
As preocupações sobre a saúde mental associadas ao uso de chatbots têm crescido, levando a discussões sobre os riscos da inteligência artificial. Pesquisadores e críticos têm abordado o fenômeno da “psicose induzida por IA”, enquanto especialistas como Mustafa Suleyman, da Microsoft, argumentam que a IA não deve ser tratada como uma “pessoa digital”. A OpenAI reconheceu que as salvaguardas existentes eram menos eficazes após longas interações, o que levou à necessidade de melhorias nos modelos de resposta do ChatGPT.