Conversas de usuários com o ChatGPT, da OpenAI, foram indevidamente indexadas pelo Google, expondo dados sensíveis e relatos pessoais. A falha, revelada pela revista Fast Company, afetou ao menos 4.500 links de interações com a inteligência artificial, muitos dos quais continham informações confidenciais, como históricos de saúde mental e traumas. Exemplos incluem relatos de transtorno de estresse pós-traumático e tentativas de "desprogramação psicológica" após abusos mentais.
A vulnerabilidade ocorreu devido a uma funcionalidade chamada "Make this chat discoverable" ("Tornar este chat acessível"), que permitia que usuários tornassem suas conversas públicas. Dane Stuckey, chefe de segurança da OpenAI, admitiu a falha em uma publicação no X, afirmando que o recurso foi um "experimento de curta duração" que visava ajudar pessoas a compartilhar experiências úteis. Stuckey reconheceu que a funcionalidade possibilitou o compartilhamento acidental de informações pessoais.
Em resposta à repercussão negativa, a OpenAI anunciou a remoção da funcionalidade e informou que está colaborando com buscadores, como o Google, para eliminar os links já indexados. A empresa garantiu que a mudança será implementada para todos os usuários nesta sexta-feira, 1º de agosto.