Um grupo de mulheres em Minneapolis, Minnesota, descobriu que suas fotos pessoais compartilhadas nas redes sociais foram utilizadas para criar deepfakes pornográficos, expondo os riscos associados à inteligência artificial. A situação foi revelada em junho do ano passado, quando a consultora de tecnologia Jessica Guistolise recebeu um alerta sobre a manipulação de imagens de mais de 80 mulheres na região, incluindo amigas suas. Os vídeos e fotos falsos foram gerados por meio do site DeepSwap, um aplicativo que permite a criação de conteúdos sexuais não consensuais de forma acessível e rápida.
A descoberta levou as mulheres a se organizarem para entender a gravidade do problema e buscar apoio legal. Apesar da confissão do responsável pela criação dos deepfakes, a falta de evidências sobre a distribuição das imagens dificultou a aplicação da lei. O grupo procurou legisladores locais, resultando em uma proposta que visa multar empresas que disponibilizem serviços de nudify e criem deepfakes sem consentimento, abordando uma lacuna na legislação atual.
O impacto psicológico sobre as vítimas foi significativo, com relatos de estresse e ansiedade. A situação em Minnesota reflete um problema global, onde o uso de tecnologias de IA para criar deepfakes continua a crescer. Em resposta, iniciativas legais estão sendo discutidas para proteger as vítimas e regular o uso dessas ferramentas, que representam uma nova fronteira na violação da privacidade.