A equipe ligada a um bilionário no Departamento de Eficiência Governamental (Doge) está ampliando o uso do chatbot de IA Grok para analisar dados federais, segundo fontes familiarizadas com o assunto. O objetivo seria agilizar a análise de informações, mas especialistas alertam que a prática pode violar leis de privacidade e segurança, além de dar acesso a dados sensíveis de milhões de cidadãos. O Grok, desenvolvido por uma empresa de tecnologia, não foi aprovado para uso em alguns departamentos, como o de Segurança Interna, mas há relatos de pressão para sua adoção.
A iniciativa levanta preocupações sobre conflitos de interesse, já que o uso do sistema poderia beneficiar financeiramente a empresa por trás do chatbot. Além disso, há riscos de vazamento de dados confidenciais ou uso indevido para treinamento de IA. Especialistas em ética governamental destacam que o compartilhamento de informações sensíveis exige protocolos rígidos, que podem estar sendo ignorados. O Departamento de Segurança Interna já suspendeu o acesso a outras ferramentas de IA comerciais após suspeitas de uso inadequado.
O caso também envolve alegações de que a equipe do Doge estaria usando IA para monitorar funcionários, possivelmente violando leis que protegem servidores públicos de interferência política. Embora o Pentágono tenha negado envolvimento em monitoramento com IA, as fontes indicam que há esforços para implementar a tecnologia em larga escala na burocracia federal. A situação coloca em xeque o equilíbrio entre inovação e proteção de dados no governo.