O Google revisou suas diretrizes éticas sobre inteligência artificial, alterando compromissos anteriores que limitavam a aplicação da tecnologia em áreas como armamentos e vigilância. Anteriormente, a empresa havia excluído essas áreas de suas operações, mas a mudança de postura é justificada por executivos como uma resposta à crescente adoção da IA e à demanda de clientes governamentais e de segurança. Na nova versão de seus princípios, o Google inclui cláusulas que destacam a importância da supervisão humana e do feedback, visando garantir conformidade com direitos humanos e normas internacionais.
A empresa também se comprometeu a realizar testes em suas tecnologias para evitar resultados prejudiciais ou indesejados. A mudança reflete uma tendência maior na indústria tecnológica, onde empresas estão alinhando suas estratégias com os interesses do governo dos Estados Unidos, especialmente no que tange à colaboração com o Departamento de Defesa. Empresas como Microsoft e Amazon já estabeleceram parcerias com o Pentágono, evidenciando o fortalecimento dessa relação.
Essa atualização ocorre em um contexto de tensões geopolíticas entre os Estados Unidos e a China, além de protestos internos dentro do Google sobre contratos militares, como o Projeto Maven. Documentos internos indicam também que, após o ataque de 2023, o Google ampliou o acesso de suas ferramentas de IA ao Ministério da Defesa israelense, refletindo um posicionamento mais estreito com interesses governamentais e militares em momentos críticos.