Uma investigação da +972 Magazine e Local Call revelou que os militares israelenses estão empregando inteligência artificial, por meio de uma ferramenta chamada Lavender, para auxiliar na identificação de alvos de bombardeio em Gaza. Autoridades israelenses negaram que a IA esteja sendo usada para identificar suspeitos de terrorismo, enfatizando que os sistemas de informação são apenas ferramentas para os analistas. Contudo, denúncias apontam que a revisão humana dos alvos sugeridos é superficial, com os humanos muitas vezes servindo apenas como validadores das decisões da máquina.
A investigação ocorre em um contexto de intensa pressão internacional sobre Israel, após ataques aéreos que resultaram na morte de trabalhadores humanitários estrangeiros em Gaza. O cerco israelense ao território palestino tem gerado uma crise humanitária, com milhares de mortos e grande parte da população enfrentando níveis catastróficos de fome. O exército israelense é acusado de atacar sistematicamente alvos civis, incluindo mulheres e crianças, utilizando munições pesadas que podem causar danos em larga escala, como os mísseis não guiados.
Segundo a IDF, os militares realizam análises prévias dos alvos e escolhem as munições de acordo com considerações operacionais e humanitárias. A justificativa para o uso de munições pesadas é a necessidade de eliminar o Hamas, grupo considerado como alvo prioritário. Apesar das alegações de esforços para reduzir danos colaterais, críticos apontam para a devastação causada pelos ataques aéreos israelenses em Gaza, levantando questionamentos sobre o uso da inteligência artificial e as consequências humanitárias dessas ações.