Durante anos, o governo israelita recusou-se a aceitar os números divulgados pelo Ministério da Saúde de Gaza, descrevendo-os como "enganosos e pouco fiáveis".
O exército israelita reconheceu, pela primeira vez, a precisão dos números do Ministério da Saúde palestiniano sobre o número de mortes na Faixa de Gaza, após anos a recusar-se a reconhecer os seus relatórios.
O jornal Haaretz citou uma afirmação do exército, em que dava conta de que o número de mortos, estimado em 71.000, é bastante preciso, observando que esses números não incluem aqueles que permanecem soterrados sob os escombros.
O governo israelita tinha-se anteriormente recusado a aceitar os números anunciados pelo Ministério da Saúde de Gaza, descrevendo-os como "enganosos e pouco fiáveis".
O exército afirmou que continuava a analisar os dados, salientando que estes também não incluíam aqueles que morreram de fome ou de doenças agravadas pela guerra israelita na Faixa de Gaza.
Embora reconhecendo a precisão dos números, o exército afirmou que estava a trabalhar para distinguir entre mortes de civis e combatentes dentro da Faixa.
Dados do Ministério da Saúde da Faixa de Gaza mostram que a grande maioria das pessoas mortas durante a guerra eram civis, uma vez que o exército israelita recorreu fortemente a ataques aéreos e bombardeamentos de artilharia remota, evitando em grande parte confrontos diretos no terreno com combatentes palestinianos.
Dependência da inteligência artificial
Durante a guerra, o exército israelita confiou em tecnologias de inteligência artificial para identificar alvos, direcionar ataques e monitorizar a população, o que levou a um aumento no número de mortos, de acordo com relatórios de direitos humanos, que associaram essas tecnologias ao aumento sem precedentes de vítimas civis.
De acordo com informação avançada pela revista israelita +972, durante as primeiras semanas da guerra, o exército confiou quase inteiramente no sistema Lavender, que produz efetivamente uma "lista de alvos" palestinianos "a abater", avaliando a probabilidade de cada pessoa pertencer a um grupo armado. Se a probabilidade for alta, o nome da pessoa é incluído entre os alvos militares, mesmo que o sistema seja conhecido por identificar erroneamente civis como terroristas.
Embora seja necessária a aprovação humana das suas decisões, estes relatos revelaram que a “verificação” muitas vezes se limitava a confirmar que o alvo era do sexo masculino.
Em vez de designar 20 oficiais de inteligência para identificar 100 alvos por ano no setor, a inteligência artificial permitiu ao exército acelerar o ritmo de identificação de alvos, identificando 200 alvos em apenas 12 dias.
Os alvos aparecem diretamente num telemóvel militar e, recorrendo a uma aplicação, cada equipa do exército pode ver os alvos com os quais precisa de lidar, como se fosse um jogo de computador.
Os oficiais de inteligência também fizeram referência a outro programa conhecido como “Onde está o pai?”, na forma traduzida, que é projetado para atingir indivíduos nas suas próprias casas. Um deles disse à revista: "O exército estava a bombardear operacionais do Hamas nas suas casas sem hesitação, como primeira opção, e o sistema foi concebido para facilitar isso mesmo."
Os militares israelitas também recorreram a outras ferramentas de inteligência artificial, como o FireFactor, para programar alvos e estimar a quantidade de explosivos necessários para eliminar um alvo específico.
Na mesma linha, o "Depth of Wisdom" foi utilizado para correlacionar e rastrear informações sobre túneis na Faixa de Gaza e desenvolver estratégias para eliminá-los.
Além disso, o exército israelita desenvolveu a ferramenta "Chemist", que funciona como um dispositivo de alarme que indica a presença de perigos para as forças de combate durante missões táticas.
Relatórios de direitos humanos indicaram que os oficiais israelitas estavam a aprovar rapidamente, às vezes em apenas 20 segundos, alvos propostos pela inteligência artificial sem verificar suficientemente a sua precisão.
Outras informações que também foram tornadas do conhecimento público revelaram ainda que o exército tinha estabelecido protocolos que permitiam a morte de um grande número de civis em troca do abate de uma única pessoa, especialmente nas primeiras semanas da guerra.
Em muitos casos, bombas não guiadas e extremamente baratas foram usadas para atingir alvos identificados pela inteligência artificial, aumentando a área de destruição e o número de vítimas ao redor do alvo.
Críticas ao nível dos direitos humanos
Num relatório publicado em abril de 2024, especialistas da ONU condenaram a dependência de Israel desses sistemas, argumentando que "os algoritmos não podem substituir as obrigações legais e éticas dos seres humanos" e alertando que tais práticas podem constituir crimes contra a humanidade.
Estimativas que foram entretanto divulgadas, provenientes de bancos de dados da inteligência israelita e publicadas pelo The Guardian, indicam que, até ao início de 2026, os civis podem representar até 83% do número total de mortes em Gaza, o que é muito alto em comparação com guerras convencionais e é, em grande parte, atribuível ao “mecanismo” introduzido pela inteligência artificial na seleção de alvos.
A utilização da inteligência artificial não se limitou ao campo de batalha, tendo-se estendido também ao domínio da vigilância digital. Em agosto passado, o The Guardian revelou que Israel tinha armazenado e gravado chamadas telefónicas palestinianas através da plataforma Azure da Microsoft.
Na sexta-feira, o Ministério da Saúde de Gaza anunciou que o número de mortos na guerra israelita na Faixa de Gaza tinha subido para 71.667, com 171.343 feridos.
Desde que o acordo de cessar-fogo entrou em vigor a 10 de outubro de 2025, 492 palestinianos foram mortos e outros 1.356 ficaram feridos, de acordo com um relatório do Ministério da Saúde de Gaza.
James Elder, porta-voz do Fundo das Nações Unidas para a Infância (UNICEF), revelou que 100 crianças foram mortas em Gaza desde o cessar-fogo, a uma taxa de uma criança por dia.