top of page

A violação da Convenção de Genebra pelo uso por Israel de programa de IA para matar civis em Gaza

Atualizado: 22 de abr.




-M. Madeleine Hutyra de Paula Lima-





Nos termos do n.º 4 do artigo 51.º do Protocolo I da Convenção de Genebra, são proibidos os ataques indiscriminados. Ataques indiscriminados são "aqueles que não são dirigidos contra um objetivo militar", "aqueles que empregam um método ou meio de combate que não pode ser dirigido a um objetivo militar específico", ou "aqueles que empregam um método ou meio de combate cujos efeitos não podem ser limitados como exigido pelo Protocolo", "e consequentemente, em cada um desses casos, são passíveis de atingir objetivos militares e civis ou objetos civis sem distinção." Entre os tipos de ataques especificamente proibidos como indiscriminados está "um ataque que pode causar perdas acidentais de vidas civis, ferimentos em civis, danos em objetos civis, ou uma combinação destes, que seriam excessivos em relação à vantagem militar concreta e direta prevista. Também são proibidos "ataques contra a população civil ou civis como represália." (HRW, 2024)



Por Albert Herter - Esta imagem está disponível na Divisão de Gravuras e Fotografias da Biblioteca do Congresso dos Estados Unidos com o número de identificação digital cph.3g08369.Esta marcação não indica o estado dos direitos de autor da obra aqui mostrada. Continua a ser necessária uma marcação normal de direitos de autor. Veja Commons:Licenciamento para mais informações., Domínio público, https://commons.wikimedia.org/w/index.php?curid=12633033

No seu Comentário autorizado sobre os protocolos, o Comité Internacional da Cruz Vermelha (CICV) traduz o significado de "exequível" no Artigo 57: "O que se exige é que sejam tomadas as medidas de identificação necessárias em tempo útil para poupar a população na medida do possível." O princípio da proporcionalidade impõe aos combatentes o dever de escolherem meios de ataque que evitem ou minimizem os danos aos civis. Assim, o atacante deve evitar lançar uma ofensiva se as baixas civis prováveis superarem a importância do objetivo militar. Nestas circunstâncias, o Protocolo I, Artigo 57 ("Precauções no ataque") exige daqueles que planejam e/ou executam um ataque o cancelamento ou desistência do ataque (HRW, 2024).




Na aplicação do princípio da proporcionalidade, o Comentário do CICV  apresenta uma série de fatores que devem ser respeitados quanto aos efeitos incidentais dos ataques sobre pessoas e objetos civis: os riscos de vida da população civil e  de destruição dos objetos civis dependem de vários fatores: a sua localização (no interior ou nas imediações de um objetivo militar), o terreno (desabamentos, inundações, etc.), a precisão das armas utilizadas (maior ou menor dispersão, em função da trajetória, do alcance, das munições utilizadas, etc.), as competências técnicas dos combatentes (lançamento aleatório de bombas quando não conseguem atingir o alvo pretendido). Está expresso no Comentário do CICV, "a regra de ouro a ser seguida" ao determinar o respeito à proporcionalidade em um ataque é "o dever de poupar civis e objetos civis na condução de operações militares." (HRW, 2002)


A questão se aplica aos atuais ataques cometidos pelas Forças de Defesa de Israel sobre o território da Faixa de Gaza. Embora Israel não tenha assinado o Protocolo I, as disposições que proíbem a guerra indiscriminada são consideradas normas de direito internacional consuetudinário, vinculativas para todas as partes num conflito, independentemente de tratar-se de um conflito armado internacional ou interno. Em reportagem, o jornalista investigativo Yuval Abraham revela os dados que obteve em entrevistas com seis oficiais dos serviços secretos de Israel, envolvidos no uso de sistemas de inteligência artificial para identificar alvos do Hamas e da Jihad Islâmica Palestiniana (PIJ) na Faixa de Gaza[i]. O artigo foi republicado em IHU – Unisinos, sob o título “Lavender”: a IA que conduz os bombardeios de Israel em Gaza”. (IHU, 2024)


Numa comparação, no passado, no exército israelense, o termo "alvo humano" se referia a um agente militar de alto escalão que, pelas regras do departamento de Direito Internacional do exército, poderia ser morto em sua residência privada mesmo com civis por perto. Havia muito cuidado para marcar os alvos humanos e apenas altos comandantes militares eram bombardeados em suas casas, visando respeitar o princípio de proporcionalidade previsto no direito internacional. Para autorizar o assassinato de um único alvo humano, um oficial precisava passar por um processo complexo e demorado de "incriminação": verificar se a pessoa era de fato um membro de alto escalão do braço militar do Hamas, descobrir onde morava, suas informações de contato e, finalmente, saber quando estava em casa em tempo real. Quando a lista de alvos tinha apenas algumas dezenas de altos comandantes, o pessoal dos serviços de inteligência poderia lidar individualmente com o trabalho dedicado a incriminá-los e localizá-los. O pessoal dos serviços de inteligência gastava muito tempo verificando quantas pessoas estavam em uma casa prestes a ser bombardeada, e o número de civis que poderiam morrer era registrado como parte de um “arquivo de alvos”. (IHU, 2024)


No entanto, após 7 de outubro, essa verificação minuciosa foi amplamente abandonada em favor da automação. Segundo fontes dos serviços de inteligência, o cálculo dos danos colaterais pelo exército israelense, isto é, o número de civis admitidos para matar em cada casa junto a um alvo, foi realizado com a ajuda de ferramentas automáticas e imprecisas. As fontes afirmaram que os massacres do Hamas em 7 de outubro e o sequestro de reféns influenciaram muito na política de ataque do exército e nos limites de danos colaterais. “No início, o ambiente era dilacerante e vingativo”, com as regras muito tolerantes. Era uma loucura”. O exército mudou totalmente sua abordagem. No âmbito da "Operação Espadas de Ferro", o exército decidiu marcar todos os agentes do braço militar do Hamas como alvos humanos, independentemente de seu escalão ou importância militar, o que também gerou um problema técnico para os serviços de inteligência israelenses. Com a ampliação da lista e inclusão de dezenas de milhares de agentes de escalão inferior, o exército israelense achou que precisava confiar em software automatizado e inteligência artificial. O papel do pessoal humano na incriminação de combatentes palestinos foi descartado e, em seu lugar, a IA fez a maior parte do trabalho. Durante as primeiras semanas da guerra, ao atacar agentes de patente inferior, incluindo aqueles indicados pelo sistemas de IA, como o Lavender, o número de civis que lhes era permitido matar junto com cada alvo foi estabelecido em 20. Para outra fonte seria de 15. Esses "limites de danos colaterais", termo usado pelos militares, eram aplicados de forma genérica a todos os supostos militantes subalternos.


Na prática, o princípio da proporcionalidade da Convenção de Genebra deixou de ser respeitado pelas Forças de Defesa de Israel. Antigo oficial de uma sala de operações de alvos na guerra atual afirmou que o departamento de direito internacional do exército nunca antes havia dado uma "aprovação tão ampla" a um limite tão alto de danos colaterais. Lavender – programa que foi desenvolvido para criar alvos humanos na guerra atual - marcou cerca de 37.000 palestinos como supostos "militantes do Hamas", a maioria deles de escalão inferior, para serem mortos. (O porta-voz das FDI negou a existência de tal lista de alvos em uma declaração enviada à +972 e ao Local Call.) Outro oficial superior explicou que eram desconhecidos os agentes de escalão inferior, porque Israel não os rastreava rotineiramente antes desta “guerra”. A aprovação para adotar automaticamente as listas negras do Lavender (usadas anteriormente apenas como ferramenta auxiliar) ocorreu aproximadamente duas semanas após o início da guerra, depois que o pessoal dos serviços de inteligência verificou a precisão de uma amostra aleatória de várias centenas de alvos selecionados pelo sistema de IA.


Quando essa amostra descobriu que os resultados do Lavender haviam alcançado 90% de precisão na identificação de pessoas que pertenciam ao Hamas, o exército autorizou o uso generalizado do sistema, sem levar em conta os 10% restantes. A partir desse momento, se o Lavender decidisse que um indivíduo era um militante do Hamas, isto passava a ser considerado como uma “ordem”, independentemente de saber os motivos da decisão da máquina ou de examinar as informações em que se baseara. Na prática, as fontes afirmam que a mediação humana e a precisão foram substituídas pela criação massiva de alvos e letalidade. Nesses ataques, para economizar tempo e permitir a produção em massa e sem obstáculos de alvos humanos, os oficiais não eram obrigados a revisar, de forma independente, as avaliações do sistema de IA.

Permitia-se essa falta de supervisão mesmo que os controles internos mostrassem que os cálculos do Lavender deixassem que os 10% restantes dos alvos humanos fossem mortos, sabendo-se que eram civis e nem constavam como combatentes do Hamas.


O software Lavender analisou as informações coletadas sobre a maioria dos 2,3 milhões de residentes da Faixa de Gaza através de um sistema de vigilância em massa e, em seguida, avaliou e classificou a probabilidade de cada pessoa em particular pertencer ao braço armado do Hamas ou à Jihad Islâmica Palestina. Segundo as fontes, a máquina atribuiu a quase todas as pessoas de Gaza uma pontuação de 1 a 100 para expressar a probabilidade de serem militantes. Crítica feita aos serviços de inteligência artificial era sobre o critério de se considerar alguém membro do Hamas, o que relativiza a precisão do sistema de alvos em evitar morte de civis. Os erros eram tratados com frieza estatística, com preferência sobre a avaliação humana.


Em contraste com as declarações oficiais do exército israelense, as fontes explicaram como uma das principais razões para o elevado número de vítimas mortais causadas pelos bombardeios atuais de Israel é ter o exército atacado sistematicamente alvos em seus lares junto com suas famílias também, com a ajuda de vários softwares automáticos desenvolvidos para identificar em tempo real quando os agentes entravam em suas casas. Um desses softwares de rastreamento é chamado de "Onde está papai?" e sua existência foi revelada pela revista +972.


Segundo Richard Moyes, do Article 36, devido à topografia de Gaza e à proximidade das construções, a destruição generalizada de uma área urbana com armas explosivas pesadas impede a precisão na escolha dos alvos que minimizem a morte de civis.[ii] Na autorização de ataque a casas particulares de indivíduos identificados como operacionais do Hamas ou da Jihad Islâmica, os pesquisadores de alvos tinham conhecimento do número de civis que poderiam ser mortos, sendo cada alvo direto pontuado por um dano colateral de civis suscetíveis de serem mortos num ataque. Uma fonte, integrante do planejamento de ataques para as IDF até 2021, disse que "a decisão de atacar é tomada pelo comandante da unidade de serviço", alguns dos quais "mais ferinos no gatilho do que outros". Acrescentou Moyes que, ao confiar em ferramentas, como o Gospel, um comandante "recebe uma lista de alvos gerada por um computador" e "não sabe necessariamente como a lista foi criada ou tem a capacidade de interrogar e questionar adequadamente as recomendações de alvos" (The Guardian, 2023).


Considerando as vedações da Convenção de Genebra, residências, escolas, hospitais, universidades, igrejas, mesquitas, entre outros prédios, deveriam ter sido excluídas da categoria de objetivos militares e, desta forma, os ataques israelenses contra esses prédios violam a Convenção. Quanto à questão de combatentes, os eventuais familiares ou pessoas que estejam nos prédios bombardeados não podeam ser alvos dos mísseis para matar. Também fere a Convenção o uso do sistema de alvos com base no uso da inteligência artificial, pois o próprio banco de dados gera alvos sem excluir alvos civis, como forma de punição coletiva.


Abordando a questão de controle humano na fase anterior de algum conflito, no nível ante bellum, Roff & Moyes ( 2016) destacam o critério da “inovação responsável”, que reconhece na ciência e na tecnologia as funções de construção social e política, além da função técnica, pela integração da ciência, tecnologia e inovação em mundos sociopolíticos e terem os cientistas e pesquisadores responsabilidades especiais para garantir que seu trabalho não cause danos.Em consequência, os autores apresentam uma questão fundamental: “Como é que os cientistas informáticos, os roboticistas, os engenheiros eletrotécnicos, os fabricantes de armas e os especialistas em aquisições podem incorporar a inovação e o conceito de responsabilidade no seu trabalho?


Percebe-se que o desvirtuamento do conceito de responsabilidade na inovação tecnológica por interesses políticos diversos, inclusive para atender reações abruptas de vingança, viola as regras das convenções sobre guerras visto que o sistema da inteligência artificial se torna em ferramenta terrivelmente perigosa para a população civil, pois desvinculada na aplicação pelo controle humano.


Por fim, vale invocar o alerta de Moyes: "Há o perigo de que, à medida que os seres humanos passem a confiar nestes sistemas, se tornem engrenagens de um processo mecanizado e percam a capacidade de considerar o risco de danos a civis de uma forma significativa" (Roff & Moyes, 2016).


Com certeza, o uso desses sistemas programados por IA representa a aplicação da “lei da barbárie”.



MATERIAL CONSULTADO:

HUMAN RIGHTS WATCH. Jenin: IDF Operations. Human Rights Watch. 2 May 2002, Vol. 14, No. 3 (E) https://www.hrw.org/reports/2002/israel3/israel0502-04.htm

HUMAN RIGHTS WATCH WORLD REPORT 2024. https://www.hrw.org/world-report/2024

NEWSLETTER IHU, 16/4/2024. Reportagem de Yuval Abraham, +972 Magazine,  10/4/2024. “Lavender”: a IA que conduz os bombardeios de Israel em Gaza”.  https://www.ihu.unisinos.br/638341-lavender-a-ia-que-conduz-os-bombardeios-de-israel-em-gaza?utm_campaign=newsletter_ihu_16042024&utm_medium=email&utm_source=RD+Station

ROFF, Heather & MOYES, Richard. Meaningful human control, artificial intelligence and autonomous weapons. Briefing paper for delegates at the Convention on Certain Conventional Weapons (CCW) Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) Geneva, 11-15 April 2016. https://www.stopkillerrobots.org/resource/meaningful-human-control-artificial-intelligence-and-autonomous-weapons/

THE GUARDIAN. Artigo de Harry Davies; Bethan McKernan; Dan Sabbagh: “‘The Gospel’: how Israel uses AI to select bombing targets in Gaza”, 1º de dezembro de 2023.  https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets


[i] Testemunho dado ao jornalista Yuval Abraham do jornal israelense-palestino “+ Magazine 972” e à mídia social de língua hebraica “Local Call”. Os relatos foram partilhados com exclusividade com o The Guardian, antes da publicação.


[ii] A Faixa de Gaza representa um espaço de 41 quilômetros de comprimento e apenas de 6 a 12 quilômetros de largura, com a população de cerca de 2,4 milhões de pessoas. Tem a maior densidade populacional do mundo. A cidade mais importante é Gaza. (Wikiperia) Perímetro equivalente apenas a uma quarta parte da cidade de São Paulo.


 

M. Madeleine Hutyra de Paula Lima é advogada, mestra em Direito Constitucional e mestra em Patologia Social e associada do IBAP.



369 visualizações0 comentário

Posts recentes

Ver tudo

コメント


bottom of page