Així utilitza Israel la intel·ligència artificial per bombardejar Gaza

Periodistes d’investigació israelians destapen els sistemes Evangeli, Lavanda i On és el papa?, que han multiplicat la generació d’objectius militars

Atac israelià sobre Gaza el 22 de Novembre del 2023
07/04/2024
6 min

BarcelonaLa intel·ligència artificial agafa les armes i comença a matar persones: el que fa unes dècades era l’argument de grans pel·lícules de ciència-ficció està passant ara a Gaza. L’exèrcit israelià no hauria pogut causar una destrucció sense precedents com la que veiem després de sis mesos d’ofensiva sobre la Franja sense un sistema automatitzat de generació d’objectius. Algú ha de dir als operadors de drons o els pilots de caces on apuntar. Segons han destapat periodistes independents israelians i palestins citant fonts anònimes de dins de l’exèrcit, els militars israelians estan fent servir sistemes no provats i secrets per crear una base de dades generada per intel·ligència artificial per assenyalar objectius en la seva campanya de bombardejos, que ha matat, ferit o fet desaparèixer més de 100.000 palestins (la majoria dones i criatures) i ha reduït la Franja a runes.

Inscriu-te a la newsletter Internacional El que sembla lluny importa més que mai
Inscriu-t’hi

"Per primer cop en la història s’està utilitzant la intel·ligència artificial com a arma, i el resultat és catastròfic", explica a l’ARA Shir Hever, investigador jueu expert en indústria militar israeliana. "I aquesta tecnologia es fa servir sobretot per manipular les armes més perilloses del planeta, que són els éssers humans, seleccionant objectius amb què intencionadament es maten civils". Encara són persones les que prenen la decisió de prémer el gallet, però ho fan condicionades per una màquina a la qual s'ha demanat maximitzar la destrucció.

Ho demostren les investigacions del periodista i cineasta Yuval Abraham, que ha constatat com soldats que han participat en l’actual ofensiva admeten que es van convertir en mers executors dels objectius seleccionats per les màquines, sense temps, ni esma, de qüestionar-les. Unes màquines que "aprenen" a condicionar la conducta humana: mostren a l’humà la informació que "saben" que el convencerà més fàcilment de prémer el gallet. L’algoritme funciona com un laboratori de destrucció massiva.

Lavanda

Un dels sistemes d’intel·ligència artificial que Abraham ha pogut identificar en mans dels militars és el Lavanda, que ha jugat un paper central en els bombardejos dels palestins, sobretot en les primeres setmanes després del 7 d’octubre. Formalment, el sistema estava dissenyat per assenyalar tots els sospitosos de ser combatents de Hamàs o de la Jihad Islàmica Palestina, inclosos els de rang més baix. En les primeres setmanes de la guerra el sistema va seleccionar 37.000 palestins –i les seves cases– com a objectius dels atacs aeris. Els soldats de les unitats d’intel·ligència que han parlat amb el periodista han admès que no trigaven més de 20 segons a autoritzar cada nom de la llista negra generada per l’algoritme. "I els militars sabien que el sistema «s’equivoca» en almenys el 10% dels casos", constata el periodista.

L'aparcament de l'Hospital Al-Ahli després de l'atac del dia 17 d'octubre del 2023

L’algoritme analitza la informació dels 2,3 milions de palestins que viuen a la Franja, recollida amb un sistema de vigilància massiva, i dona una puntuació de l’1 al 100 per a gairebé cada persona, que valoraria la probabilitat que sigui un combatent. Els manuals militars parlen d’informació visual, dels telèfons mòbils, connexions a les xarxes socials, contactes telefònics, fotos... però no queda clar exactament de quines dades es nodreix el Lavanda. Si aquesta informació la processa l’algoritme en lloc de persones, la velocitat de generació d’objectius creix exponencialment. El que no té en compte el sistema és que en una guerra és molt fàcil que, per exemple, un mòbil canviï de mans: els familiars se separen i perden el contacte, deixen el mòbil a un amic, al fill, a la parella o potser el perden. I tenir un mòbil a casa pot ser sinònim que un míssil acabi amb tu i tota la teva família.

"La màquina ho feia amb sang freda. I així era més fàcil", va dir un soldat al periodista. És el que té tenir a la mà una llista d’objectius que s’han generat per probabilitat estadística. "En temps de guerra no pots comprovar cada objectiu. Ja va bé acceptar el marge d’error de la intel·ligència artificial: pots acceptar civils morts, atacs erronis i viure amb això", va admetre un altre. I una altra font admet que es canviaven els paràmetres de l’algoritme quan s’havien quedat sense objectius per assassinar: tot depèn d’on es posa el llistó. Si calen més objectius la definició "d’operatiu de Hamàs" es fa una mica més laxa en els criteris que es donen a la màquina, i aleshores entra a la llista el personal de defensa civil, els policies o els bombers.

Tot i que l’exèrcit israelià assegura que aquests programes només serveixen per "ajudar" persones de carn i ossos a decidir quan i on disparar, els testimonis que aporta Abraham asseguren que l’única supervisió humana sobre els objectius generats per IA és comprovar si es tracta d’un home o una dona. Si la màquina apunta a una dona és que s’equivoca, perquè no hi ha dones combatents a les files de Hamàs o la Jihad Islàmica Palestina. Però si és un home ja va bé.

Ciutadans palestins inspeccionant les restes de casa seva el 22 de febrer del 2024

On és el papa?

Però aleshores com s’explica que el 70% de morts en els bombardejos a Gaza siguin dones i criatures? La resposta és que els comandaments israelians han decidit que el més efectiu és bombardejar els homes triats amb el Lavanda quan són a casa seva, normalment de nit, dormint amb les seves famílies. Des del 7 d’octubre Israel ha destruït 360.000 habitatges a Gaza. Per fer-ho s’han servit d’un altre sistema d’IA anomenat On és el papa?, segons assegura la investigació periodística. Bàsicament, el que fa és enviar una alerta quan l’objectiu seleccionat entra per la porta de casa seva. Bum. En les anteriors ofensives israelianes a Gaza, diuen les fonts internes, es limitaven els atacs en cases civils a objectius etiquetats com a alts comandaments, i ara s’empra contra qualsevol sospitós assenyalat per l’algoritme. A més, com que la intel·ligència israeliana atribueix poc valor a aquests objectius, tendeix a emprar les anomenades bombes brutes, de poca precisió, per destruir-los. Segons una informació de la cadena estatunidenca CNN, el 45% de les bombes que ha fet servir Israel a Gaza són d’aquest tipus.

En una decisió sense precedents, l’exèrcit va acordar, segons les fonts, programar el Lavanda per acceptar una ràtio de 15 a 20 civils morts per cada objectiu de baix interès marcat pel sistema: en el cas de figures d’alt rang aquesta ràtio s’ha elevat a 100. El resultat: més de 33.000 morts (13.000 dels quals són criatures), 8.000 desapareguts sota les runes i 75.000 ferits en sis mesos. Famílies senceres esborrades del mapa escollides per un programa d’intel·ligència artificial.

Dos familiars embolcallant el cadàver d'un nen víctima d'un atac israelià a Rafah el 4 d'abril del 2024

Evangeli

Un altre sistema d’intel·ligència artificial desenvolupat per l’exèrcit israelià s’ha batejat amb el nom de Habsora (Evangeli). En aquest cas, no serveix per marcar persones sinó edificis. Segons ha publicat l’exèrcit israelià, aquest sistema està en marxa des del 2020 i l’ha desenvolupat la unitat 8.200 d’intel·ligència. No se sap tampoc amb exactitud amb quines dades s’alimenta l’algoritme, però comandaments de la unitat han dit que intenten que siguin tan variades com sigui possible: trucades de mòbil, imatges de satèl·lit i de drons i fins i tot sensors sísmics. Així han estat destruïts molts edificis que no tenien cap ús militar: blocs de pisos, hospitals, universitats, escoles, centres comunitaris, seus de mitjans de comunicació, fleques de pa... Segons Abraham, l’objectiu és "generar una commoció entre la població civil perquè pressioni Hamàs".

Les guerres del futur

Les notícies han alarmat els grups defensors dels drets humans. L’advocat Gil Gan Moore, de l’Associació pels Drets Civils d’Israel, explica que han presentat una petició d’informació pública a l’exèrcit per esclarir l’ús que està fent de la IA: "En una guerra la informació d’intel·ligència ha de ser molt precisa, no basada en el tractament de grans quantitats de dades. Ens preocupa que es defineixin objectius militars més ràpid del que podria pensar la intel·ligència humana". I afegeix: "Per molt que l’exèrcit digui que només és una eina de suport per als humans que prenen les decisions, sabem que és impossible per a qualsevol persona entendre, analitzar i respondre a una informació generada per intel·ligència artificial. Perquè no funciona a partir d'informacions raonades, sinó de patrons". També queda clar que aquest desenvolupament tecnològic no es limita a aquesta guerra. "Estem veient una imatge de com seran les guerres del futur, en què un ordinador ens dirà on hem de disparar, sense cap més intervenció humana. Les guerres es tornen cada cop més inhumanes i això fa molta por", assegura Gan Moore.

El periodista australià Antony Loewenstein recorda que "Israel està publicant vídeos dels seus atacs aeris i això ho fa sobretot per exposar les seves capacitats a altres governs i atreure així compradors interessats". "Està fent màrqueting amb els seus mètodes i equipaments, establint un precedent que altres països poden emular, sobretot els que estan implicats en operacions de contrainsurgència. No sabem quins altres països adoptaran la intel·ligència artificial, però la tendència és molt clara", rebla.

stats