Sono mesi che a Gaza prosegue la guerra con l’occupazione da parte dell’esercito israeliano. Di recente abbiamo scritto su StartupItalia del ruolo dominante della tecnologia sfruttata da Tel Aviv per individuare persone collegate ad Hamas. Nella Striscia sono state installate numerose telecamere e in campo c’è pure una startup attiva nel riconoscimento facciale che collabora con le autorità . Un’inchiesta giornalistica pubblicata su +972 Magazine ha fatto luce sull’impatto dell’AI nei primi giorni della guerra, subito dopo la strage del 7 ottobre. Il governo di Benjamin Netanyahu avrebbe infatti fatto ricorso a un sistema di AI, chiamato Lavender, responsabile dell’identificazione di 37mila potenziali obiettivi collegati dal sistema alla rete di Hamas.
Chi ha sviluppato Lavender?
A rivelare queste informazioni sono state sei fonti anonime, in servizio nell’esercito israeliano e coinvolte in prima persona nell’utilizzo di questa intelligenza artificiale per stilare una lista di persone da colpire. Sono oltre 30mila le vittime a Gaza dall’inizio di questa nuova fase del conflitto in Medio Oriente.
Secondo la ricostruzione fornita dai militari, nei primi giorni dopo l’attacco del 7 ottobre – quando tutto il mondo guardava inorridito quanto compiuto dai terroristi di Hamas – l’esercito israeliano si è affidato a Lavender per individuare gli obiettivi da colpire e realizzare quella che viene definita una kill list. A svilupparla è stata l’unità 8200, corpo d’élite dell’esercito specializzato in materia di intelligence.
Le vittime civili – brutalmente definite come collaterali in qualsiasi conflitto – sembrano tuttavia il frutto di un utilizzo indiscriminato dell’intelligenza artificiale. Prima di autorizzare un bombardamento contro un obiettivo suggerito dall’AI i militari, così riferisce una fonte, impiegavano nifatti pochi secondi prima di dare il via libera all’operazione bellica, senza dunque fare ulteriori verifiche. L’aspetto agghiacciante è che è noto all’esercito la percentuale di errore della tecnologia: nel 10% dei casi sbaglia.