L’algoritmo va alla guerra

Condividi:

Loading

di Marco Schiaffino (giornalista)

L’invenzione della polvere da sparo si deve alla Cina. È opinione piuttosto diffusa che i cinesi la utilizzassero solo per i fuochi d’artificio. Non è vero. L’uso della polvere da sparo come arma in Cina è stato semplicemente ostacolato dalle difficoltà nel costruire delle canne abbastanza resistenti e, fin dal 1290, gli eserciti cinesi hanno cominciato a usare cannoni in metallo che avevano sostituito i primitivi lanciarazzi costruiti con canne di bambù. La straordinaria capacità dell’essere umano di trasformare qualsiasi nuova tecnologia in un’arma è una caratteristica che ha attraversato tutta la nostra storia. Sperare che l’intelligenza artificiale (AI) possa essere un’eccezione è piuttosto ingenuo.

Dal Pentagono alla Silicon Valley, i progetti di implementazione di sistemi di AI in ambito militare sono già numerosi e gli sviluppi degli ultimi anni possono soltanto accelerare quello che è un percorso già ben avviato. Alla fine dello scorso aprile, per esempio, tutte le testate giornalistiche hanno riportato la notizia della sfida tra un “top gun” statunitense e un caccia controllato dall’AI. Al netto del rischio che si tratti di semplice propaganda (i prodi giornalisti del TG1 lo hanno definito un “test top secret”, così segreto che le informazioni sono state diffuse con un comunicato stampa e una serie di video a uso e consumo delle TV) si tratta di uno scenario tutt’altro che futuribile.

Aziende del settore bellico come Anduril, la società fondata da Palmer Luckey, offrono già sistemi di difesa e offesa basati sull’AI. Luckey è uno degli ormai tanti imprenditori tecnologici che non disdegna l’impegno nel settore militare. La sua fortuna è cominciata con Oculus, il visore di realtà virtuale che oggi è diventato proprietà di Meta (ex Facebook) dopo un’acquisizione da due miliardi di dollari. Con il “discreto” capitale messo insieme dalla vendita, Palmer Luckey ha potuto realizzare il suo sogno: fondare un’azienda tecnologica specializzata in armamenti. Lo ha fatto in collaborazione con un altro dei “cavalieri neri” della Silicon Valley, Peter Thiel, con il quale ha in comune le posizioni politiche (sono entrambi sostenitori di Donald Trump) e la convinzione che gli USA debbano seguire una linea orientata al concetto di deterrenza, sfruttando le innovazioni tecnologiche per creare armi sempre più letali ed efficienti. Anduril (il nome richiama quello di una spada nella saga del Signore degli anelli) si sta aggiudicando una serie di appalti del Pentagono che prevedono la progettazione e produzione di velivoli e sottomarini a guida autonoma, sistemi anti-droni controllati dall’intelligenza artificiale e altre piacevolezze simili.

I timori legati alle armi autonome

L’allarme generato dall’impiego di algoritmi di AI nella costruzione di armamenti “intelligenti” va al di là di una semplice allergia all’idea che una macchina possa prendere il posto di un essere umano. D’altra parte, il binomio guerra-intelligenza ha precedenti decisamente preoccupanti. Nel corso delle due guerre del Golfo, la retorica sull’uso delle “bombe intelligenti” è stata parte integrante della propaganda che ha permesso di sdoganare i bombardamenti indiscriminati in zone abitate da civili contando sulla supposta precisione chirurgica degli armamenti utilizzati. Solo in seguito è emerso come gli “effetti collaterali” (i civili uccisi) fossero ben più numerosi di quanto si pensasse.

Quando si parla di intelligenza artificiale e armi autonome, però, si compie un passo in più. La prospettiva è quella di una “automatizzazione degli attacchi”, in cui alla macchina è affidato il compito di decidere “se” e “come” colpire. Inutile dire che si tratterebbe di un azzardo spaventoso. Gli algoritmi di AI sono tutt’altro che perfetti e non possono (non potranno mai) sostituire il giudizio umano. Lo stiamo sperimentando nell’utilizzo “civile” dell’intelligenza artificiale, ma in un contesto bellico eventuali errori, per esempio nell’interpretazione del contesto, avrebbero conseguenze tragiche.

A dispetto dell’uso del termine “intelligenza”, i sistemi di AI non sono altro che complessi sistemi di analisi statistica, soggetti a errori e incapaci di interpretare situazioni che non rientrano negli schemi che sono in grado di interpretare. Lo sanno bene gli sviluppatori di Balefire, il software che la municipalità di Singapore sta sviluppando da anni (è alla terza versione) per individuare chi viola i divieti di fumo negli spazi pubblici della città. Nonostante il continuo sviluppo dell’algoritmo, ormai arrivato a livelli di complessità elevatissimi, l’AI continua a scambiare cannucce e patatine per una sigaretta, generando “falsi positivi” che lo rendono tuttora inaffidabile. Proviamo a immaginare se all’algoritmo fosse lasciato il compito di capire se un individuo possa essere considerato una minaccia o meno.

I primi a essere consapevoli dei rischi legati all’uso dell’AI sono gli stessi militari. Lo scorso anno aveva fatto scalpore una notizia (riportata erroneamente da molti organi di stampa) riguardante una simulazione in cui un drone controllato dall’AI avrebbe deciso di uccidere il suo operatore pur di portare a termine la missione che gli era stata affidata. In realtà, quella simulazione non è mai avvenuta. Si trattava solo di un “esperimento mentale” citato dal colonnello Tucker Hamilton, responsabile delle attività di test sulle AI per l’Aeronautica militare statunitense, nel corso di una conferenza tenutasi a Londra. Il racconto di Hamilton, però, spiega bene quali sono i problemi legati all’addestramento dell’AI e come utilizzare questa tecnologia in ambito militare possa portare a potenziali disastri.

Una coscienza artificiale

Quando si parla di AI nell’ambito bellico, uno dei termini che emergono è quello di “disumanizzazione della guerra”. Al di là dell’apparente ossimoro, abbiamo recentemente imparato che cosa possa significare. Lo scorso aprile, il portale +972 ha pubblicato un’inchiesta sull’uso dell’intelligenza artificiale da parte dell’esercito israeliano nell’invasione di Gaza. Il pezzo, basato sulle rivelazioni di alcuni ufficiali dell’Israel Defence Forces (IDF) tratteggia il sistema di intelligence sviluppato dal governo di Tel Aviv per individuare gli “obiettivi umani” da eliminare. Il sistema si chiama Lavender ed è basato (tanto per cambiare) su un algoritmo di AI.

Lavender incrocia le informazioni raccolte dall’intelligence israeliana attraverso il sistema di sorveglianza di massa implementato a Gaza (video, foto, post sui social network, metadati relativi alle telefonate e agli scambi di messaggi) per identificare i gazawi che hanno collegamenti con Hamas. Se dall’inchiesta di +972 emergono tutti i difetti a livello tecnico del sistema (l’articolo può essere letto nella traduzione integrale pubblica da Il Manifesto al link https://ilmanifesto.it/20-secondi-per-uccidere-lo-decide-la-macchina) ciò che emerge dalle parole dei whistleblowers israeliani è l’impatto psicologico che l’uso dell’AI ha generato.

Le fonti contattate da +972 descrivono uno scenario allucinato, in cui i militari israeliani si affidano all’algoritmo in ogni loro azione, senza mai mettere in discussione (e senza “volere mai” mettere in discussione) le scelte di Lavender. Gli obiettivi vengono selezionati dall’algoritmo, il momento dell’attacco viene scelto dall’algoritmo, la valutazione degli “effetti collaterali” (20 civili considerati sacrificabili per l’uccisione di un qualsiasi membro di Hamas, non importa quale sia la sua rilevanza) è affidata all’algoritmo.

Il soldato non valuta, non sceglie, non decide. Il soldato esegue. Esegue gli ordini di un sistema di AI cui, de facto, è stata affidata l’ultima parola nella scelta di uccidere quasi 40.000 tra uomini, donne, bambini. Benvenuti nell’era dell’intelligenza artificiale.

Immagini:

Foto 1 di Tayeb MEZAHDIA da Pixabay

Foto 2: “L’intelligenza artificiale progetta un attacco militare. I soldati umani lo eseguono” Immagine digitale generata con Midjourney AI

Articolo tratto dal Granello di Sabbia n. 53 di Maggio – Giugno 2024: “Chi fa la guerra non va lasciato in pace

Se sei arrivato fin qui, vuol dire che ti interessa ciò che Attac Italia propone. La nostra associazione è totalmente autofinanziata e si basa sulle energie volontarie delle attiviste e degli attivisti. Puoi sostenerci aderendo online e cliccando qui . Un tuo click ci permetterà di continuare la nostra attività. Grazie"