Benvenuto a chiunque è alla "ricerca di senso nel quotidiano"



mercoledì 12 giugno 2024

Intelligenza artificiale e conflitti armati - L’IA che uccide

 Intelligenza artificiale e conflitti armati
L’IA che uccide 


Ha destato curiosità l’intenzione di Papa Francesco di partecipare alla sessione del G7 dedicata all’Intelligenza Artificiale (IA). Al Pontefice evidentemente non sfugge la pericolosità di alcune applicazioni dell’Intelligenza artificiale, che spesso rimangono in secondo piano.

Non c’è infatti solo un problema relativo alle caratteristiche intrinseche dell’IA e alle questioni che apre un suo sviluppo futuro sulle forme della comunicazione e relazione. C’è anche il problema dei suoi campi d’applicazione, che — come in molte altre innovazioni scientifiche e tecnologiche che l’hanno preceduta — sembrano dare precedenza all’area militare.

Così costituisce una drammatica allerta quanto accaduto nel corso della sanguinosa guerra attualmente in corso a Gaza. Secondo due autorevoli media come il quotidiano britannico «The Guardian», e i giornali on-line «+972 magazine» e «Local call magazine», editi a Tel Aviv, infatti i soldati israeliani che combattono a Gaza dopo il 7 ottobre sarebbero guidati, se non “comandati” da due programmi di Intelligenza Artificiale, a cui andrebbe, tra l’altro, attribuito l’alto numero di civili vittime dei bombardamenti israeliani sulla Striscia.

Secondo i tre media, che hanno raccolto le informazioni direttamente da ufficiali dell’intelligence israeliana, l’Idf (Israeli defence force) avrebbe infatti utilizzato, soprattutto nei primi mesi del conflitto, un software di IA denominato Lavender, contenente un data base di circa 37.000 target potenziali, individuati in base ad un supposto collegamento con i terroristi di Hamas. Le strutture di comando delle truppe israeliane avrebbero cioè privilegiato nell’identificazione degli obiettivi da colpire le fredde indicazioni dell’ IA piuttosto che le osservazioni e valutazioni dei soldati in campo. In soli 20 secondi il programma era in grado di riconoscere il target già inserito nella banca dati, individuarlo anche attraverso il riconoscimento facciale, e ordinarne l’esecuzione fornendo le coordinate. Poco importa che nel medesimo edificio si trovassero altri civili incolpevoli. Secondo le fonti israeliane raccolte dai due magazine israeliani , e rilanciate dal quotidiano londinese, l’alto numero di casualties, cioè di civili rimasti vittime dei bombardamenti, sarebbe stato causato proprio dall’uso indiscriminato dell’IA.

L’intervento umano sarebbe stato limitato ad una mera validazione posta al termine dell’intera procedura. Anzi, sembrerebbe che il programma fosse in grado di calcolare in anticipo anche la stima del numero di civili che sarebbero stati colpiti in ogni singola operazione, e che, nelle prime settimane di conflitto, il limite preventivamente indicato, ed autorizzato di casualties, fosse nell’ordine di 15/20 vittime civili per ogni terrorista colpito. Un numero flessibile a seconda dei contesti: in alcuni casi scendeva a 5, ma nel caso di esponenti del vertice dell’ala militare di Hamas o di Jihad Islamica poteva arrivare anche a 100. I vertici militari israeliani non hanno smentito le rivelazioni del «The Guardian» sull’uso dell’Intelligenza Artificiale nel conflitto, dichiarando però di non essersi mai mossi al di fuori delle regole internazionali di proporzionalità dei danni collaterali, e che Lavender è essenzialmente un data-base che incrocia diverse fonti di intelligence per avere informazioni aggiornate sugli operativi dei gruppi terroristici, e non una lista di quelli da eliminare fisicamente. Il programma Lavender — sempre secondo le testimonianze anonime di ufficiali dell’intelligence israeliana — avrebbe funzionato in parallelo con un altro sistema di IA tragicamente denominato The Gospel. Mentre il primo è fondato su un data base di target umani, il secondo invece è dedicato ai target costituiti da edifici e strutture. Ovviamente la struttura del data base Lavender dipende dall’input umano relativo alla nozione di “terrorista”, ai parametri cioè che lo definiscono. Più ampia o più dettagliata è la definizione fornita alle macchine, maggiore o più ristretta è la lista di target fornita da Lavender. Il timore è che dopo la carneficina perpetrata da Hamas il 7 ottobre, prevalendo uno spirito di vendetta, siano stati “allargati” i requisiti per venire inseriti nelle liste. Di conseguenza il maggior numero di target avrebbe richiesto una velocizzazione temporale delle procedure che solo l’IA poteva permettere.

Anche l’altro grande conflitto di questi difficili tempi ha visto il debutto dell’Intelligenza Artificiale sui campi di battaglia. Le forze armate ucraine hanno iniziato ad usare droni guidati dall’IA. Generalmente un drone ha un pilota che lo guida da remoto verso l’ obiettivo, aggiustando la rotta se necessario e in considerando i possibili rischi di effetti collaterali. Una nuova generazione di droni, per i quali non c’è più un pilota ma solo un operatore che indica l’obiettivo sul geolocalizzatore e schiaccia un pulsante, si sta affacciando ora sul ricco e promettente mercato della robotica militare. Almeno 10 società ucraine, e diverse altre occidentali, stanno utilizzando la guerra russo-ucraina come area test delle loro micidiali invenzioni. L’Intelligenza Artificiale di questi droni pianifica la rotta considerando anche le caratteristiche morfologiche dei terreni, coordina il volo dell’intero sciame, e a missione compiuta da conferma del danno arrecato al nemico. Soprattutto un solo operatore può monitorare il volo di più droni, risparmiando tempo e risorse umane. Per gli ucraini l’uso dell’Intelligenza Artificiale diviene dunque uno strumento decisivo per compensare lo squilibrio numerico delle forze in campo. I russi, da parte loro, hanno sviluppato una estesa linea di disturbo radio lungo tutto il fronte, che serve ad isolare i droni dai loro piloti remoti. Anche i russi hanno utilizzato l’Intelligenza Artificiale per lanciare i loro attacchi, ma agiscono soprattutto nel campo delle intrusioni informatiche, per rispondere automaticamente alle incursioni nemiche e persino identificare potenziali vulnerabilità in una rete. Osservatori occidentali ritengono che gli sviluppi russi sull’uso militare dell’IA e la realizzazione degli Emerging and disruptive technology (Edt) programmes possano essere stati rallentati dall’applicazione delle sanzioni, tuttavia Putin (che ha più volte evidenziato la strategicitá dell’IA militare paragonandola in termini di efficacia a ciò che rappresentó in passato il nucleare) potrebbe sempre scommettere sul livello più avanzato raggiunto nel campo dai cinesi.

Il ministero della Difesa ucraino ha creato un’unità specialistica denominata Bravel, che supporta e facilita il lavoro delle decine di start up nate per implementare l’IA in campo militare. Decine di forze militari occidentali stanno seguendo da vicino (rivela l’autorevole magazine on-line Politico.eu, in una lunga e dettagliata inchiesta sul fenomeno) gli sviluppi dei sistemi d’arma automatici in via di sperimentazione in Ucraina. Anche in questo caso come a Gaza, secondo gli analisti, il rischio maggiore è che privilegiando la velocità di esecuzione si finisca col diminuire però la capacità di controllo di queste armi autonome, aprendo la possibilità ad assassini di massa. Quindi, diversamente dal luogo comune che vede nel conflitto russo-ucraino un ritorno alla guerra tradizionale, l’est dell’Ucraina è oggi in realtà un laboratorio di sperimentazione di come si combatteranno le guerre nel prossimo futuro. Sarebbe importante che nel prossimo G7 se ne cominci a discutere, e pensare ad una convenzione internazionale che — come avvenuto in passato per gli arsenali nucleari — ponga dei limiti all’applicazione dell’Intelligenza Artificiale in campo militare. Anche se appare difficile oggi riuscire a normare un fenomeno che è ancora in una fase di sviluppo iniziale, mentre è in corso la gara a chi arriva prima a produrre le armi più letali.
(fonte: L'Osservatore Romano, articolo di Roberto Cetera 11/06/2024)