L’ incubo Schwarzenegger diventa realtà. Il soldato robot istruito per fare la guerra al nemico, nel corso dell’azione militare, si autonomizza e modifica il Target da colpire come bersaglio. Si rivolta contro gli umani che lo hanno costruito e mandato in guerra. Invece di sparare agli obiettivi contenuti nelle istruzioni del suo software, il soldato robot si ribella e spara contro i propri “maestri”. Era fantascienza solo qualche anno fa, o almeno pensavamo lo fosse. Oggi è una drammatica realtà.

Il grido d’allarme (Lanciato da Pickett già da qualche mese) arriva da Melbourne, Australia, dove sono in corso i lavori della più importante conferenza internazionale tra specialisti della intelligenza artificiale (International joint Conference on Artificial intelligence- IJCAI-). 116 fondatori di aziende di robotica e intelligenza artificiale, tra cui Elon Musk fondatore di Tesla e Mustafa Suleyman di Deep Mind, del gruppo Google, hanno sottoscritto una lettera-manifesto in cui si appellano alle nazioni del mondo auspicando, attraverso uno slogan efficace, che siano “fermati I soldati robot” quelli che abbiamo visto appunto nel film Terminator (1984).

L’occasione dell’appello è fornita dal primo meeting del gruppo di esperti governativi (Gge) convocato in questi giorni con una terrificante agenda di punti da approfondire, relativi proprio a questi scottanti ed inquietanti temi di attualità. La conferenza del Gge è stata all’ultimo momento rinviata ma non per questo l’urgenza di affrontare il problema viene meno. “Invitiamo i partecipanti ai lavori delle Gge – hanno scritto i 116 firmatari del manifesto contro lo sviluppo della tecnologia dei soldati robot – a sforzarsi di trovare modi per prevenire una corsa agli armamenti autonomi, per proteggere i civili dagli abusi e per evitare gli effetti destabilizzanti di queste tecnologie. Le armi letali autonome – continua la lettera appello – minacciano di essere la terza rivoluzione in campo militare. Una volta sviluppate, permetteranno ai conflitti armati di essere combattuti su una scala più grande che mai e su scale temporali più veloci di quanto tutti gli umani possano comprendere: sono armi che despoti e terroristi potrebbero rivolgere contro popoli innocenti, oltre che armi che gli hacker potrebbero riprogrammare per comportarsi in modi indesiderabili. Non abbiamo molto tempo per agire: una volta aperto il vaso di Pandora, sarà difficile richiuderlo.”

Il quotidiano Repubblica.it ha intervistato uno dei firmatari italiani dell’appello di Melbourne: Alberto Rizzoli, fondatore di AIPoly, una start-up che ha sviluppato un’applicazione che grazie all’intelligenza artificiale permette ai ciechi di fruire di descrizioni audio di ciò che il loro smartphone inquadra.

Pickett ritiene utile riprendere alcuni passaggi dell’intervento di Alberto Rizzoli in quanto possono fornirci un quadro aggiornato e competente dello stato dell’arte dell’industria dell’intelligenza artificiale.

“se si trattasse soltanto di robot contro robot – spiega Rizzoli a repubblica.it – un conflitto sarebbe un’attività poco efficace, visto che è più semplice implementare delle sanzioni piuttosto che sprecare milioni di dollari in un match tra macchine intelligenti. Purtroppo è più probabile che i robot killer vengano utilizzati per attaccare esseri umani.”

Il vero rischio però, come denunciato da Pickett dopo il seminario organizzato da UPA nel maggio scorso, è costituito dalla possibile autonomia decisionale dei robot rispetto alle istruzioni ricevute. Se vi ricordate l’esempio del ranger robot, approfondito durante il seminario UPA, quello fu un classico caso in cui la macchina, figlia dell’intelligenza artificiale, andò oltre le istruzioni contenute nel suo software e insegnò al ranger robot a superare anche quel ruscello che non era previsto nel protocollo formativo originario.

Rizzoli sul punto e molto preciso: “l’autonomia ha subito un importante cambiamento dal 2012: siamo passati da sistemi prevedibili e programmati manualmente all’uso di reti neurali. Ovvero una vasta serie di neuroni artificiali organizzati in matrici che possono essere addestrati a ripetere, comprendere e prevedere dati numerici in un modo ispirato alla corteccia visiva animale.”

“Il problema – continua Rizzoli – è che le reti neurali sono probabilistiche di natura: un po’ come la mente umana, una volta addestrate non possono essere analizzate in dettaglio per capire esattamente perché hanno preso una certa decisione – magari letale – invece di un’altra. Il cervello di questi robot è una scatola nera che compie decisioni, a volte anche sbagliate, che ancora non riusciamo ad analizzare bene. Se un Drone è autonomo e dotato di armi, bisogna essere certi che non colpisca civili e innocenti e bisogna che qualcuno sia legalmente responsabile per il suo operato: non si può dare la colpa ad un algoritmo!”.

A questo punto dell’intervista con il giornalista di Repubblica.it, Rizzoli enuncia una possibile soluzione al vecchio tema mai risolto sulla possibilità/necessità di bloccare in qualche modo lo sviluppo della scienza e della tecnologia. Rizzoli, ovviamente senza saperlo, riprende un ragionamento già sviluppato da Pickett nei suoi precedenti contributi sui temi scatenati proprio dalla rivoluzione dell’intelligenza artificiale. Ci riferiamo da un lato alla presa d’atto della impossibilità di bloccare efficacemente lo sviluppo della scienza e della tecnologia; dall’altro alla necessità di trovare però degli strumenti che possano in qualche modo salvaguardare la pacifica convivenza degli esseri umani tra di loro e anche e soprattutto verso le nuove macchine. Ebbene Rizzoli, come già ipotizzato da Pickett, lancia questa sfida: “Siamo riusciti ad evitare, fino ad oggi, la diffusione di armi chimiche e atomiche. Salvo qualche eccezione siamo riusciti, in maniera efficace, negli ultimi settant’anni, soltanto con qualche eccezione seguita da pesanti sanzioni, ad arginare la proliferazione di tali armi letali. Forse con un trattato internazionale potremmo ottenere lo stesso auspicabile risultato con le armi autonome. Il rischio è comunque alto: il prezzo dei sistemi autonomi scenderà negli anni e costruire un robot killer nel 2035, ad esempio, sarà come costruire un mortaio improvvisato ad Aleppo nel 2015. L’unica vera soluzione è quella di rendere la guerra obsoleta, cosa che comunque sta succedendo col tempo, dove ogni guerra regala sempre di meno ai vincitori perché il valore economico dei paesi si è trasferito dalle risorse fisiche (ovvero quelle conquistabili ) alle risorse mentali e operative dei loro abitanti”.

Come fecero i visionari statisti del mondo uscito dalla tragica esperienza della seconda guerra mondiale, oggi, proprio per evitare lo scoppio della terza e letale guerra mondiale, bisognerebbe che le leadership dei paesi più sviluppati prendessero in mano la questione e definissero il perimetro e il contenuto di un trattato internazionale mirato ad arginare e comunque disciplinare la proliferazione dei soldati robot o comunque delle armi letali originate dagli sviluppi dell’intelligenza artificiale.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.