L'etica dei robot non ci darà guerre giuste

Ha senso parlare di etica della guerra? Esiste un codice morale da applicare non solo all’uomo contro uomo, ma anche alla tecnologia militare? Il concetto è di per sé un assurdo, ma la questione è di strettissima attualità e in occasione della terza edizione della Conferenza Mondiale di Science for Peace (a Milano, 19 e 20 novembre) ne parlerà il “padre” della Roboetica, l’ingegnere Gianmarco Veruggio, direttore della scuola di robotica presso il CNR di Genova.

L'etica dei robot non ci darà guerre giuste

Ha senso parlare di etica della guerra? Esiste un codice morale da applicare non solo all’uomo contro uomo, ma anche alla tecnologia militare? Il concetto è di per sé un assurdo, ma la questione è di strettissima attualità e in occasione della terza edizione della Conferenza Mondiale di Science for Peace (a Milano, 19 e 20 novembre) ne parlerà il “padre” della Roboetica, l’ingegnere Gianmarco Veruggio, direttore della scuola di robotica presso il CNR di Genova.

Questa giovane scienza è nata in Italia tra Genova, Pisa e Roma, ed è stata esportata in tutto il mondo. Nel 2002 Veruggio ha definito la roboetica come un’etica applicata allo sviluppo e all’impiego dei robot, con un obiettivo ambizioso, in un mondo in cui le occasioni di interazione uomo-macchina si moltiplicano: promuovere e incoraggiare una robotica funzionale al progressi della società umana e degli individui, e prevenire invece un suo abuso contro l’umanità.

Le macchine, specie quelle per uso militare, vanno progettate e utilizzate secondo delle linee guida condivise, qualcosa di simile ai principi della Convenzione di Ginevra, ha già ipotizzato qualcuno. Si racconta che Leonardo da Vinci avesse accantonato un sommergibile di sua invenzione per scrupoli etici, poiché avrebbe alterato eccessivamente i rapporti di forza fra gli schieramenti. Cinque secoli dopo, Isaac Asimov, il famoso scrittore russo di fantascienza, nel suo  racconto “girotondo” (1942) formulò le 3 leggi della robotica: 1) Un robot non può recar danno a un essere umano e non può permettere che, a causa di un suo mancato intervento, un essere umano riceva danno; 2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge; 3) Un robot deve proteggere la propria esistenza, purché la sua difesa non contrasti con la Prima o la Seconda Legge. In seguito Asimov aggiunse un’altra legge, la Legge Zero:  un robot non può recar danno all’umanità e non può permettere che, a causa di un suo mancato intervento, l’umanità riceva danno.

E chissà quale interpretazione di “danno” darebbe Asimov di fronte ai “droni” pilotati a distanza e programmati per colpire bersagli militari o eliminare personaggi considerati pericolosi, come l’imam radicale Anwar Al Awlaki, considerato uno dei possibili successori di Bin Laden e ucciso nello Yemen, o come il bombardamento Nato sulla colonna con Gheddafi in fuga.

Quel che è certo è che questa non è fantascienza, ma tecnologia progettata e utilizzata da esseri umani. Da noi. Veruggio, in un’intervista, ha detto: “E’ inutile pensare a regole da applicare alle macchine ignorando l’educazione di chi le macchine le fa. Se molte auto superano i 200 chilometri all’ora invece dei 130 consentiti dal codice la colpa non è delle macchine, ma degli umani costruttori”.

Sono inoltre persuaso che l’utilizzo di robot di ultima generazione, per quanto raffinati, non ci porterà a guerre più intelligenti, né più giuste. Né verrà mai meno la  nostra responsabilità di esseri umani e di scienziati. Robert Oppenheimer,  il “padre” della bomba atomica sganciata su Hiroshima e Nagasaki, nel dopoguerra prese posizione contro la bomba H e i rischi di una corsa all’armamento nucleare. Passò da incarichi di prestigio (come la direzione dell’importantissimo Institute for Advanced Study dell’università di Princeton, succedendo ad Albert Einstein) alle persecuzioni del maccartismo, con l’accusa di mettere in pericolo la sicurezza nazionale. Non cambiò posizione, e girò il mondo per parlare di etica e di progresso scientifico.

Oggi più che mai mi sento di affermare che la scienza non è mai neutrale, ogni scoperta comporta la responsabilità dell’uso che se ne farà. No, non ha senso cercare una guerra “morale”. Oggi più che mai la scienza deve mobilitarsi per la pace, portare cibo dove c’è fame, acqua dove c’è il deserto, sicurezza dove c’è paura e salute là dove c’è malattia.

Umberto Veronesi



Commenti (0)