Verso una nuova etica per l'intelligenza artificiale

L’intelligenza artificiale sta cambiando le nostre vite. Ecco perché servono nuove norme per ridurre i rischi

Verso una nuova etica per l'intelligenza artificiale

L’intelligenza artificiale - protagonista anche del precedente post - sta già cambiando le nostre vite in modo significativo. Sempre di più sono gli algoritmi da essa governati per decidere quali notizie visualizziamo online (e quali no), quali pubblicità e offerte di intrattenimento ci vengono proposte, o come reagiscono i veicoli e robot autonomi in situazioni moralmente problematiche, dal traffico delle nostre città alle zone di guerra.


Per questo motivo, è urgente elaborare nuove norme comuni per cogliere le opportunità connesse alle nuove tecnologie basate sull’intelligenza artificiale, evitando o mitigandone però i possibili rischi. A questo proposito, è appena stato pubblicato un documento molto interessante sull'ultimo numero di Mind and Machines, intitolato «AI4People - An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations». Il documento è firmato dal gruppo AI4People, un’iniziativa europea dedicata al rapporto tra scienza, etica e democrazia.


Questo «libro bianco» è importante per diverse ragioni. In primo luogo perché rappresenta un punto di partenza sufficientemente generale e bilanciato, che evita sia inutili entusiasmi sia sterili catastrofismi. Come spiegano gli autori, coordinati dal filosofo italiano Luciano Floridi, l’intelligenza artificiale può infatti essere: utilizzata per promuovere la natura umana e le sue potenzialità, e cioè per creare nuove opportunità; sottoutilizzata, sprecando così valide opportunità; oppure sovra-utilizzata o mal-utilizzata, generando nuovi rischi. La vera sfida, dunque, è capire come indirizzare lo sviluppo e la gestione delle tecnologie basate sull’intelligenza artificiale affinché sia possibile utilizzarle bene per i giusti scopi.

 

Per questo motivo, il documento offre una serie di principi etici di riferimento. Qui i punti interessanti sono due. Primo, quattro di questi cinque principi (beneficenza, nonmaleficenza, autonomia e giustizia) sono derivati direttamente dalla tradizione bioetica, a dimostrazione di quanto le riflessioni compiute in questo ambito siano divenute rilevanti per pensare le conseguenze morali del progresso biotecnologico in generale, anche al di fuori della biomedicina.

 

Secondo, oltre a questi principi classici, il gruppo di lavoro ne ha proposto un quinto, denominato «explicability» (intelleggibilità). Questo principio si basa sul riconoscimento che le tecnologie basate sull’intelligenza artificiale impattano direttamente sulla vita di miliardi di individui per i quali, però, tali tecnologie risultato inintelligibili, e cioè del tutto opache e incomprensibili. Il principio di «esplicabilità» prevede allora che, per ogni tecnologia/decisione «X» basata sull’intelligenza artificiale, sia possibile rispondere a due domande: Come funziona «X»? Chi è responsabile per il funzionamento di «X»?. Perlomeno in teoria.

 

Questa proposta rappresenta un passo nella giusta direzione. Investire sull’«explicability» dell’innovazione è oggi cruciale, e non solo in relazione all’intelligenza artificiale. Le sfide che il progresso tecnico-scientifico ci presenta come società, infatti, richiedono decisioni forti e condivise, che non possono e non devono essere imposte da una élite di esperti sul resto della collettività. Per decidere bene, però, bisogna prima sapere. E per sapere è fondamentale (poter) capire.



Commenti (0)