tecnologia

Intelligenza Artificiale sotto controllo

“Mentre i robot hanno un controllo sempre maggiore sulle nostre vite, chi assicura che si comportino correttamente”? Questo il dubbio di Joji Sakurai

Home Life Innovazione tecnologia Intelligenza Artificiale sotto controllo

“Cosa dovrebbe essere in grado di fare l'automobile a guida autonoma?” Il sito web Moral Machine del Media Lab del MIT pone questa domanda in uno (di una serie) di quiz che invitano gli utenti a fare una scelta etica di fronte a due scenari proposti. 

Clicca a destra: l'automobile driverless con freni in avaria colpisce in pieno un pedone, uccidendolo. Clicca a sinistra: l'automobile sbanda e va a sbattere contro una barriera di cemento, uccidendo la ragazza a bordo dell'auto. 

È un modo triste, seppur avvincente, di passare il tempo. Eppure, nel corso del prossimo decennio, questi esperimenti avranno conseguenze importanti per quasi tutti coloro che vivono in società sviluppate, man mano che l'Intelligenza Artificiale (IA) assumerà un ruolo sempre più importante nella nostra vita quotidiana. Negli anni a venire, all'intelligenza robotica verranno affidati compiti sempre più complessi, dal portarci al lavoro o venderci assicurazioni, all'insegnare l'algebra ai bambini e sviluppare cure per il cancro.

Intelligenza Artificiale sotto controllo
Intelligenza Artificiale sotto controllo

Più intelligenti degli umani
Le macchine stanno diventando talmente intelligenti in così poco tempo che molti ricercatori prevedono che, entro il 2030, raggiungeranno i livelli dell'intelligenza umana, sviluppando una potente intelligenza artificiale. Nell'arco della nostra vita, potrebbero diventare più intelligenti di noi, raggiungendo la cosiddetta super intelligenza artificiale (o singolarità). Tale prospettiva riserva opportunità straordinarie che gioverebbero al genere umano (potenzialmente sconfiggendo anche la povertà e la malattia). Allo stesso tempo, però, essa apre un vaso di Pandora in termini di dilemmi filosofici, morali e legali. 

Come programmare l'IA per formulare giudizi morali corretti in situazioni in cui ci sono in gioco la vita o la morte? Come impedire a pregiudizi razziali, culturali e di genere di insinuarsi nei sistemi IA? E oggi, una domanda dalla fantascienza sta cominciando a farsi strada in maniera allarmante: come facciamo a sapere che le macchine non ci si ritorceranno contro una volta che avranno raggiunto un'intelligenza superiore alla nostra? Lo scienziato Stephen Hawking mette in guardia sul fatto che l'intelligenza artificiale “potrebbe significare la fine del genere umano”.

Tra queste preoccupazioni sorge un'altra domanda: chi sta tenendo d'occhio ufficialmente l'IA? In poche parole, praticamente nessuno. “Finora,” afferma il World Economic Forum in un rapporto, “l'IA si è sviluppata nella pressoché totale assenza di contesto normativo.” I governi applicano norme ai prodotti finiti delle tecnologie IA, per esempio obbligando i veicoli autonomi a rispettare gli standard di sicurezza applicati alle automobili convenzionali. Tuttavia, in pratica, non esistono norme che regolano lo sviluppo dell'IA stessa. 

Vi sono casi isolati di commissioni ufficiali sull'IA, come l'organismo tedesco che l'anno scorso ha elaborato linee guida etiche per i veicoli driverless. Tuttavia, non esiste ancora un quadro normativo onnicomprensivo sull'IA a livello nazionale, né tantomeno a livello internazionale.  

Stabilire standard etici
Tra una carenza di vigilanza ufficiale e una crescente consapevolezza della necessità di politiche sull'IA, sono subentrati i colossi della tecnologia e le istituzioni accademiche, intraprendendo le prime azioni verso la determinazione di standard etici e di sicurezza per l'intelligenza robotica. Microsoft, Google, IBM, Facebook e Amazon hanno stretto collaborazioni con università, organizzazioni non governative e altri enti per lanciare la Partnership on Artificial Intelligence to Benefit People and Society nel 2016, con l'obiettivo di sviluppare “le prassi ottimali negli ambiti di ricerca, sviluppo, controllo e implementazione di tecnologie IA”. Il Future of Life Institute, organizzazione impegnata a proteggere l'umanità dalle minacce alla propria esistenza, si è guadagnato l'appoggio di Hawking per i suoi “Principi di Asilomar per l'IA”, una serie di linee guida per la ricerca al fine di garantire l'utilità dell'IA per l'umanità.

Nel 2017, l'organizzazione no profit Knight Foundation è stata tra i finanziatori di un fondo da 27 milioni di dollari USA, l'Ethics and Governance of Artificial Intelligence Fund, sfruttando il Media Lab del MIT e il Berkman Klein Center for Internet & Society dell'Università di Harvard per condurre l'iniziativa. Alcuni mesi dopo, DeepMind, la divisione di Google dedicata all'IA, ha istituito il gruppo di ricerca DeepMind Ethics & Society, costituito da dipendenti e membri esterni come il professore di filosofia Nick Bostrom (fondatore e direttore del Future of Humanity Institute dell'Università di Oxford), con lo scopo di sviluppare soluzioni etiche per gli impatti sociali delle tecnologie IA.

Queste iniziative sollevano una questione ovvia: possiamo sperare che le aziende a scopo di lucro (e notoriamente reticenti) come Facebook e Google sorveglino le tecnologie che loro stesse sviluppano? Dietro questa domanda si nascondono questioni più profonde sulla fattibilità stessa della determinazione di standard etici universali per l'IA. I sistemi autonomi responsabili delle decisioni che coinvolgono la vita umana in una frazione di secondo (come chi sopravvive e chi muore in un incidente stradale) devono essere programmati per elaborare queste decisioni in base a valori etici umani. Ma di chi sono i valori di cui parliamo? La percezione della gerarchia e degli imperativi morali varia a seconda della cultura, della religione e addirittura della comunità. 

La Moral Machine del MIT mira a creare una “visione collettiva dell'opinione delle persone sul modo in cui le macchine dovrebbero prendere determinate decisioni di fronte a dilemmi morali”.Tuttavia, non è ancora chiaro se tale approccio possa portare a norme accettabili a livello globale o addirittura convincenti dal punto di vista filosofico. La risposta sarà spesso influenzata dall'emotività, dai pregiudizi cognitivi e dagli input culturali, elementi che, secondo i ricercatori, non dovrebbero interferire nei processi decisionali dei sistemi IA.

La vita secondo la legge dei robot
Inoltre, gli individui stessi sono un insieme di contraddizioni morali, in cui il compromesso etico rappresenta la regola piuttosto che l'eccezione. Tuttavia, la “confusione” che è parte integrante dell'interazione umana non costituisce assolutamente un'opzione nel determinare gli standard etici per l'IA. Ed è proprio questo il punto. Ci troviamo di fronte al paradosso per cui i robot devono essere tenuti a standard più elevati rispetto agli esseri umani. Però, nella creazione di macchine morali, siamo noi, umani imperfetti e contraddittori, che ci troviamo di fronte alla responsabilità urgente di insegnare ai robot una serie di valori morali universalmente riconosciuti che non esistono ancora. 

E supponiamo che quel giorno alla fine arrivi. Siamo sicuri di essere disposti a rinunciare alla nostra confusione morale a favore dei giudizi morali assoluti di robot puri dal punto di vista etico, abbastanza intelligenti da controllare ogni nostro respiro? Forse dovremmo considerare non solo il fatto che un giorno potrebbero diventare cattivi, ma anche il fatto che potrebbero diventare troppo buoni. La vita sotto lo sguardo benevolo di angelici robot super intelligenti non diventerebbe forse un po' opprimente? Siamo disposti a rinunciare allo straordinario piacere di un po' di trasgressione?