Algoritmi AI: (molte) opportunità e (poche) minacce | Pirelli
< Torna alla Home
PIRELLI.COM / WORLD

Algoritmi AI: (molte) opportunità e (poche) minacce

Algoritmi AI: (molte) opportunità e (poche) minacce 01

I modelli matematici, i Big Data (gigantesche quantità di dati complessi e fra loro eterogenei), e i sofisticati algoritmi dell'Intelligenza Artificiale (IA), consentono di costruire l'iperrealtà del Metaverso. In questo mondo parallelo, ricostruibile con grande accuratezza e realismo, possiamo cogliere straordinarie opportunità, come visitare musei da remoto, farci condurre da automobili a guida autonoma, persino costruire dei gemelli digitali del nostro cuore o del nostro cervello. Ma ci dovremo anche rassegnare alla presenza di algoritmi sempre piu' intrusivi che possono invadere gli spazi piu' intimi della nostra vita e svelare in anticipo (a noi e agli altri, datori di lavoro, compagnie di assicurazione, partiti politici) le nostre caratteristiche, debolezze, preferenze. Ma procediamo con ordine

Un mondo di dati

Come affermato da Tim Barrett (CEO di CISCO), il XXI secolo può essere definito come l'era degli zettabyte (1 Zettabyte = 1021 byte = 1 triliardo di byte, l'equivalente di 36 milioni di anni di video in alta definizione!). Dati che vengono generati incessantemente da satelliti, sensori, immagini da TAC o Risonanza Magnetica per la diagnosi clinica, e ovviamente dai social media. Basti pensare che oltre 3 miliardi di individui hanno oggi accesso a Internet, e in ogni minuto si stima che in Youtube vengano caricati 300 ore di nuovi video, prodotti 350000 Tweets su Twitter, postati 4.200.000 posts su Facebook, 1.700.000 foto su Instagram, 110.000 calls in Skype, etc. Mediamente, negli ultimi 30 anni i dati generati sono quadruplicati in un lasso di tempo inferiore ai tre anni!

Questa enorme tasso di crescita dei dati, accompagnata dalla diffusione del cloud computing che consente di accedere a grandi potenze di calcolo a costi contenuti, e allo sviluppo prepotente degli algoritmi dell'intelligenza artificiale (IA) e del machine learning (ML) in particolare, consentono da un lato di rendere l'intera conoscenza dell'universo disponibile “gratuitamente” ad ogni individuo, dall'altro alle Big Tech (quali Amazon, Apple, Microsoft, Google, Facebook,..) di  implementare algoritmi sempre piu' sofisticati grazie ai dati personalizzati che ognuno di noi,  consapevolmente o meno, fornisce.

Algoritmi AI: (molte) opportunità e (poche) minacce 02

Gli algoritmi del Machine Learning

Gli algoritmi del ML sono in grado di migliorare in modo automatico le proprie performance attraverso l'esperienza (ossia attraverso l'esposizione ai dati). Uno degli strumenti principali alla base del successo del machine learning è rappresentato dalle reti neurali artificiali (Artificial Neural Networks, ANN), dei complessi sistemi matematici che emulano il comportamento dei processi decisionali umani.

Grazie alle ANN, gli algoritmi di ML permettono di fornire risposte senza essere esplicitamente programmate per rispondere a un dato interrogativo, ma apprendendo a farlo in modo autonomo sulla scorta dei dati disponibili. Conseguentemente, i computer su cui vengono implementati apprendono automaticamente, e migliorano la loro capacità di apprendimento grazie all'addestramento delle ANN reso possibile da sempre nuovi dati.

I campi di applicazione sono virtualmente infiniti: dall'automazione alla visione artificiale (con applicazione all'autonomous driving), dal riconoscimento della voce a quello dei testi scritti (si pensi ai traduttori automatici), dal text mining ai data analytics, solo per citarne alcuni.

I Digital Twins

La nuova frontiera è quella dei digital twins, ovvero insiemi di costrutti di informazioni virtuali che mimano struttura, contesto e comportamento di un individuo (o di un processo fisico o tecnologico), aggiornato dinamicamente grazie ai dati che gli derivano dal suo physical twin durante l'intero ciclo di vita e grazie a decisioni informate che generano valore. Elemento caratterizzante del digital twin è il dialogo bidirezionale e continuativo con l'entità fisica rappresentata: da una parte, il gemello digitale fornisce informazioni per monitorare e controllare attivamente il gemello fisico, dall'altra le informazioni generate dal gemello reale alimentano gli algoritmi di simulazione del gemello digitale.

Gestire in modo efficiente l'immensa mole di dati che fluisce dagli asset fisici verso le loro repliche virtuali e saperne estrarre conoscenza sono aspetti cruciali per il successo del paradigma del digital twin. Tecnologie abilitanti per l'affermazione dei gemelli digitali sono infatti l'Internet of Things (IoT), il cloud computing e i Big Data. La diffusione capillare di queste tecnologie e il costo sempre più basso delle risorse di calcolo e storage sono da considerarsi fra le ragioni per la recente diffusione dei digital twin nei contesti industriali.

Altri contesti in cui l'utilizzo di digital twin è ormai consolidato sono l'industria manifatturiera, quella dei trasporti e il settore delle smart cities. 

Il paradigma del digital twin, concepito e sviluppato in ambito industriale (la prima volta dalla NASA negli anni '70 per poter replicare a terra in modo virtuale funzionamento e possibile malfunzionamento dello space shuttle), viene sempre piu' adottato anche in ambito sanitario. La spesa sanitaria è in rapida espansione (+7% di crescita ogni anno), un tasso che porterebbe a superare l'intero PIL europeo entro il 2070. Fondamentale quindi ricercare nuove tecnologie per migliorare la prevenzione e la cura. Il monitoraggio continuo delle persone per mezzo di wearable devices, integrato alle ANN, genera quello che è già stato battezzato l'IoH (Internet of Health). Lo sviluppo di gemelli digitali di pazienti specifici (detti anche human avatars) potrebbe rivoluzionare l'industria sanitaria, fornendo in tempo reale indicazioni per la prevenzione, la diagnosi e la cura dei pazienti in modo totalmente personalizzato. Ricorrendo a questi algoritmi dell'”iperealtà”, o della realtà aumentata, stiamo di fatto costruendo una realtà parallela, virtuale, ma non meno “vera” ed efficace nella sua capacità di descrivere i vari processi fisici.

Potremmo essere indotti a concludere che si aprano le porte a tante realtà, ma nella sostanza stiamo “soltanto” rappresentando il reale, con tutte le sue straordinarie difficoltà, in modo accurato e con potenzialità predittive. Andando al di là del presente, simulando il futuro. Grazie alla disponibilità dei Big Data, ai modelli matematici, e agli algoritmi dell'IA. Dopotutto, è quanto già si fa da decenni con le previsioni meteorologiche basate sui modelli matematici.

Se da un lato questa è un'eccellente notizia (ognuno di noi avrà fra qualche anno un digital twin grazie al quale si potranno produrre preziose informazioni diagnostiche), dall'altro rivela uno degli aspetti “minacciosi” degli algoritmi dell'intelligenza artificiale: l'intrusione sempre piu' invadente nelle nostre vite. Quando gli algoritmi consentono di prevedere l'insorgenza e l'evoluzione di determinate patologie a cui potrei essere soggetto, ci si può chiedere se tutti siano davvero pronti a conoscere tali previsioni. E vi è un altro aspetto, almeno altrettanto critico. Le simulazioni e le diagnosi precoci possono essere di interesse per i nostri datori di lavoro o per le compagnie di assicurazioni mediche. Rivelare le nostre debolezze fisiche da un lato, psicologiche dall'altro. Mettere a nudo i nostri desideri, le nostre passioni sportive o politiche, le nostre preferenze come consumatori o come lettori. “Orientare” gli algoritmi del machine learning a veicolarci informazioni con un forte bias, mettendo in buona o cattiva luce movimenti sociali o religiosi, oppure alcuni dei candidati alle prossime elezioni, attraverso palesi violazioni al fact checking.

Algoritmi AI: (molte) opportunità e (poche) minacce 03

Il data divide e la trasparenza algoritmica

Piu' in generale, e non solo limitandoci ai digital twins, i Big Data raccolti da potenti istituzioni o società private inizia a sollevare dubbi e preoccupazioni sociali. Il divario digitale tra coloro che non solo possono accedere ai dati, ma possono anche usarli, si sta allargando, portando da uno stato di digital divide a una condizione di data divide. I Big Data e gli algoritmi di IA abilitano un sistema cognitivo distribuito, il che genera istanze in merito alla responsabilità. Molti individui, gruppi e istituzioni finiscono per condividere la responsabilità dell'interpretazione concettuale e dei risultati sociali di usi specifici dei dati.

Una sfida fondamentale per la governance dei Big Data è trovare meccanismi per l'allocazione delle responsabilità in questa rete complessa, in modo che le decisioni errate e ingiustificate – così come le azioni fraudolente vere e proprie, non etiche, abusive, discriminatorie o fuorvianti – possano essere individuate, corrette e adeguatamente sanzionate. Le grandi opportunità offerte dalle tecnologie dell'informazione e della comunicazione comportano un'enorme responsabilità intellettuale attinente la loro comprensione e il loro corretto sfruttamento.

Dal punto di vista sociologico, la preoccupazione è che gli algoritmi di machine learning possano finire per conoscerci meglio di quanto noi stessi ci conosciamo. Il rischio paventato è che i nostri datori di lavoro o i nostri governanti possano pretendere di conoscere cosa i loro dipendenti o cittadini realmente desiderino. Se ad esempio i nostri governi avranno accesso a questi algoritmi e conosceranno le nostre idee e i nostri gusti, potranno intervenire nelle nostre vite in nome del nostro bene. Naturalmente, algoritmi capaci di conoscere noi stessi alla perfezione possono anche tornarci utili, ad esempio mostrandoci quali scelte potrebbero renderci più felici o più sani, quali opportunità professionali siano più adatte a noi, quali strategie di produzione o marketing possano aumentare i profitti della nostra azienda. Il vero problema è quindi impedire che questi strumenti di conoscenza restino esclusivamente nelle mani di altri (e non nostre).

L'alternativa alla messa a punto di scudi a tutela della nostra privacy è quella della trasparenza algoritmica, ossia la pretesa che la struttura, le volontà e le decisioni nascoste in ciascun algoritmo siano chiare ed esplicite. Si potrebbe pretendere che chi processa i nostri dati per creare conoscenza su noi stessi sia legalmente costretto a restituirci tale conoscenza. Qualcuno al riguardo ha coniato lo slogan “niente su di noi senza di noi” nell'èra dell'intelligenza artificiale. Difficile, tuttavia, immaginare che questo possa essere accettato dalle Big Tech senza una decisa iniziativa politica transnazionale.