Dagli scacchi al cinema, dalla medicina alla guerra: ruoli ed etica dell’IA

a cura di Francesco Iacovelli

A volte gli articoli non nascono da un’intervista programmata, ma da una conversazione che prende forma quasi da sola, spinta dalla curiosità di capire meglio un fenomeno che ormai attraversa molti ambiti della nostra vita. È stato più o meno così che è nata questa chiacchierata con Claudia Navarini, professore ordinario filosofa morale all’Università Europea di Roma ed esperta di etica applicata, vicepresidente vicario del Comitato Nazionale per la Bioetica.

L’idea di partenza era semplice: provare a mettere ordine in alcuni aspetti dell’intelligenza artificiale che di solito vengono raccontati soprattutto dal punto di vista tecnico, mentre restano più in ombra le implicazioni etiche, culturali e persino giuridiche che questa tecnologia porta con sé.

È da qui che comincia il nostro dialogo.

«Mi affascina pensare», le dico a un certo punto della conversazione, «che l’intelligenza artificiale abbia attraversato ambiti simbolicamente molto diversi, dagli scacchi, che rappresentano il pensiero logico e strategico, al cinema e alla creatività, fino alla medicina e perfino alla guerra. In fondo è come se l’IA stesse diventando una sorta di specchio delle nostre capacità cognitive».

Poi aggiungo, quasi inevitabilmente:

«Ed è proprio per questo che mi sembra altrettanto inevitabile che, prima o poi, il tema diventi anche etico».

La professoressa Navarini annuisce e rilancia il ragionamento introducendo una distinzione utile per capire meglio il rapporto tra tecnologia e responsabilità morale: i tre livelli dell’etica legati all’intelligenza artificiale.

Il primo riguarda l’eticità dell’IA, cioè il giudizio etico generale che l’uomo dà a questo strumento e la moralità che accompagnano il suo impiego nella vita sociale. Il secondo riguarda l’eticità nell’IA, cioè i criteri di uso che l’uomo fa di questi strumenti e il tentativo di integrare principi morali nei sistemi algoritmici affinché possano operare in modo coerente con valori condivisi.

Esiste poi una terza dimensione, meno immediata ma altrettanto decisiva: l’etica interna all’IA, che riguarda il modo in cui questi sistemi vengono progettati, addestrati e costruiti, quindi la responsabilità di chi li sviluppa e le logiche che guidano il loro funzionamento.

La conclusione, a ben vedere, è piuttosto chiara. L’intelligenza artificiale non è soltanto una questione di prestazioni tecnologiche o di potenza di calcolo. Prima di tutto è una questione di responsabilità umana.

A un certo punto la conversazione scivola, quasi naturalmente, verso un tema che negli ultimi anni sta emergendo con sempre maggiore forza nel dibattito filosofico: quello della cosiddetta saggezza artificiale.

Per molto tempo ci siamo chiesti fin dove potesse arrivare l’intelligenza delle macchine, quanto potessero diventare veloci, efficienti, capaci di analizzare dati e risolvere problemi complessi.

Oggi la domanda sembra diversa.

Può una macchina diventare saggia?

La saggezza non coincide con la semplice capacità di elaborare informazioni, né con la velocità del calcolo. Ha a che fare con il giudizio, con la prudenza, con la capacità di orientarsi tra valori e conseguenze.

È qualcosa che appartiene alla dimensione più fragile, e forse più profonda, dell’esperienza umana.

È a questo punto che provo a mettere a fuoco quello che mi sembra il cuore della questione.

«In fondo», le dico, «la domanda decisiva non è cosa può fare l’intelligenza artificiale, ma cosa è giusto che faccia».

Se il problema diventa morale, cambia inevitabilmente anche la prospettiva.

Il centro del discorso non è più la macchina. Torna ad essere l’uomo.

«L’IA», aggiungo, «non è un soggetto morale. È uno strumento che amplifica decisioni umane. Questo significa che l’etica dell’intelligenza artificiale è sempre, in realtà, un’etica della responsabilità umana».

La professoressa Navarini riprende il filo del ragionamento e lo porta su uno dei temi più delicati del dibattito contemporaneo, quello delle discriminazioni algoritmiche.

Gli algoritmi sono costruiti a partire da dati, modelli e criteri scelti da esseri umani. Se quei dati contengono squilibri, stereotipi o pregiudizi, spesso invisibili a chi li utilizza, la tecnologia rischia semplicemente di riprodurli e di amplificarli, su scala molto più ampia.

È qui che la questione tecnologica diventa inevitabilmente una questione morale. Diventa necessario interrogarsi sia sulla responsabilità di chi progetta questi sistemi, sia sugli ambiti nei quali il loro utilizzo può essere considerato accettabile.

Programmare una macchina per eseguire operazioni logiche è relativamente semplice. Molto più complesso è tentare di programmare qualcosa che abbia a che fare con l’attività morale.

Un algoritmo può essere addestrato a riconoscere schemi, correlazioni, perfino modelli di ragionamento etico. Può individuare ciò che nei dati e nelle decisioni umane appare come un pensiero morale.

Ma questo non significa che la macchina diventi un vero soggetto morale: in altre parole, può imparare a riconoscere i pensieri morali, ma non può portarne la responsabilità.

A questo punto provo a spostare la conversazione proprio su questo terreno, quello della responsabilità.

«Una cosa che trovo particolarmente interessante», le dico, «è proprio questo tema. Quando un algoritmo prende una decisione, per esempio in medicina o nella selezione del personale, la responsabilità non può essere dell’algoritmo».

Poi aggiungo:

«La responsabilità rimane distribuita tra chi progetta il sistema, chi lo utilizza e chi ne stabilisce le regole».

La macchina non possiede intenzioni, non comprende le conseguenze delle proprie decisioni e non può rispondere moralmente dei risultati che produce. Per questo la responsabilità deve essere cercata altrove, in chi progetta i sistemi, in chi li addestra, in chi decide come utilizzarli e perfino in chi li interroga.

La professoressa Navarini richiama, a questo proposito, alcune ricerche condotte negli Stati Uniti in cui diverse piattaforme di intelligenza artificiale sono state utilizzate per simulare scenari di conflitto militare.

In molte simulazioni i sistemi tendevano a spingere progressivamente le situazioni verso livelli di escalation sempre più elevati, fino ad arrivare, in molti casi, a scenari estremi come l’impiego di armi nucleari.

Non perché la macchina “desideri” la guerra, ma perché, quando viene programmata per massimizzare determinati obiettivi strategici, può individuare soluzioni perfettamente coerenti dal punto di vista logico e allo stesso tempo inquietanti dal punto di vista umano.

A questo punto provo ad allargare ulteriormente il campo della discussione.

«Mi sembra che la vera sfida oggi sia soprattutto giuridica e costituzionale», le dico. «Perché l’intelligenza artificiale entra in contatto diretto con diritti fondamentali, la privacy, la libertà individuale, il principio di non discriminazione».

Il problema non riguarda solo i grandi sistemi di sorveglianza o le piattaforme digitali, riguarda anche ambiti molto più delicati.

Penso, ad esempio, alla gestione dei fascicoli giudiziari o alla digitalizzazione degli atti processuali, dove circolano enormi quantità di dati sensibili, informazioni personali, dati sanitari, indagini di polizia.

E allora la domanda diventa inevitabile. «Dove finiscono tutte queste informazioni quando vengono inserite nei sistemi di intelligenza artificiale?».

Lo stesso interrogativo si pone anche in ambito medico, quando si utilizzano piattaforme di IA per analizzare diagnosi, cartelle cliniche o esami sanitari.

In molti casi si tratta di dati estremamente sensibili e non per nulla è chiaro se le persone abbiano espresso un consenso al loro utilizzo.

La professoressa Navarini sottolinea come molti sistemi di intelligenza artificiale funzionino grazie alla raccolta e all’elaborazione di enormi quantità di dati. Il problema non riguarda soltanto la sicurezza delle informazioni, ma anche la consapevolezza delle persone rispetto al modo in cui quei dati vengono utilizzati.

Il consenso informato, osserva, troppo spesso resta una formula più formale che sostanziale.

La questione diventa ancora più complessa nei sistemi di intelligenza artificiale predittiva e in tecnologie come il riconoscimento facciale o la videosorveglianza urbana, che, se non adeguatamente regolati, possono trasformarsi in strumenti di controllo diffuso.

Per questo, conclude, il problema dell’intelligenza artificiale non può essere affrontato solo come una questione tecnologica. Riguarda direttamente il modo in cui le democrazie scelgono di proteggere i diritti dei cittadini, inclusa la domanda su quali forme di tutela sociale possano essere incluse nel funzionamento delle macchine intelligenti.

Quando la conversazione volge alla fine torno alla domanda più grande che attraversa tutto il nostro dialogo.

«Alla fine», le dico, «mi sembra che l’intelligenza artificiale non stia soltanto cambiando la tecnologia. Sta costringendo l’uomo a interrogarsi su se stesso, su cosa significa davvero decidere e farlo responsabilmente».

Perché dietro ogni algoritmo c’è sempre una scelta umana.

La professoressa Navarini, per rispondere, torna alla filosofia di Aristotele. Le virtù, ricorda, non nascono da un calcolo ma da abiti che si formano nel tempo, come prudenza, giustizia, temperanza.

Ed è curioso che proprio mentre costruiamo macchine sempre più sofisticate torniamo a interrogarci su domande così antiche.

Se vogliamo affidare alle macchine decisioni che incidono sulla vita delle persone, dobbiamo inevitabilmente chiederci quali valori stiamo incorporando nei sistemi che costruiamo.

In altre parole, quali virtù stiamo cercando di insegnare alle macchine.

Oggi esistono robot progettati per fare compagnia, per assistere gli anziani, per interagire con le persone in modo apparentemente empatico.

E tuttavia insegnare alle macchine le emozioni rappresenta ancora un confine invalicabile.

Possiamo costruire sistemi sempre più sofisticati, capaci di riconoscere espressioni, tono della voce, parole. Possiamo programmare macchine che reagiscano sensatamente alle emozioni espresse dagli esseri umani.

Ma questo non significa che possano provarle a loro volta.

Le macchine possono imitare molti aspetti del comportamento umano. Possono riconoscere schemi e simulare empatia.

Le emozioni, però, nascono dall’esperienza, dalla coscienza di sé, anche dalla fragilità che appartiene alla condizione umana.

Ed è forse qui che la conversazione si chiude.

Se un giorno diventasse possibile insegnare alle macchine a imitare le emozioni, sarebbe davvero un progresso?

Oppure esistono dimensioni dell’esperienza, come la responsabilità, la coscienza e le emozioni, che dovrebbero restare semplicemente umane?