“Il digitale trasforma l’essere umano, ma può anche essere utile a migliorarne la qualità della vita. Siamo di fronte a una digitalizzazione che tocca ogni sfera dell’agire umano e, di conseguenza, la questione fondamentale è capire come debba essere declinato il rapporto tra essere umano e digitale”. Sono le parole di Benedetta Giovanola, professoressa di Filosofia Morale dell’Università di Macerata e titolare della nuova Cattedra Jean Monnet EDIT (Etica per un’Europa DigiTale Inclusiva), il primo e unico percorso accademico in Europa dedicato all’etica dell’Intelligenza Artificiale.
Presentato il 12 giugno a Portonovo (Ancona), il nuovo corso – finanziato dall’Unione Europea e realizzato in partnership con Harvard, MIT, Toronto University, KU Leuven, MCSA Lublin e altre prestigiose università – è stato pensato per sviluppare un approccio alle tecnologie digitali che fosse centrato sulla persona. Negli ultimi anni la nostra visione antropocentrica è stata messa in crisi dalla stessa contemporaneità, caratterizzata da grandi trasformazioni come i cambiamenti climatici o, appunto, l’avvento di tecnologie sempre più “intelligenti”. Eppure, stando al significato attribuito all’espressione spesso usata di “Umanesimo digitale”, l’obiettivo è oggi quello di un utilizzo etico e consapevole delle tecnologie digitali per il miglioramento della società. Se veramente noi umani “deleghiamo” all’Intelligenza Artificiale sempre più compiti e servizi in ambiti complessi, come quello della giustizia o delle assunzioni sul lavoro, una tale “innovazione” richiederà l’orientamento a principi e valori etici.
Ma come declinare un’etica dell’Intelligenza Artificiale dipenderà dalla concezione stessa dell’IA e dalla sua influenza sull’essere umano: in altre parole, se tenderà a disinnescare la nostra visione antropocentrica o meno. “Si considerano, infatti, due accezioni diverse di etica dell’Intelligenza Artificiale – spiega Giovanola –. Una riguarda l’IA come oggetto, per cui ci domandiamo quali siano i modi in cui interagire con essa e come gli algoritmi modifichino le nostre scelte. L’altra, invece, intende l’IA come soggetto: in tal caso, ci dovremmo porre la questione se pensare o meno a questi enti artificiali come dotati di caratteristiche che, finora, abbiamo pensato come tipicamente umane, quali l’intenzionalità, la responsabilità, la capacità di essere agenti o pazienti morali”.
Insomma, la riflessione sull’etica inizia dall’atto stesso di porsi delle domande. Molti scenari, oggi, richiedono una attenta consapevolezza degli aspetti etici. Come ricorda Giovanola, “si pensi alle problematiche di giustizia, emerse negli Stati Uniti con il controverso software “predittivo” Compas, secondo cui gli afroamericani avrebbero una più alta propensione al crimine. Oppure ai più comuni meccanismi distributivi di accesso ai servizi, al lavoro, al credito, già ampiamente modulati sull’uso dell’IA”. Si considerano i sistemi di IA spesso più affidabili e oggettivi degli esseri umani. Ma l’aspettativa di oggettività che riponiamo in questi sistemi è errata. Non dimentichiamo, infatti, che questi algoritmi sono basati su correlazioni probabilistiche e su dati che possono contenere bias legati ai pregiudizi umani. “Non solo tali sistemi possono non essere oggettivi – aggiunge Giovanola –, ma addirittura, imparando da dati contenenti dei bias, possono creare nuove disuguaglianze, che si aggiungono a quelle derivanti direttamente dal pregiudizio umano”.
Come ovviare, dunque, al problema? Spiega Giovanola: “Esistono tre versanti fondamentali per lo sviluppo di un’etica dell’IA. In primis, è necessario considerare i valori etici a monte, responsabilizzando gli autori del design dei dispositivi tecnologici. In secondo luogo, tenendo conto di una governance del digitale che richiede partnership tra pubblico e privato, non possiamo parlare solo di regolamentazione, ma anche di incentivi e premialità. C’è poi un terzo versante, che riguarda il livello di responsabilità delle persone: è necessaria, a tal proposito, una diffusione di formazione e conoscenza, che porti gli utenti a sviluppare una capacità consapevole dell’utilizzo di sistemi di IA”.
Non è solo la società civile a vivere un periodo di smarrimento. Le stesse governance si trovano di fronte a un cambio di paradigma nei rapporti tra Paesi. L’IA è ormai considerata un componente fondamentale nella geostrategia. Come proporre, dunque, in Europa un modello etico che riesca a sfilarsi da un lato dal modello statunitense, poco sensibile dal punto di vista giuridico, e dall’altro dal modello cinese, lontano per storia e cultura? Come sottolinea Giovanola, “il tentativo dell’Unione Europea è quello di mostrare come sia possibile un modello di sviluppo digitale e tecnologico che inglobi già a monte valori etici. In altre parole, punta a un riorientamento del digitale”. Una partita ancora in atto, in cui l’Europa dovrebbe assumere un ruolo da protagonista, nonostante i giganti tecnologici sui due fronti.
Malgrado i confini geografici e l’assenza di una politica unitaria nel suo passato, l’Europa – come scriveva Voltaire – si è formata su un fermento culturale e sul concetto del sentire comune, a partire dalle comunità intellettuali del Rinascimento, fino a raggiungere la massima estensione nel Seicento, grazie alla comunicazione e al dibattito tra scienziati di diversi Paesi. Questo ha portato il Vecchio Continente a concepire un’etica della tolleranza, capace di affrontare le sfide rappresentate dalla diversità.
Fonte: Silvia BANDELLONI | LaStampa.it