Il percorso di approvazione del “Regolamento europeo per l’intelligenza artificiale” (AI Act) è iniziato tre anni fa, partendo da un “Libro bianco sull’intelligenza artificiale” e da una risoluzione del Parlamento europeo sugli aspetti etici dell’intelligenza artificiale, della robotica e delle tecnologie correlate.
Un quadro molto complesso e articolato che ha messo in evidenza l’impatto dell’intelligenza artificiale sul mondo del lavoro e delle professioni, sull’arte e la cultura e, più in generale, sulla società. I rischi che derivano dall’adozione dell’intelligenza artificiale sono stati identificati con precisione e, si può dire, con lungimiranza. Il recente sviluppo dei modelli fondazionali (foundation models) ha dimostrato che l’analisi di tre anni fa aveva solide basi scientifiche ed etiche. A differenza del passato, quando la nascita e la rapida diffusione delle reti sociali furono visti come fattori tecnologicamente positivi, per poi rivelare i loro lati oscuri e imprevedibili, l’apertura indiscriminata di strumenti come ChatGpt, Dall-E, Midjourney ha provocato una repentina presa di coscienza in tutti gli ambiti, incluso quello politico.
Un regolamento che norma l’utilizzo dell’intelligenza artificiale in un mondo ad alta intensità tecnologica è un evento che non passa inosservato, soprattutto se emanato da un continente, l’Europa, che non ha il dominio tecnologico in questo settore. Si tratta di definire regole che si applicano su prodotti e servizi creati e gestiti in altri continenti, con sistemi giuridici ed economici differenti in concorrenza, se non in contrasto, con quelli dell’Unione europea. Il regolamento, infatti, deve la sua forza giuridica a un’entità formata da un insieme di Stati, l’Unione europea, e che con questa forza agisce sui suoi cittadini e sul suo tessuto economico e industriale; non ha quindi un valore universale, ma specifico e contingente. Il quadro di partenza, il “Libro bianco” e il “Codice etico europeo”, fa riferimento alla “Dichiarazione universale dei diritti umani” e tale riferimento non è meramente di facciata ma sostanziale. Tuttavia, proprio la natura giuridica di tale atto ne potrebbe rendere problematica l’applicazione altrove.
Di altra natura è l’appello di Roma per un’etica dell’intelligenza artificiale, ratificato nel 2020 con gli auspici di papa Francesco. Questo appello, temporalmente precedente al Libro bianco e al Codice etico europeo, incardina la sua forza nel riferimento a sei principi etici universalmente riconosciuti o, in larga misura, riconoscibili come tali: trasparenza, inclusione, responsabilità, imparzialità, affidabilità, sicurezza e privacy. Pur apparendo generali e, a una prima lettura, difficilmente applicabili all’intelligenza artificiale, questi principi costituiscono la base teorica di un ragionamento articolato in due principali direttive: il rispetto dell’essere umano e la tutela dell’ambiente. Partendo da qui l’appello prende in esame le peculiarità dei sistemi basati sull’intelligenza artificiale e le ripercussioni che potrebbero avere sulla società.
L’aspetto più significativo dell’appello è l’attenzione ai grandi benefici che l’intelligenza artificiale può avere nei campi in cui sarà utilizzata. Un atteggiamento positivo che indica una direzione in cui andare, così come già accaduto con le altre rivoluzioni industriali che hanno cambiato il mondo negli ultimi secoli. L’appello fa riferimento ai rischi in un unico punto, quando incoraggia nuove forme di regolamentazione per le «tecnologie avanzate che hanno un più elevato rischio di intaccare i diritti umani, come ad esempio il riconoscimento facciale». Non a caso, il regolamento europeo, nel classificare i sistemi basati sull’intelligenza artificiale, proibisce esplicitamente quelli che consentono il riconoscimento facciale in tempo reale, con precise eccezioni relative alla lotta al terrorismo e ad altri contesti di sicurezza nazionale.
L’etica dell’intelligenza artificiale consente di evitare azioni dettate dall’urgenza del momento o da congiunture economiche oppure, come per la pandemia, di altra natura. Il dibattito sulle radici filosofiche, ma anche tecnologiche, di un’etica per le tecnologie è molto forte e, fortunatamente, molto seguito e apprezzato anche dai non addetti ai lavori. È forte la sensazione che antichi dilemmi relativi alla natura della mente, del pensiero e della stessa natura umana, riconosciuti e studiati da quasi tre millenni, adesso tornino prepotentemente alla ribalta, chiedendo attenzione e approfondimenti. Tutto perché una nuova specie, quella delle macchine, inizia a mostrare non solo capacità sovrumane, ma anche comportamenti che finora erano di esclusiva pertinenza degli umani. La nostra istintiva capacità di riconoscere il pericolo, che ci ha permesso di sopravvivere in ambienti ostili, ci sta mettendo in guardia anche questa volta. In passato per difenderci dai lupi abbiamo addomesticato il cane e imparato a costruire case sicure: questa volta solo la nostra intelligenza collettiva potrà far fronte ai rischi dell’intelligenza artificiale.
Fonte: Vincenzo Ambriola | Avvenire.it