Tra le tematiche oggetto di maggiori controversie nei nostri giorni vi è senza dubbio l’intelligenza artificiale.
Ma cos’è l’intelligenza artificiale?
La definizione “Artificial Intelligence” è stata utilizzata per la prima volta nel 1956, dal matematico statunitense John MacCarthy per indicare la capacità delle macchine di compiere azioni o eseguire compiti che, se fatti da esseri umani, richiederebbero intelligenza.
Attualmente non esiste una sua definizione universalmente accettata, ma, secondo quanto indicato dall’OCSE, è un sistema di intelligenza artificiale ” qualsiasi modello di implementazione basato su “una macchina” in grado di “dedurre dall’input che riceve”, grazie all’implementazione di sofisticate capacità adattive dotate di diversi livelli di autonomia, una serie di dati processabili finalizzati a generare svariati “output” (come, ad esempio, “previsioni, raccomandazioni, contenuti, decisioni”, ecc.), suscettibili di influenzare “ambienti fisici o virtuali”, tenuto conto di un “insieme di obiettivi espliciti o impliciti” concretamente perseguiti, a seconda che siano programmati direttamente da uno sviluppatore umano, oppure definiti mediante il ricorso a tecniche di auto-apprendimento algoritmico”.
Tale descrizione è stata elaborata con l’intento di assicurare il più ampio consenso possibile su una [1]condivisa classificazione organica dei sistemi di Intelligenza aritificiale (abbreviati con l’acronimo italiano IA o inglese AI) che funga da indispensabile cornice basica di riferimento per consentire agli Stati di legiferare adeguatamente in materia.
I sistemi basati sull’IA possono consistere solo in software che agiscono nel mondo virtuale (quali ad es. assistenti vocali, software per l’analisi delle immagini, motori di ricerca, sistemi di riconoscimento vocale e facciale), oppure essere inglobati in appositi dispositivi hardware (ad es. robot in grado di riconoscere comandi vocali, automobili a guida autonoma, droni o applicazioni dell’Internet delle cose).
È noto come l’intelligenza artificiale trovi oggi sempre maggiore impiego sia in ambito privato che pubblico, influenzando sempre più la nostra vita quotidiana.
Tutto ciò desta per taluni anche preoccupazioni, poiché viene vista come la fine del controllo umano sulle macchine; da altri invece, in maniera diametralmente opposta, come una ulteriore evoluzione tecnologica che darà supporto all’umanità per affrontare nuove sfide.
Non è questa la sede per stabilire quale delle due rappresentazioni si avvicini di più alla realtà, comunque in divenire.
Tuttavia, le legittime apprensioni relative all’impatto dell’intelligenza artificiale sui diritti sono in crescita e meritano di avere la giusta attenzione.
Vediamo allora qual è l’attuale quadro giuridico di riferimento.
Il 1º agosto 2024 è entrato in vigore il Regolamento UE 2024/1689 del Parlamento Europeo e del Consiglio (Pubblicato nella Gazzetta Ufficiale UE del 12/07/2024) il quale stabilisce un quadro armonizzato per lo sviluppo, l’immissione sul mercato, la messa in servizio e l’uso dei sistemi di intelligenza artificiale (IA) nell’Unione Europea.
In buona sostanza esso integra e modifica vari regolamenti e direttive precedenti, per garantire che l’IA sia utilizzata in conformità con i valori fondamentali dell’Unione, promuovendo una tecnologia antropocentrica, affidabile e sicura, garantendo allo stesso tempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea, quali la democrazia, lo Stato di diritto e la sostenibilità ambientale.
L’ambito di applicazione coincide con il territorio dell’Unione Europea, con talune eccezioni, quali i sistemi IA destinati a scopi militari, di ricerca e sviluppo, scientifici.
Lo scopo di tale regolamento è quello di migliorare il funzionamento del mercato interno, istituendo un quadro giuridico uniforme sugli aspetti di cui si è accennato, anche al fine di garantire la libera circolazione transfrontaliera di beni e servizi basati sull’IA, impedendo così agli Stati membri di imporre restrizioni al loro sviluppo, nonché alla loro commercializzazione ed uso.
In precedenza, l’agenzia dell’UE per i diritti fondamentali (FRA) che, come noto, ha il compito di fornire consulenze indipendenti alle istituzioni dell’UE e ai governi nazionali sui diritti fondamentali, aveva condotto una ricerca sul campo in cinque Stati membri dell’UE: Estonia, Finlandia, Francia, Paesi Bassi e Spagna, ed ha elaborato pareri.
In particolare, secondo l’agenzia è necessario che il legislatore dell’UE e gli Stati membri, agendo nell’ambito del diritto dell’Unione, garantiscano che siano integralmente rispettati i diritti fondamentali, come sancito dalla Carta e dai trattati dell’Unione europea, accompagnando le politiche e le leggi pertinenti. Nel fare ciò, l’UE e gli Stati membri dovrebbero preventivamente verificare l’impatto dell’IA sui diritti fondamentali per garantire che eventuali restrizioni degli stessi rispettino i principi di necessità e proporzionalità.
Le “valutazioni d’impatto”, da adottarsi sia per le imprese che per le amministrazioni pubbliche, dovrebbero coprire l’intera gamma dei diritti fondamentali, e, le risultanze essere rese trasparenti ed accessibili a tutti, onde mitigare ogni rischio di impatto negativo.
Per la medesima finalità l’Agenzia ritiene che l’UE e gli Stati membri dovrebbero garantire l’esistenza di sistemi di responsabilizzazione efficaci per monitorare e, se necessario, adottare misure per fronteggiare eventuali incidenze negative sul sistema dei diritti fondamentali. [2]
Tuttavia, a fronte di una normativa Europea volta principalmente a disciplinare la progettazione e l’immissione sul mercato dei sistemi di intelligenza artificiale, vale a dire gli aspetti produttivi e commerciali, è all’esame parlamentare il disegno di legge n. 1146 presentato dal Presidente del Consiglio dei ministri (MELONI) e dal Ministro della giustizia (NORDIO) su disposizioni e delega al Governo sulla materia, con una portata ben più ampia.
Tale disegno di legge detta infatti i principi generali, le finalità e gli obiettivi in materia di intelligenza artificiale, disciplinandone poi l’utilizzo in una ampia serie di settori.
In particolare, tra i principali obiettivi vi è quello di operare un bilanciamento tra opportunità e rischi, prevedendo norme di principio e disposizioni di settore che, da un lato siano volte a promuovere l’utilizzo di nuove tecnologie per il miglioramento delle condizioni di vita dei cittadini e della coesione sociale e, dall’altro, diano soluzioni per la gestione del rischio fondate su una visione antropocentrica.
In tale ottica il compito del legislatore nazionale è quello di curare tali aspetti in armonia con il regolamento europeo, definendo anche una gradazione dei rischi connessi all’uso dell’intelligenza artificiale, con una specifica qualificazione (definendoli, quindi, inaccettabili, alti, limitati e minimi), e collegandoli a proporzionali responsabilità, ponendo contestualmente adeguati divieti.
Nel testo all’esame parlamentare, primaria attenzione viene data alla protezione dei diritti fondamentali, alla democrazia, allo Stato di diritto e alla sostenibilità ambientale, promuovendo al contempo l’innovazione per il benessere collettivo, come si evince dalla relazione illustrativa al Disegno di legge.
Degno di particolare rilievo è anche l’interesse alla c.d. “sostenibilità digitale”, principio per cui lo sviluppo e l’applicazione dei modelli di intelligenza artificiale devono avvenire nel rispetto dell’autonomia e del potere decisionale dell’uomo, della prevenzione del danno, della sua intelligibilità, e dell’assenza di pregiudizio per la vita democratica del Paese e delle istituzioni.
Dal testo emergono inoltre principi volti a tutelare il rispetto dei diritti fondamentali, quali la riservatezza, l’accessibilità a tutti e l’inclusività massima, la parità dei sessi e il divieto di qualsivoglia forma di discriminazione.[3]
Nell’auspicio del completamento dell’iter legislativo in tempi brevi, non possono ignorarsi le enormi potenzialità che l’applicazione dell’intelligenza artificiale ha, oltre che nei settori privati, anche nella pubblica amministrazione.
Per quanto riguarda gli attuali ambiti applicativi, è ormai noto che, oltre che nei settori privati, anche nella pubblica amministrazione l’intelligenza artificiale rappresenta un terreno dalle enormi potenzialità.
Attraverso i sistemi di intelligenza artificiale vi è la possibilità di rendere automatiche attività amministrative routinarie e ripetitive, esonerando così i dipendenti pubblici da compiti “meccanici” e poco gratificanti.
Si pensi a sistemi di machine learning in grado discannerizzare, catalogare e archiviare documenti automaticamente, senza la necessità di intervento umano, consentendo così ai dipendenti di risparmiare tempo che potrà essere reimpiegato in altre attività, magari a base creativa.
La possibilità di elaborazione di enormi quantità di dati, inoltre, può dar luogo allo sviluppo di analisi predittive in grado di ottimizzare i processi decisionali.
Si pensi al settore sanitario, ove l’utilizzo di evolute piattaforme IT consente l’identificazione anticipata di potenziali focolai per consentire l’attuazione di politiche sanitarie preventive più efficaci, e in linea generale possono migliorare la diagnostica e l’assistenza attraverso l’estrazione, l’integrazione e l’interoperabilità di dati clinici e scientifici.
Analogamente ciò potrà avvenire sulle analisi dei dati sul degrado urbano e delle reti infrastrutturali per ottimizzare gli interventi di manutenzione e collocarli utilmente nel tempo.
In molti casi, la profilazione degli utenti consentirà di offrire servizi al cittadino su misura, con una analisi predittiva dei bisogni e l’invio di promemoria per necessità o scadenze, anche via app o tramite assistenti virtuali, consentendo così l’ottimizzazione dei tempi e dei costi, a tutto vantaggio dell’utenza.
Attualmente, diverse amministrazioni stanno sperimentando l’uso di tali sistemi per snellire procedure e ridurre tempi di attesa sviluppando anche applicativi per la richiesta di informazioni e l’effettuazione di pagamenti (i c.d. “totem digitali).
Per utilizzare al meglio le potenzialità dell’IA nella Pubblica Amministrazione è però necessaria una forte sterzata culturale accompagnata da una formazione adeguata che coinvolga tutti i livelli dell’organizzazione.
Pertanto, occorre essere pronti, ed è necessario che anche la PA lo sia, per adottare un approccio critico e consapevole nell’utilizzo delle tecnologie di IA, valutandone sia le potenzialità che i rischi.
Allontanandoci da tali riflessioni, ma rimanendo sempre negli ambiti istituzionali, viene spontaneo chiedersi quali siano le possibilità e gli impieghi della IA ai procedimenti ed alle decisioni giudiziarie, ossia la c.d. “giustizia predittiva”.
Al riguardo occorre rammentare che una decisione giudiziaria è essenzialmente originata da una selezione e ricostruzione di fatti rilevanti da parte del giudice, con l’interpretazione e l’applicazione delle norme giuridiche di riferimento.
Conseguentemente, per sua natura, la decisione del giudice è tra quelle che meno si prestano alla replicazione di precisi fattori causali, che variano per ogni singolo provvedimento giudiziario e che investono molteplici fattori (giuridici, economici, sociali, etc.), né risulta agevolmente attuabile la creazione di “modelli di ragionamento giudiziario”.
Infatti, le statistiche esaminabili dei provvedimenti giudiziari comunque le si consideri, su base nazionale o su base distrettuale o circondariale, riferendosi a provvedimenti unici, stante l’unicità della decisione, poco si prestano ad una “universalizzazione”.
Il machine learning, quindi, non sembra in grado di fornire una chiave di lettura che possa esplicare il ragionamento del giudice, in quanto allo stato attuale non ancora capace di ottenere risultati affidabili sulla “prevedibilità del contenuto” dei provvedimenti giudiziari.
Tuttavia, pur a fronte di tali limiti, l’IA applicata ai procedimenti giudiziari offre notevoli opportunità.
Esistono una serie di attività collaterali o strumentali alle decisioni giudiziarie che ben possono essere migliorate attraverso tali sistemi, quali ad esempio la lettura rapida di dispositivi, la fonotrascrizione automatica, la classificazione per materia dei ricorsi, l’invio automatico alle cancellerie competenti, la selezione di intercettazioni penalmente rilevanti con epurazione automatica di quelle strettamente personali.
Enorme supporto potrebbe essere fornito ad attività che richiedono elaborazione semplice di dati o meri calcoli matematici per taluni atti o fasi dei procedimenti di esecuzione, decreti ingiuntivi, piani di riparto, per quanto riguarda l’attività giudiziaria civile.
Altrettanto numerosi potrebbero essere gli impieghi nel settore penale: viene da pensare ad una applicazione che consenta una distribuzione del carico di udienza in base alla data di potenziale prescrizione del reato; o alle decisioni della magistratura di sorveglianza che riguardino unicamente l’entità della pena o le date di liberazione; allo stesso modo, di grande utilità potrebbero essere sistemi di machine learning in grado di eseguire conteggi immediati sui provvedimenti di esecuzione delle pene, in grado di comparire, previa validazione del Procuratore della Repubblica, direttamente sui terminali delle forze di polizia deputate alla notifica e alla attuazione del provvedimento, magari anche con alert che pongano in evidenza la data di prescrizione della pena.
In conclusione, l’impiego dei sistemi di IA dovrà contemperarsi con precisi criteri di sicurezza, taluni dei quali già delineati dalla Agenzia dell’UE per i diritti fondamentali, ed altri secondo le necessità progressivamente individuate, ponendo comunque i riflettori sul rispetto dei diritti fondamentali, sul pericolo di discriminazione, e sul pericolo dei cyber attacchi.
Bisogna poi considerare che a fronte della sua complessità e la sua radice scientifico-matematica andrebbero posti limiti all’IA, tenendo conto che da sola è comunque inadeguata a prendere decisioni che necessitano di una valutazione discrezionale e una saggezza tipica dell’essere umano, che non potrà e non dovrà abdicare al suo ruolo guida e di coscienza critica; né si potrà prescindere da un uso eticamente accettabile di tali sistemi; neppure si potrà prescindere dall’emozioni e dall’intuito che nessuna macchina potrà replicare.
Occorre dotarsi di prudenza, evitando ogni pregiudizio sui nuovi sistemi di IA, in quanto ogni rischio sarà ricollegabile non al sistema in sé, ma al modo in cui l’uomo lo impiegherà.
Fonte: Francesco Abbate | CentroStudiLivatino.it
[1] https://www.agendadigitale.eu/cultura-digitale/competenze-digitali/ia-un-nome-tante-definizioni-tutti-i-significati-nel-panorama- regolatorio/
[2] si veda https://fra.europa.eu/it/publication/2021/preparare-un-giusto-futuro-lintelligenza-artificiale-e-i-diritti-fondamentali
[3] si veda Senato della Repubblica Relazione al disegno di legge n. 1146, pagg. 3 e ss