Oggi si vive una exponential growth of technology era, un periodo in cui la tecnologia cresce e si diffonde in tutti i livelli della società in maniera sempre più veloce. L’anno appena passato, non ha tradito le aspettative e dalla stampa è stato – a pieno titolo – nominato come l’anno delle IA1. In effetti, nel 2023 abbiamo assistito ad una rapida accelerazione nello sviluppo e nella diffusione di strumenti alimentati da IA. In particolare, la tecnologia innovativa che ha trovato maggiore diffusione e riscontro nella stampa e nel dibattito pubblico è stata quella dell’IA generativa, grazie a ChatGPT di OpenAI. Tale tecnologia ha rappresentato un punto di svolta significativo, non solo per le sue avanzate capacità tecnologiche, ma anche per le sue applicazioni in ambiti e settori industriali molto diversi.
Da un punto di vista industriale, l’IA generativa è subito diventata un terreno di sfida tra i grandi gruppi tecnologici, che oggi si misurano sistematicamente sulla qualità delle performance che i loro rispettivi Large Language Models (LLM) sono in grado di ottenere. Sono modelli che stanno rivoluzionando il modo in cui interagiamo con le macchine, manifestando una capacità di comprensione e generazione del linguaggio naturale di una precisione senza precedenti.
Gli strumenti oggi sul mercato sono moltissimi. Però con probabilità il più diffuso è, appunto, ChatGPT di OpenAI, che, integrato nei sistemi Microsoft (Copilot), ne ha ulteriormente rafforzato la posizione sul mercato, divenendo così uno strumento centrale e semplice da integrare nel quotidiano svolgimento del mansionario aziendale.
Di fronte a questo successo, altri giganti tecnologici hanno sviluppato prodotti analoghi e dotati di capacità e prestazioni simili. Per citare i casi più importanti, Google ha di recente introdotto Gemini (originariamente noto come Google Bard), un’evoluzione dei precedenti PaLM 2 e LaMDA. Dopo un annuncio nel dicembre 2023, questo è stato reso disponibile agli utenti solo ultimamente e sta ancora vivendo una fase di assestamento che si attende lo porti, in un prossimo futuro, ad essere un prodotto maturo, integrato nella Google Suite.
Allo stesso modo, X (Twitter) ha sviluppato Grok (non ancora disponibile nei giorni di scrittura di questo documento) e Meta (Facebook) ha rilasciato Llama 2, disponibile online gratuitamente.
Tali strumenti offrono una serie di opportunità che solo fino a pochi mesi fa erano impensabili segnando, de facto, l’inizio di una nuova era nello sviluppo e nell’utilizzazione dell’IA. Si prospetta così un futuro in cui esisterà una naturale proliferazione di prodotti e servizi guidati dalla stessa, così il modo in cui interagiremo con le macchine cambierà radicalmente.
Tuttavia, come con ogni innovazione tecnologica, stanno al contempo emergendo rischi e sfide complesse che sarebbe opportuno riconoscere e affrontare prontamente. Per esempio, la questione del futuro del lavoro – che viene periodicamente sollevata di fronte all’evolversi delle tecnologie a disposizione delle aziende – è di nuovo al centro dell’attenzione e alta è la messe di previsioni, in senso sia positivo sia negativo, circa il futuro immediato e quello delle prossime generazioni. L’automazione e l’IA sollevano, infatti, interrogativi sull’evoluzione dei posti di lavoro e sulle competenze richieste per svolgere i lavori di domani. Dibattito che si estende oltre la semplice questione dell’automazione, toccando temi legati alla qualità del lavoro, alla formazione e alla riqualificazione professionale.
Oltre ai problemi pratici che influenzeranno la quotidianità di tutti in un futuro ormai prossimo, anche le implicazioni etiche dell’uso dell’IA sono divenute un argomento di discussione vasto e complicato. Dalla coniazione da parte di Padre Paolo Benanti del termine “algoretica” (ripreso a vario titolo dal Santo Padre, dal Presidente del consiglio in un discorso del 20 settembre 2023 alle Nazioni Unite e dall’Accademia della Crusca) alla discussione sulle cosiddette “allucinazioni” dell’IA (quando i sistemi generano risposte aberranti), il dibattito è ampio e affronta temi che richiedono una riflessione profonda e un’azione regolatoria attenta. La tutela del cittadino, infatti, è una tematica di particolare importanza, soprattutto se si considera che tutti gli indici a disposizione confermano l’assenza di una cultura digitale e del dato diffusa, il che aumenta i rischi sociali di una utilizzazione impropria della tecnologia.
Per esempio, la mancanza di comprensione sulle potenzialità generative dell’IA può portare ad una eccessiva fiducia nel materiale digitale consumato online: una fake news corredata di materiale multimediale finto ma fotorealistico può apparire vera a un utente sprovvisto delle giuste competenze. Un aspetto che è particolarmente preoccupante in un’era in cui le informazioni possono essere diffuse rapidamente e senza controllo attraverso i social network e le altre piattaforme digitali.
Fra le diverse questioni che l’IA pone e a dimostrazione del suo effetto “multisfaccettato” sul contesto odierno, si può ancora ricordare quello della gestione dei diritti d’autore sia dei contenuti utilizzati per l’addestramento dei sistemi di IA, sia dei contenuti da essi generati. Il 27 dicembre 2023, come noto, il NewYork Times ha citato in giudizio OpenAI e Microsoft, accusandole di violazione di diritto d’autore per aver addestrato OpenAI sui suoi articoli. Secondo l’accusa, le chatbot, dopo aver appreso ed essersi “allenate” sugli articoli del giornale, sono ora in concorrenza con lo stesso come fonte accreditata di informazione. Fatto che è solo il primo segnale di una situazione che in prospettiva è atteso si verifichi frequentemente e che renderà necessaria la revisione del concetto stesso di fair value of data.
A latere di ciò sarà necessaria anche un’azione di aggiornamento del quadro normativo che consenta di dare risposte adeguate alle tante questioni poste dalla creazione e dall’uso dei contenuti generati dall’IA. In tal senso, e pur in assenza di una normativa specifica, alcuni tentativi sono stati eseguiti da OpenAI assieme ad alcune testate europee È appunto perciò ora in corso un’azione di evoluzione delle norme a regolazione dello sviluppo e degli effetti socioeconomici dell’IA.
L’esempio più significativo in questo senso è certamente rappresentato dall’AI Act – introdotto a livello europeo dopo un percorso preparatorio durato diversi anni – e concepito per stabilire un quadro giuridico comune per la regolamentazione della tecnologia, ponendo l’accento su aspetti fondamentali per la tutela del cittadino come la trasparenza, la sicurezza e la responsabilità nell’uso dell’IA.
Al contempo, è iniziato un dialogo che punta a gettare le fondamenta per la condivisione di regole comuni extranazionali. Al riguardo, l’iniziativa più significativa è stata la pubblicazione della “Declaration for the Future of the Internet”. Pure se si focalizza principalmente sulle modalità di condivisione e scambio dei dati, la stessa ha un’influenza indiretta forte anche sull’uso e lo sviluppo dell’IA. Questa dichiarazione mira a promuovere un’internet aperta, libera e sicura, principi questi che pongono basi infrastrutturali solide per consentire l’utilizzazione appropriata dell’IA.
Per consentire l’opportuna applicazione di tali norme e identificare un riferimento istituzionale chiaro, che consenta di partecipare al dialogo globale per la definizione di standard e regole comuni, si osserva un’intensificazione a livello globale di azioni istituzionali volte a promuovere Authorities, commissioni e gruppi di studio dedicati all’IA. Ogni Stato sta così adottando un approccio che rifletta le proprie specificità culturali e politiche.
In Italia, il Parlamento sta conducendo numerose audizioni e ha istituito diverse commissioni per avere un quadro d’insieme sugli effetti che gli algoritmi avranno in settori industriali specifici. Tra queste, spiccano l’indagine conoscitiva sull’IA condotta dalla Camera dei deputati, focalizzata sulle opportunità e i rischi per il sistema produttivo italiano, e la Commissione sull’IA del Dipartimento per l’Informazione e l’Editoria, guidata inizialmente da Giuliano Amato e poi da Padre Paolo Benanti. Tali iniziative dimostrano una crescente consapevolezza dell’importanza di una regolamentazione efficace e di un dibattito pubblico informato sull’IA.
A tal proposito è opportuno menzionare che tra gli argomenti centrali dell’incontro del Gruppo dei 7 (G7) – dal primo gennaio del 2024 sotto la presidenza italiana – sarà proprio l’intelligenza artificiale, il suo ruolo negli equilibri geo-politici, la necessità che la stessa sia sicura e trasparente, le opportunità che propone nello sviluppo delle industrie. (…).
La rapida evoluzione dell’IA rende necessario un importante sforzo interdisciplinare e richiede un impegno e un dialogo congiunto di governi, industrie, istituzioni educative e società civile, per costruire un futuro in cui un giusto equilibrio consenta all’innovazione di esprimersi e garantisca al contempo la tutela dei cittadini, di modo che questa tecnologia possa essere benefica per tutti. (…).
Fonte: Aspen Institute Italia | FrancescoMacrìBlog.com