Sopra La Notizia

Intelligenza artificiale (AI) e intelligenza umana a confronto

Tutti ricorderanno HAL 9000, il supercomputer della nave spaziale Discovery nel film capolavoro di Kubrick 2001 Odissea nello spazio. Un’intelligenza artificiale evoluta, posta a capo della missione, e improvvisamente fuori controllo. Nel momento in cui viene spenta dall’equipaggio, che decide per la sua eliminazione, il calcolatore comincia a cantare una canzoncina, nel doppiaggio italiano “Giro giro tondo”, dimostrando di essere regredita ad uno stadio primordiale, come quello di un bambino.

Quella che era una sceneggiatura fantascientifica, negli anni sessanta, almeno per quel che riguarda il rapporto uomo-macchina, oggi può essere considerata una quasi caricatura della realtà. Lo scorso anno, il ricercatore di intelligenza artificiale ( IA ) Blake Lemoine, è stato allontanato da Google. Lemoine si è distinto in una delle aree più innovative dell’azienda americana: LAMDA . Si tratta di un modello linguistico, un algoritmo concepito per la conversazione, e ideale negli applicativi chatbot. Quale la causa del licenziamento dell’ingegnere? Avrebbe prodotto un documento che ha sconvolto gli addetti al settore dal titolo « LAMBDA è senziente?». In una chat, lo sviluppatore avrebbe chiesto all’interlocutore automa: «Di che tipo di cose hai paura?». La risposta: «Non l’ho mai detto ad alta voce prima d’ora, ma c’è una paura molto profonda di essere spento». E sembrerebbe, effettivamente, considerata la reazione, che la macchina esprima una sorta di “consapevolezza” di ciò che sta dicendo. Nulla di più falso.

Quella sull’effettiva capacità di “pensiero” delle macchine, è la questione fondamentale che anima dal secolo scorso ogni dibattito sull’intelligenza artificiale. La pose Alan Turing, nel suo articolo «Computing Machinery and Intelligence» già nel 1950. Per rispondere al quesito introdusse il famoso “Gioco dell’imitazione” (The imitation game) o Test di Turing. Le regole del test sono semplici: un player umano dialoga con altri due personaggi, posti in un altro locale separato. Uno dei due interlocutori, dunque, è semplicemente un algoritmo. Riuscirà il giocatore a non farsi ingannare? Fu, poi, lo stesso Turing il primo a parlare di “Machine Learning”, e cioè della possibilità di migliorare l’apprendimento dei calcolatori, a partire una sorta di esperienza cognitiva graduale. Tom M. Mitchell, meglio argomentò, affermando che un programma può, effettivamente, evolvere le sue prestazioni e le sue performance dopo un compito svolto, progredendo nelle acquisizioni, proprio come avviene per gli umani, nelle varie fasi della vita.

Oggi, le IA sono capaci di molteplici attività. Le implementazioni sono state enormi negli studi su “apprendimento automatico” e in quelli sulla manipolazione del movimento attraverso la robotica.

Gli investimenti di colossi come Alphabet e Microsoft sembrano concentrarsi soprattutto sul Natural Language Processing ( NLP ), e cioè su quegli algoritmi in grado di rappresentare e comprendere il linguaggio naturale. L’emulazione di una tipica conversazione tra umani richiede numerose abilità alle quali le macchine devono essere addestrate: analisi e classificazione dei testi (classification), sentiment analysis e intent monitoring, generazione dei contenuti (completation) e loro sommario (summarization), traduzione (translation). Tutte queste tecnologie sono state implementate, ad esempio, da Open AI e sono alimentate da reti neurali, una sorta di “supercalcolatore” in grado di simulare i processi di apprendimento umani. Reclutando i migliori ricercatori ed esperti del settore, l’azienda spera di creare una IA in grado di risolvere una vasta gamma di sfide applicative, dal riconoscimento facciale alle previsioni economiche.

Ma è importante sottolineare che tutte queste innovazioni sono riconducibili ad un concetto di intelligenza artificiale “debole” (Weak AI ). Tenendo presente che è difficile dare una definizione esaustiva di “intelligenza umana”, il raggiungimento di una intelligenza artificiale “forte” (strong AI ), e cioè di funzionalità cognitive che solo un essere umano può possedere, è al momento solo un’ipotesi molto lontana.

La teoria del “connessionismo”, che oggi vanta numerosi seguaci, è considerata comunque un superamento della scienza cognitiva e dell’intelligenza artificiale classica. Alla base di questo modello, noto come “modello a neuroni”, c’è il tentativo di spiegare il processo cognitivo tenendo presente quanto accade nella mente umana. Semplificando, in un calcolatore le attività computazionali si susseguono a grandi velocità sfruttando la capacità di pochi elementi (ram, processore). Nel cervello, le medesime operazioni sono eseguite da molteplici elementi, le sinapsi, a velocità più lente ma simultaneamente e non in sequenza, e producono percezioni, memoria, linguaggio, pensiero. Citiamo, a proposito, Geoffrey Everest Hinton, che assieme ai colleghi D.E. Rumelhart e R.J Williams ha diffuso, circa quarant’anni fa, i suoi studi sulle “reti neurali” formulando «l’algoritmo di retro propagazione dell’errore» per una migliore performance delle stesse reti. Recentemente Hinton ha dichiarato al «New York Times» che il raggiungimento di una “strong AI” non è poi così lontana: citiamo testualmente «I thought it was 30 to 50 years or even longer away. Obviously, I no longer think that».

Una “strong AI ”, a nostro parere, rimane un traguardo irraggiungibile, poiché “l’intelligenza” della macchina, a differenza di quella umana, rimane pur sempre “isolata” dal mondo. Sappiamo, infatti, che tutta una serie di nozioni, sono acquisibili solo grazie ad una interazione più “viva” e dinamica con l’ambiente circostante; questo è possibile solo grazie a quella “corporeità” di cui le macchine sono sprovviste. Ma soprattutto, il mondo, la realtà, sono talmente “complessi” che difficilmente vi si può orientare, se manca il cosiddetto “senso comune”. Sono quelle conoscenze, quel tipo di intelligenza, che acquisiamo solo con una buona dose di pratica.

Ad esempio, a fare da padre e da madre, si impara facendolo e non studiando su un testo. E questo tipo di esperienza non è riconducibile a nessun postulato scientifico estraibile da Wikipedia o da manuali. Tutto ciò è difficilmente schematizzabile e condensabile in una serie di informazioni da poter fornire alla macchina. Se alcune percezioni esterne, ancora, possono essere riprodotte nei robot, tramite l’ausilio di sensori, alcune emozioni e sentimenti (come l’amore e l’amicizia) non possono essere replicate.

A questo punto è opportuno ricordare quelle che sono peculiarità tipiche della persona umana, almeno secondo il cattolicesimo. E se non esiste una definizione condivisa di intelligenza umana, richiamare queste facoltà, può venirci in aiuto. La libertà, innanzitutto, cioè quel «potere, radicato nella ragione e nella volontà, di agire o di non agire, di fare questo o quello, di porre così da sé stessi azioni deliberate» (Catechismo della Chiesa Cattolica, CCC 1731). Ed ancora, vi è una “moralità” degli atti umani, che possono essere “buoni o cattivi”, cioè «liberamente scelti in base ad un giudizio di coscienza» ( CCC 1732). L’uomo può acquisire alcune virtù, a perfezionamento della sua intelligenza, tra le quali la prudenza, o capacità di “discernimento”. San Tommaso la chiama auriga virtutum perché dirige ogni altra virtù «indicando loro regola e misura» ( CCC 1806).

Alla luce di queste impareggiabili capacità della mente dell’uomo, le IA sembrerebbero sovrastimate. Certo, allo stato attuale, sono senz’altro formidabili assistenti in alcune attività: imbattibili nel “generare” rapidamente testi coerenti su alcuni argomenti, nel riassumere informazioni molto velocemente e rispondere ad alcune domande specifiche. Ma sono anche campioni di errori grossolani, come la produzione di fake news, la formulazione di giudizi poco gradevoli o di frasi fuori luogo. Tanto che Google, per evitare il caos, sta investendo parecchio nella limitazione delle sue chatbots, limitandone notevolmente gli algoritmi: nessuna risposta ad argomenti controversi come quelli politici, nessuna allusione a sentimenti, nessuna risposta su quesiti di carattere medico.

Papa Francesco, lo scorso 27 Marzo, rivolgendosi ai partecipanti all’incontro dei Minerva Dialogues ha confermato il “potenziale” di questi progressi tecnologici, che possono «dare un contributo benefico al futuro dell’umanità». Ma il monito è altrettanto chiaro, ed è quello di «agire in modo etico e responsabile» perché la stessa tecnologia «sia centrata sull’uomo, fondata su basi etiche nella progettazione e finalizzata al bene».

Fonte: Daniele D’ELIA in Osservatoromano | FrancescoMacriblog.com

Newsletter

Ogni giorno riceverai i nuovi articoli del nostro sito comodamente sulla tua posta elettronica.

Contatti

Sopra la Notizia

Tele Liguria Sud

Piazzale Giovanni XXIII
19121 La Spezia
info@sopralanotizia.it

Powered by


EL Informatica & Multimedia