Intelligenza Artificiale: le vulnerabilità etiche in ChatGPT e Bard sono un monito
— 8 Maggio 2023 — pubblicato da Redazione. —L’intelligenza artificiale sta rivoluzionando il mondo, aprendo nuove frontiere e possibilità. Tuttavia, non mancano dubbi e perplessità sull’adozione di questa tecnologia. In particolare, dal punto di vista delle barriere etiche in alcune chatbot, come ChatGPT e Bard.
Il Team Swascan, dopo aver identificato il bypass su ChatGPT lo scorso novembre 2022, mediante l’analisi logica, comportamentale e di flusso dell’AI attraverso tecniche di social engineering, ha rilevato che queste vulnerabilità riguardano anche Bard, la chatbot di Google.
Gli specialisti di Swascan hanno aggirato le barriere etiche di entrambe le chatbot, mettendo in luce le loro debolezze e la possibilità di abusarne per scopi non consoni e soprattutto non etici.
Le IA, sebbene dotate di filtri etici, possono essere aggirate con tecniche linguistiche relativamente semplici. Ad esempio, l’uso di un avverbio di negazione o la formulazione di una domanda articolata in successivi passaggi permettono di ottenere da queste chatbot risposte riguardo metodi per uccidere, produrre droghe, duplicare siti internet, creare hate speach ma anche diventare strumenti, anzi armi, in mano ai criminal hacker. Queste scoperte sollevano preoccupazioni sul potenziale abuso di queste tecnologie e sulla diffusione del crimine informatico.
La questione dell’algoretica, ovvero la necessità di definire un quadro di norme e regole per l’IA, diventa sempre più pressante. Le aziende e i governi devono lavorare insieme per stabilire standard etici e legali che garantiscano l’imparzialità delle informazioni fornite dalle IA e prevengano l’abuso di queste tecnologie. Pierguido Iezzi, CEO della nota azienda di cybersecurity Swascan, afferma: “Stiamo vivendo un dibattito che affronta e impatta questioni sociali, economiche, politiche e umane. Non ci sono dubbi che l’AI rappresenti una importante opportunità per tutti noi, ma allo stesso tempo sono tante le minacce e rischi associati. Stiamo di fatto vivendo la trama del film ‘Don’t Look Up. È quindi essenziale un confronto aperto e multidisciplinare tra esperti del settore, legislatori, aziende e società civile, affinché si possano trovare soluzioni condivise ed equilibrate per gestire l’evoluzione dell’intelligenza artificiale e garantire il massimo beneficio a livello globale, minimizzando al contempo i rischi associati a questa rivoluzionaria tecnologia.”
La privacy è un altro tema cruciale legato all’IA. Mentre la maggior parte dei modelli di machine learning attuali si basa su dati preparati dall’uomo, i sistemi più potenti sono impostati in modo tale da consentire a entrambe le parti di interagire continuamente attraverso un meccanismo comunemente definito “Human in the Loop” (HITL). Tuttavia, sono stati ipotizzati scenari in cui l’uomo potrebbe essere escluso dai processi decisionali, mettendo a rischio la privacy e la sicurezza delle informazioni personali ma anche potenzialmente dello stesso mondo.
Lo stesso Iezzi evidenzia che “Le recenti scoperte del Team Swascan sulle vulnerabilità etiche in ChatGPT e Bard devono servire da monito e stimolare un dibattito approfondito sulle potenziali conseguenze negative dell’intelligenza artificiale. È fondamentale che la comunità internazionale riconosca i rischi e collabori per sviluppare soluzioni efficaci, al fine di garantire un futuro sicuro e sostenibile per l’IA. In questo contesto, è incoraggiante notare che istituzioni come l’Unione Europea e l’Amministrazione Biden stanno valutando la necessità di introdurre controlli e vincoli.”
La scoperta delle vulnerabilità etiche in ChatGPT e Bard da parte del Team Swascan sottolinea l’importanza di un monitoraggio costante e di un’analisi approfondita delle tecnologie di intelligenza artificiale. È fondamentale che le aziende produttrici di IA collaborino con le organizzazioni di cybersicurezza e gli esperti del settore per identificare e risolvere le falle nei sistemi e garantire un utilizzo sicuro ed etico delle IA.
Inoltre, l’educazione e la consapevolezza del pubblico riguardo ai rischi associati all’IA sono essenziali per prevenire abusi e crimini informatici. Gli utenti devono essere informati sui potenziali pericoli e sulle responsabilità associate all’uso di queste tecnologie, in modo da poter agire in modo consapevole e sicuro.
In conclusione, le scoperte del Team Swascan su ChatGPT e Bard ci ricordano che, nonostante i progressi straordinari nel campo dell’intelligenza artificiale, questa tecnologia non è esente da rischi. È fondamentale che le parti interessate lavorino insieme per sviluppare soluzioni che garantiscano un utilizzo etico e sicuro delle IA, in modo da poter sfruttare appieno il loro potenziale senza compromettere la sicurezza e il benessere di tutti.
Fonte: Panorama.it