Tutte le forme di comunicazione persuasiva hanno in comune l’obiettivo di influenzare le rappresentazioni, le credenze, gli atteggiamenti, le scelte e i comportamenti delle persone. Per fare tutto ciò, un modo efficace è far leva sui loro bias cognitivi e, tra questi, un bias particolarmente importante è il bias emotivo.
Una comunicazione che mira in modo diretto a suscitare una risposta emotiva nel destinatario, anche con il pretesto di fornire informazioni, è una comunicazione che ha più probabilità di originare un cambiamento, molto di più di una che utilizza un linguaggio emotivamente neutro e argomentazioni razionali, per quanto buone possano essere. Proprio per questo, propaganda e teorie del complotto spesso fanno leva su emozioni forti come la paura, la rabbia, l’indignazione e il senso di impotenza. Un modo per indurre emozioni nelle persone sono le immagini, statiche e in movimento. Usare colori e contrasti può indurre calma e serenità o tensione e indignazione, attraverso un gioco di tonalità calde e fredde, luci e ombre, contorni sfumati o delineati. Un altro elemento è la composizione: usare simmetrie ed equilibrio può trasmettere sensazioni di stabilità e tranquillità, usare asimmetrie ed elementi caotici può indurre confusione o ansia. I contesti, gli ambienti e le situazioni presentate possono dare un senso di famigliarità o di estraniazione, anche perché possono fare leva su ricordi ed esperienze personali del fruitore, che può proiettare il proprio vissuto sull’immagine oppure sentirla come lontana e avulsa dal proprio mondo. L’elemento forse più importante sono i soggetti presentati, le loro espressioni facciali, le posture adottate e le interazioni presentate, che possono suscitare empatia, felicità, tristezza, paura, indignazione, rabbia.
Fotografie come quelle di Robert Capa hanno raccontato le guerre attraverso le immagini e hanno toccato le corde emotive di milioni di persone, mettendo in scena le crude realtà dei conflitti. Se Robert Capa fotografava la realtà, pur facendone emergere aspetti non immediatamente evidenti attraverso l’occhio e la capacità rappresentativa del fotografo, le tecnologie informatiche odierne supportate dall’intelligenza artificiale consentono di rappresentare una realtà che non esiste e così facendo possono contribuire a costruirla, perché queste rappresentazioni (foto e filmati decisamente realistici, a volte più verosimili di quelli veri) possono essere spacciate per reali da soggetti manipolatori, nell’ambito di azioni di persuasione, propaganda, guerra cognitiva, indottrinamento alle teorie del complotto.
Una realtà più vera di quella vera: i deepfake
Con l’espressione deepfake vengono designati contenuti audio, video o fotografici creati tramite intelligenza artificiale, che modificano in modo estremamente realistico immagini o voci umane esistenti, per rappresentare cose che non esistono o fatti che non si sono mai verificati. I deepfake vengono generati da computer che campionano dati ambientali, biometrici (es. forme e colori del corpo e delle sue parti) e vocali (es. timbro e tono della voce) e usano i dati ottenuti per generare contenuti originali. Esempi di deepfake possono essere: foto realistiche di persone inesistenti o persone reali in situazioni mai successe e inverosimili, audio che riproducono fedelmente la voce di persone esistenti, video di volti che pronunciano labiali o presentano espressioni facciali mai assunte dal soggetto, video in cui persone reali o ricreate al computer (ex-novo o mediante sostituzione dei volti) dicono o fanno cose mai dette o fatte. Le applicazioni sono ovviamente infinite, alcune moralmente lecite altre no, alcune legali altre meno. Basti citare falsi video pornografici con personaggi noti, fake news, truffe, cyberbullismo.
I deepfake rappresentano una potenziale minaccia per la reputazione e la privacy delle persone, dato che possono rappresentarli in contesti e situazioni mai avvenuti, con persone che non hanno mai frequentato, in pose che non hanno mai assunto. I deepfake possono annullare nei fatti quella che in passato poteva rappresentare una prova incontrovertibile di colpevolezza: la prova filmata.
Con i deepfake, un video che ritrae un soggetto che commette un crimine non è più una prova certa, dato che il video potrebbe essere del tutto falso.
Il pericolo più grande è però nei significati che potrebbero essere associati all’uso dei deepfake. Supponiamo di avere un personaggio pubblico su cui gravitino da tempo sospetti, fondati o meno, di aver commesso illeciti. I sospetti non hanno mai avuto riscontri oggettivi, eppure “tutti sanno che quel personaggio è colpevole”. Ci sono dei video reali che lo ritraggono a cena con persone che assomigliano proprio a noti boss della malavita ed è del tutto verosimile che sia il personaggio sia i boss si trovassero insieme a quel tavolo, ma le immagini sono molto sfocate.
E allora come incastrarlo? “Basta un buon programma di video editing per migliorare la qualità delle immagini!”, potrebbe essere l’idea di qualcuno, e il verosimile può diventare realtà grazie a un deepfake. L’elemento più singolare è che gli autori del gesto potrebbero sentirsi in perfetta buona fede (“Con l’intelligenza artificiale non abbiamo fatto altro che ricostruire ciò che tutti sapevano, altrimenti il personaggio l’avrebbe fatta franca anche stavolta”). I deepfake non fanno altro che fornire nuovi strumenti per rimescolare a piacimento il piano soggettivo, quasi-oggettivo e oggettivo.
Un’altra applicazione apparentemente innocente ma molto pericolosa dei deepfake è la satira. Nel 2006, durante una trasmissione Tv in seconda serata condotta da Piero Chiambretti, chiama al telefono un signore che non si presenta nemmeno ma ha la voce di Adriano Celentano. Viene subito passato al conduttore della trasmissione che dialoga con lui in diretta, senza bisogno di presentarlo (a che serve? Lo conoscono tutti). Dice cose del tutto verosimili, fa battute e si comporta proprio come se fosse Adriano Celentano, tranne verso la fine, dove si lascia andare a
pesanti giudizi su dei colleghi, che provocano un po’ di imbarazzo, ma anche una valanga di risate. La telefonata finisce e tutto sembra normale.
Nessuno si preoccupa di dire o di scrivere a video che in realtà chi chiamava era un imitatore, perché la cosa sembra ovvia e scontata. Il giorno dopo Adriano Celentano querela giustamente la produzione, dato che della presunta gag non era stato proprio avvertito e quell’intervento aveva dato “un immagine di sé totalmente difforme da quella reale, essendo il medesimo stato raffigurato come un asociale,incoerente, contraddittorio, e totalmente intollerante verso le critiche a sé indirizzate, da minacciare prossime iniziative giudiziarie”. Il personaggio falso era più
vero di quello vero, perché si comportava alla perfezione come lo stereotipo che il pubblico aveva di lui. Chi avesse seguito distrattamente il programma avrebbe potuto convincersi che il vero Celentano avesse detto veramente quelle cose, con un conseguente danno di immagine. Il giudice, nel 2008, dette torto a Celentano con la motivazione che “l’imitazione rientrava all’interno di un programma satirico”. In un mondo dove i deepfake possono rivelarsi imitazioni migliori di quelle che potrebbe fare il miglior imitatore, cosa potrebbe succedere?
I deepfake possono essere impiegati per creare contenuti satirici estremamente realistici, che mettono in ridicolo personaggi pubblici. Il primo caso di una certa rilevanza in Italia fu quello del deepfake di Matteo Renzi trasmesso da Striscia la Notizia la sera di lunedì 23 settembre 2019: un video iperrealista in cui a un attore viene sovrapposto il volto di Matteo Renzi che fa commenti poco eleganti sui colleghi. Sul sito web viene spiegato che si tratta di un deepfake, ma nel corso del programma non un avviso e non una spiegazione prima del video. Il conduttore si limita a dire, dopo il video: “È lui o non è lui? Ma certo che non è lui […] cose così Renzi le pensa, mica le dice.” Inutile dire che moltissime persone prendono il video per vero, dato che sembra proprio un vero fuori onda. La domanda è dove finisce la satira e dove inizia la manipolazione informativa?
Cosa può succedere nel momento in cui questi video possono essere creati e diffusi da tutti? Revenge porn, guerre cognitive, falsi video da scenari di battaglia che fanno credere le cose più assurde possono diventare la normalità. Tutto ciò non fa che alimentare il bacino di chi crede nelle teorie del complotto: tutta l’informazione potrebbe essere potenzialmente falsa e allora siamo legittimati a credere solo a ciò che vogliamo, a prescindere da qualsiasi prova.
Smascherare i deepfake
Sapere che esistono i deepfake e che possono essere creati da chiunque è già un primo passo per prestare particolare attenzione a tutto ciò che si vede in rete e sui social media, senza lasciarsi andare a reazioni istintuali ed emotive, ma adottando la tecnica del “pensare prima di credere”. In secondo luogo, è sempre necessario ricordare che il senso critico non dovrebbe mai essere abbandonato. Ecco alcuni suggerimenti per capire se un’immagine, una voce o un video si possono considerare deepfake:
a) risalire alla data e al luogo di creazione. Come per tutta l’informazione, fotografie, registrazioni audio e clip video hanno una data e un luogo in cui sono stati creati. Risalire a queste informazioni (se il contenuto è genuino sono facilmente reperibili, ad esempio sul dispositivo che ha ripreso il video) e controllarne la coerenza con i contenuti è un modo per capire se vi sono incongruenze dovute a manipolazioni. Dove non sia possibile risalire all’autore o al dispositivo che li ha creati, cercare informazioni in rete sul materiale, in modo da vedere se già altre persone lo hanno sottoposto a controllo e se questo controllo è stato superato;
b) controllare l’attendibilità del sito che diffonde il materiale. Se il materiale (foto, audio, video) proviene da un sito noto per aver diffuso altri deepfake o materiali creati dall’intelligenza artificiale, potrebbe essere un deepfake. È importante risali-re alla fonte primaria che ha messo a disposizione il materiale e ai siti che lo hanno rilanciato, ricostruendo i passaggi fatti tra i vari siti (chi lo ha ripreso da chi);
c) analizzare i particolari. Mai come nei deepfake i particolari fanno la differenza. Esempi di particolari che possono far capire che siamo di fronte a un deepfake sono i riflessi incongruenti negli occhi dei soggetti, il fatto di sbattere le palpebre con una frequenza molto alta, le espressioni facciali innaturali o l’assenza di espressioni facciali, l’incoerenza tra quanto viene detto dalla persona e l’espressione facciale che presenta, la direzione del naso rispetto al viso, la postura innaturale, la posizione innaturale della testa rispetto al corpo, la dimensione troppo grande delle dita della mano, il movimento innaturale di parti del corpo o il loro essere poco realistiche, le discrepanze di colore e illuminazione ambientale, la sfocatura o il disallineamento di parti che dovrebbero essere allineate, suoni o voci incoerenti con quanto mostrato dalle immagini. Questi errori (spesso denominati in gergo informatico glitch) derivano dal dover modellare una parte del corpo a partire da una fotografia bidimensionale per portarla alla prospettiva tridimensionale del video, processo che porta con sé lentezze di elaborazione, distorsioni e ricostruzioni ipotetiche di informazioni non presenti sulla fotografia di partenza;
d) utilizzare algoritmi di controllo basati sull’intelligenza artificiale. L’intelligenza artificiale può creare deepfake, l’intelligenza artificiale può smascherarli. Esistono programmi che analizzano foto e video in cerca di indizi che possano far pensare a un processo di manipolazione e che si basano su algoritmi continuamente aggiornati per rimanere al passo con l’evoluzione dei deepfake.
La combinazione di questi quattro criteri può aiutare a fornire una valutazione discretamente attendibile del fatto che il contenuto in questione sia un deepfake.
Il requisito di base è sempre il mantenimento di un atteggiamento critico verso i materiali che si incontrano in Rete, anche quando appaiono di comprensione immediata, non prendendoli mai per veri fino a opportuna verifica e formulazione di giudizio ponderato.
Fonte: FrancescoMacrìblog.com