Partiamo dal ruolo crescente, è ormai quasi banale dirlo, che i modelli comunicativi di massa, attraverso la rete e i social, stanno assumendo nella formazione e nell’orientamento della pubblica opinione. Da ciò scaturisce la grande opportunità di diffondere, grazie ad essi, notizie false capaci di orientare il processo politico e quello elettorale. Un esempio storico delle conseguenze della diffusione di fake news grazie a questi nuovi canali l’avemmo già oltre dieci anni fa quando, il 23 aprile 2013, alcuni hackers si impadronirono dell’account Twitter dell’Associated Press americana lanciando la notizia di esplosioni alla Casa Bianca e del ferimento di Barack Obama. In pochi minuti, grazie ad una diffusione immediata di ciò sui social, la Borsa di New York perse quasi 136 miliardi di dollari e un’ondata di fortissima preoccupazione politica si diffuse in tutti i paesi. Più recentemente, vi è stato il caso di Olena Zelenska, accusata di aver utilizzato per spese personali a New York i fondi dati dagli Stati Uniti all’Ucraina per resistere all’invasione russa. Un attento fact-checking rilevava non solo la falsità della notizia, ma ne identificava l’origine in un oscuro sito del Burkina Faso. La notizia risultava poi rimbalzata in America e qui diffusa da un giornale, DC Weekly, di proprietà di un ex poliziotto fuggito in Russia dove lavora oggi come giornalista per il governo. La diffusione di tale fake news, ove non contrastata, avrebbe avuto conseguenze significative sul dibattito allora in corso relativo agli aiuti americani all’Ucraina.
Siamo in un anno in cui letteralmente miliardi di persone sono interessate ai processi elettorali: si è votato ad esempio in Argentina, in Russia, a Taiwan, in Portogallo e in Olanda; si voterà nell’Unione Europea, in Sud Africa, negli Stati Uniti, in India e in Messico.
Gli strumenti per la diffusione in campo elettorale di fake news e di disinformazioni (si tratta però di due fenomeni diversi) sono oggi assistiti dallo sviluppo dell’intelligenza artificiale. Grazie ad essa sono stati messi a disposizione dei creatori e dei diffusori di notizie false strumenti importanti, come ad esempio il GAN (Generative Adversarial Network), che consente di generare immagini di grande realismo, rendendo difficile distinguere un contenuto vero da uno falso; un diffuso modello multimediale che combina foto, video e suoni capaci di suggestionare gli utenti creando emozioni facciali di grande impatto; un software idoneo a produrre un intervento orale da attribuire ad una persona, attingendo a pochi secondi di registrazione della voce originaria (come Voice Engine e Vall E). A ciò si aggiungono i software robots, meglio conosciuti come bots, che possono favorire la rapida e capillare creazione e diffusione di contenuti falsi.
Una linea di difesa contro questa proliferazione è quella di richiedere alle società che gestiscono i media di rafforzare gli strumenti di controllo: ad esempio Facebook ha circa 40.000 persone che dovrebbero vigilare sulla veridicità di quanto riportato sulla piattaforma. Se si calcola tuttavia che gli accessi al sito raggiungono i 3 miliardi mensili, si comprende come il compito sia assai difficile. Ed alcune decisioni dell’attuale proprietario di Twitter (oggi X), Elon Musk, dettate non solo da considerazioni di carattere economico, sembra vadano in senso contrario a questo necessario sistema di controllo. Controllo reso peraltro ancora più difficile in relazione ad applicazioni, come Tik Tok, direttamente riferibili a paesi antagonisti al nostro modello politico e sociale.
Esiste però uno spazio specifico, anche dell’intelligence attraverso l’IA, per l’identificazione e l’eliminazione di notizie false in campo elettorale.
Ad esempio, due strumenti vengono tradizionalmente utilizzati dall’intelligence: i cosiddetti deplatforming e gli shadowbanning. Il primo consiste nel rimuovere la piattaforma (e.g. un sito web) utilizzata per diffondere notizie false o pericolose; l’altro nel bloccare ad uno o più soggetti l’accesso ai social media.
Sono tuttavia strumenti di content moderation che non sempre riescono a risolvere il problema in quanto, nonostante l’utilizzo di LLM, hanno difficoltà ad identificare con ragionevole precisione la veridicità, la credibilità e la rilevanza di una notizia. E che presentano sempre, nelle loro conclusioni, il rischio di ricadere nella scelta difficile tra ‘falsi positivi’ e ‘falsi negativi’.
In questo campo è attualmente impegnato il DARPA, (Defense Advanced Research Project Agency), l’agenzia del Dipartimento della Difesa americana, che sta elaborando un programma per «identificare, attribuire e caratterizzare media manipolati e sintetizzati». Il fine è quello di mettere a disposizione di ricercatori e sviluppatori strumenti che fanno uso dell’intelligenza artificiale per facilitare l’identificazione delle deep fakes.
Strumenti commerciali di facile reperibilità ed utilità in questo campo sono anche Weverify; AI or Not; AI Voice Detector; Winston AI.
La maggioranza degli osservatori ritiene che la lotta alla disinformazione sarebbe facilitata dall’accesso e dalla circolazione dei dati tra società informatiche, ricercatori e governi. Una pratica, questa, di non sempre facile attuazione specialmente negli Stati Uniti, dove le teorie ‘cospiratrici’ la indicano come esempio di complicità tra le diverse istituzioni per limitare la libertà di espressione. Grazie al Data Service Act, tale collaborazione potrebbe essere possibile in Europa, anche se non se ne segnala una rilevante diffusione.
Comparando dati di diversa provenienza sarebbe infatti più facile, grazie all’intelligenza artificiale, identificare non solo palesi somiglianze verbali, ma anche quell’analogo sentiment che faciliterebbe il risalire all’origine dei post in esame.
Concludendo, il primo passo per contrastare la disinformazione e la diffusione di notizie capaci di influenzare negativamente le società democratiche e il processo di definizione della volontà elettorale è, a mio avviso, il diffondersi dell’educazione e delle conoscenze. Si pensi a quanto sarebbe diverso il duro e spesso violento confronto su Israele e Palestina se ci fosse una condivisa conoscenza appunto delle radici storiche del conflitto e delle responsabilità di chi ha più volte boicottato i raggiunti accordi di pace. Vasto programma!
È poi indispensabile che tutti siano pienamente consapevoli degli aspetti di rischio, accanto ai vantaggi, che pone lo sviluppo dell’intelligenza artificiale e siano messi in condizioni di rilevarli criticamente. E vanno potenziati quei meccanismi di collaborazione internazionale tra pubblico e privato che aiutano a distinguere tra il vero e il falso.
In questo spirito di collaborazione vanno, recentemente, il Memorandum of Understanding firmato un mese fa tra il governo italiano e il Dipartimento di Stato americano «per il contrasto alla disinformazione e alla manipolazione informativa straniera»; il voto del Parlamento europeo del 24 aprile scorso per la lotta alle interferenze russe e di altri paesi sulle operazioni elettorali; in Italia la presentazione da parte del governo di un disegno di legge sulla cybersicurezza rilevante anche per questi temi; la dichiarazione di Capri, nel mese di aprile, dei ministri degli esteri del G7 sulla «interferenza e manipolazione straniera del processo informativo»; e il C2pa (Standard Coalition to provenance and authenticity), cui hanno aderito Microsoft, OpenAI, Sony, BBC, Google e New York Times, per certificare le sorgenti e il percorso di un contenuto digitale, attraverso una ‘firma digitale’ che ne certificherebbe, se non la veridicità, quanto meno la provenienza.
Non è certo la soluzione definitiva, ma un primo passo. Al quale credo però che difficilmente potrebbero aderire quei paesi, come Russia, Cina, Corea del Nord e Iran, ai quali vengono fatti riferire i più numerosi e più rilevanti casi di diffusione di fake news.
Ma qui entriamo in un campo più specificamente politico e di confronto strategico, che potremo senz’altro approfondire in un altro momento.
Ferdinando Mach dice
Fake news , AI , smartphone , sono pericoli solo in assenza di Pensiero , Parole , Opere forti e profonde . Citando a sproposito Churchill , é il momento più buio per quasi tutti . Personalmente nutro grande fiducia in Jake Sullivan .
Un Consigliere che deve diventare Presidente .