Mentre le società democratiche di tutto il mondo sono alle prese con una tornata di elezioni cruciali, l’integrità del processo elettorale è sempre più compromessa dal ruolo maggiormente sofisticato e occulto dell’intelligenza artificiale.
L’ultima indagine di Check Point Research svela i molteplici modi in cui l’IA viene impiegata per influenzare i risultati politici in tutti i continenti.
Risultati chiave:
- L’IA è già ampiamente utilizzata nelle campagne elettorali di tutto il mondo. I deepfake e la clonazione vocale sono stati impiegati nelle elezioni in tre ambiti principali:
- per l’autopromozione dei candidati.
- per attaccare e diffamare gli avversari politici.
- per diffamare candidati specifici, da parte di figure chiave di Stati nazionali stranieri
- I contenuti deepfake (audio, video e immagini convincenti generate dall’intelligenza artificiale che falsificano o alterano in modo ingannevole l’aspetto, la voce o le azioni dei candidati politici) sono spesso diffusi poco prima delle elezioni per limitare l’opportunità di risposta da parte dei responsabili di verifica. Le norme che vietano la discussione politica sui media tradizionali nelle ore precedenti le elezioni, permettono alle fake news di dominare l’etere in modo incontrastato.
- Nell’ambito delle campagne di disinformazione elettorale guidate dall’intelligenza artificiale, i deepfake audio sono attualmente impiegati in modo più esteso e con successo rispetto a quelli che coinvolgono immagini e video.
- In molti Paesi mancano attualmente normative e leggi adeguate relativamente a materiali prodotti. Di conseguenza, ciò consente la diffusione di audio e video falsi.
- Nella maggior parte dei casi, le democrazie consolidate riportano meno casi di sfruttamento interno della disinformazione generata dall’intelligenza artificiale.
- Le campagne degli Stati nazionali hanno la capacità di distribuire false narrazioni ben strutturate e di sincronizzare ampie campagne di disinformazione.
- Le arene politiche sature di prodotti informativi generati dall’IA soffrono del “dividendo del bugiardo”, che consente ai politici di liquidare come inventati i materiali scandalistici autentici.
Lo scenario
Si prevede che il 2024 sarà un momento cruciale per i processi democratici in tutto il mondo, in quanto oltre 2 miliardi di persone in 50 nazioni si preparano a votare.
Questa ondata elettorale globale che ha già visto gli scrutini in Indonesia, Taiwan e Pakistan comprende Paesi come gli Stati Uniti, l’India, il Messico, il Parlamento europeo e il Sudafrica. L’esito di queste elezioni è destinato a influenzare in modo critico la direzione politica futura dell’intero pianeta.
I progressi di quest’anno nella sofisticazione e nell’accessibilità dell’IA generativa hanno aumentato le preoccupazioni sull’integrità dei processi elettorali.
Queste preoccupazioni si concentrano principalmente sulle campagne di disinformazione, in particolare sul timore che l’applicazione diffusa di nuove tecnologie, in grado di produrre e diffondere contenuti video e audio falsificati, possa allontanare il discorso pubblico dalle sue radici fattuali e diminuire la fiducia dei cittadini nelle istituzioni democratiche.
Nella precedente pubblicazione dello scorso settembre, Check Point Research aveva esaminato le minacce poste dai progressi delle tecnologie di IA generativa alle elezioni democratiche.
Nell’articolo si discuteva di come l’IA potesse generare grandi volumi di contenuti personalizzati, diventando così un potente strumento di micro-targeting e di manipolazione del comportamento all’interno della sfera politica.
Questa capacità di produrre contenuti personalizzati su larga scala e a basso costo, unita al suo potenziale di produrre materiali audiovisivi altamente realistici ma falsi, ha sollevato il timore che il futuro discorso politico possa distogliere l’attenzione da questioni politiche rilevanti.
Da allora, Check Point Research ha rivelato il commercio di strumenti sofisticati nei mercati criminali di Internet, che incorporano capacità di intelligenza artificiale per creare deepfake e gestire account di social media. Una di queste piattaforme, offerta su un forum clandestino russo, impiega l’intelligenza artificiale per automatizzare la distribuzione di contenuti attraverso profili contraffatti su piattaforme di social media come Instagram e Facebook.
Questa particolare piattaforma è in grado di supervisionare centinaia di account, di facilitare i post giornalieri e di condurre campagne per influenzare gli elettori su larga scala.
Inoltre, sono emersi diversi servizi specializzati nella creazione di deepfake, RVC (Retrieval based Voice Conversion) e email di spam potenziate dall’intelligenza artificiale, che sfruttano questa tecnologia per aggirare i protocolli di sicurezza e aumentare le percentuali di successo nel colpire le persone.
“La nostra ricerca sull’uso dell’IA nelle campagne elettorali in tutto il mondo evidenzia un’evoluzione agghiacciante della guerra digitale contro i processi democratici. La sofisticazione e l’accessibilità alle tecnologie di IA hanno raggiunto un punto tale da poter essere facilmente utilizzate come armi per influenzare il processo democratico. È imperativo aumentare la consapevolezza, promuovere la collaborazione internazionale e aggiornare i quadri normativi per contrastare queste minacce“.
Sergey Shykevich – Threat Intelligence Group Manager di Check Point Software
La disponibilità di strumenti di intelligenza artificiale potenzialmente dannosi va oltre i mercati del Dark Web. Un recente rapporto di Check Point Research ha evidenziato funzionalità analoghe disponibili su piattaforme open-source.
In particolare, oltre 3.000 repository GitHub sono dedicati allo sviluppo e alla diffusione della tecnologia deepfake, con servizi offerti a prezzi che partono da 2 dollari per video.
Sfruttamento dei deepfake da parte dell’IA
Le precedenti discussioni sull’impatto degli strumenti di IA sulle elezioni si basavano per lo più su valutazioni di minacce ipotetiche. Con l’avvento di sofisticati strumenti di IA generativa, gli Stati esteri e i candidati politici nazionali sono in grado di sfruttare queste tecnologie.
Tra i più preoccupanti ci sono i servizi di “deepfake“, che possono creare contenuti audio o visivi altamente realistici, ma falsi. Questi materiali possono essere utilizzati da partiti politici e candidati nazionali, o da agenti stranieri, per aumentare le possibilità di un particolare candidato o partito alle elezioni, danneggiare i concorrenti o, in generale, minare la fiducia del pubblico nel processo democratico.
Sul fronte interno, i contendenti politici o i loro affiliati potrebbero utilizzare le capacità di deepfake insieme alle piattaforme di social media guidate dall’intelligenza artificiale per influenzare l’opinione pubblica a loro favore.
L’automazione della creazione di contenuti e la capacità di gestire vaste reti di personaggi online fittizi consentono una scala di influenza precedentemente inimmaginabile, complicando gli sforzi per mantenere la correttezza e la trasparenza delle elezioni.
Si stanno accumulando prove dell’effettivo sfruttamento di materiali generati dall’intelligenza artificiale nelle elezioni di tutto il mondo.
Sono state esaminate 36 elezioni parlamentari, regionali e presidenziali svoltesi nei sei mesi tra il settembre 2023 e il febbraio 2024 e sono state riscontrate segnalazioni sostanziali di materiali generati dall’IA utilizzati in campagne di disinformazione in almeno 10 casi.
La revisione si è concentrata principalmente sui rapporti dei media mainstream in lingua inglese, trascurando probabilmente i Paesi più piccoli che non attirano l’attenzione dei media internazionali.
Concentrandoci sui rapporti dei media tradizionali, inoltre, non saremmo in grado di rilevare tutti i materiali generati dall’IA pubblicati sui social media, ma piuttosto solo le campagne che sono state segnalate come disinformazione e sono state riprese dai media.
Considerando la pletora di strumenti e servizi disponibili e il loro effettivo utilizzo nelle campagne in alcuni Paesi, colpisce l’assenza di prove di IA in altri casi. Eventi elettorali minori, come quelli delle Maldive e del Madagascar, possono passare inosservati in queste analisi a causa delle dimensioni, della lingua o della mancanza di interesse internazionale per i loro risultati.
Tuttavia, i media non hanno rilevato lamentele sull’uso dell’IA nelle elezioni in Francia, Canada (Manitoba), Germania (Baviera e Assia), Grecia, Nuova Zelanda, Ecuador e Finlandia. Questi Paesi si collocano relativamente in alto negli indici di democrazia (ad esempio, le classifiche V-Dem 2023 v2x_api sono rispettivamente 11, 20, 16, 38, 7, 60 e 14).
Nei Paesi in cui l’opinione pubblica ha fiducia nei media indipendenti, la probabilità di diffondere disinformazione può essere ridotta.
Secondo un articolo dell’Harvard Misinformation Review, in questi scenari la maggior parte delle persone consuma prevalentemente contenuti provenienti da fonti tradizionali (rispetto ai social media) ed è quindi esposta solo marginalmente alla disinformazione, per quanto convincente possa apparire.
Le campagne di disinformazione sono state identificate come uno strumento fondamentale nelle società autocratiche.
Anche nelle democrazie, livelli elevati di disinformazione sono stati collegati all’inizio dell’autocratizzazione. Di conseguenza, è plausibile che l’utilizzo di strumenti di IA per la disinformazione sia più diffuso nelle nazioni autocratiche, nelle democrazie imperfette e nei Paesi che sono bersaglio di regimi autocratici.
In molti casi l’IA è stata utilizzata per generare materiali tradizionalmente prodotti dal personale della campagna elettorale o da consulenti mediatici assunti.
Questo è evidente in esempi che vanno dall’Argentina all’Indonesia. Un aspetto positivo di questi strumenti è il loro utilizzo per aggirare le restrizioni alla libertà di parola, come è stato fatto fornendo un volto e una voce al leader politico imprigionato del Pakistan Khan o un notevole tentativo di dare voce all’opposizione silenziosa della Bielorussia.
Tuttavia, è bene stare in guardia sul fatto che gli strumenti progettati per animare le idee delle campagne elettorali spesso si traducono in applicazioni fuorvianti, come email non verificate in Polonia o aver messo in bocca a leader deceduti parole per appoggiare politici attuali, una tattica che è stata utilizzata, per esempio in Indonesia e in India.
Scopri altre notizie interessanti su