• Passa alla navigazione primaria
  • Passa al contenuto principale
  • Passa alla barra laterale primaria
  • Passa al piè di pagina
  • Innovazione
    • Startup
    • Invenzioni
    • Tecnologie
    • Intelligenza Artificiale
    • Video Recensioni
  • Business
    • Impresa
    • Finanza
    • Mercati
  • Strategia
    • Marketing
    • Business Model
    • Franchise
  • Lifestyle
    • Sport
    • Arte
    • Musica
    • Fashion
    • Design
    • Salute
    • Everyday
linnovatore

L'Innovatore

Notizie e Innovazioni a portata di click

  • Travel
    • Italia
    • Food & Beverage
    • Eventi
  • Crescita Personale
    • Motivazione
    • Produttività
    • Team Building
  • Chi Siamo
    • Segnalaci una notizia
    • Diventa un Innovatore
    • Collab
    • Termini e Condizioni
    • Cookie Policy
  • My Favorite post
Ti trovi qui: Home / Innovazione / Intellegenza Artificiale / L’ombra dell’IA sulle campagne elettorali di tutto il mondo

L’ombra dell’IA sulle campagne elettorali di tutto il mondo

7 Maggio 2024 by Luca Morelli Lascia un commento

FavoriteLoadingAggiungi ai preferiti

Mentre le società democratiche di tutto il mondo sono alle prese con una tornata di elezioni cruciali, l’integrità del processo elettorale è sempre più compromessa dal ruolo maggiormente sofisticato e occulto dell’intelligenza artificiale. 

L’ultima indagine di Check Point Research svela i molteplici modi in cui l’IA viene impiegata per influenzare i risultati politici in tutti i continenti.

Risultati chiave:

  • L’IA è già ampiamente utilizzata nelle campagne elettorali di tutto il mondo. I deepfake e la clonazione vocale sono stati impiegati nelle elezioni in tre ambiti principali:
    • per l’autopromozione dei candidati.
    • per attaccare e diffamare gli avversari politici.
    • per diffamare candidati specifici, da parte di figure chiave di Stati nazionali stranieri
  • I contenuti deepfake (audio, video e immagini convincenti generate dall’intelligenza artificiale che falsificano o alterano in modo ingannevole l’aspetto, la voce o le azioni dei candidati politici) sono spesso diffusi poco prima delle elezioni per limitare l’opportunità di risposta da parte dei responsabili di verifica. Le norme che vietano la discussione politica sui media tradizionali nelle ore precedenti le elezioni, permettono alle fake news di dominare l’etere in modo incontrastato.
  • Nell’ambito delle campagne di disinformazione elettorale guidate dall’intelligenza artificiale, i deepfake audio sono attualmente impiegati in modo più esteso e con successo rispetto a quelli che coinvolgono immagini e video.
  • In molti Paesi mancano attualmente normative e leggi adeguate relativamente a materiali prodotti. Di conseguenza, ciò consente la diffusione di audio e video falsi.
  • Nella maggior parte dei casi, le democrazie consolidate riportano meno casi di sfruttamento interno della disinformazione generata dall’intelligenza artificiale.
  • Le campagne degli Stati nazionali hanno la capacità di distribuire false narrazioni ben strutturate e di sincronizzare ampie campagne di disinformazione.
  • Le arene politiche sature di prodotti informativi generati dall’IA soffrono del “dividendo del bugiardo”, che consente ai politici di liquidare come inventati i materiali scandalistici autentici.

Lo scenario

Si prevede che il 2024 sarà un momento cruciale per i processi democratici in tutto il mondo, in quanto oltre 2 miliardi di persone in 50 nazioni si preparano a votare.

Questa ondata elettorale globale che ha già visto gli scrutini in Indonesia, Taiwan e Pakistan comprende Paesi come gli Stati Uniti, l’India, il Messico, il Parlamento europeo e il Sudafrica. L’esito di queste elezioni è destinato a influenzare in modo critico la direzione politica futura dell’intero pianeta.

I progressi di quest’anno nella sofisticazione e nell’accessibilità dell’IA generativa hanno aumentato le preoccupazioni sull’integrità dei processi elettorali.

Queste preoccupazioni si concentrano principalmente sulle campagne di disinformazione, in particolare sul timore che l’applicazione diffusa di nuove tecnologie, in grado di produrre e diffondere contenuti video e audio falsificati, possa allontanare il discorso pubblico dalle sue radici fattuali e diminuire la fiducia dei cittadini nelle istituzioni democratiche. 

Nella precedente pubblicazione dello scorso settembre, Check Point Research aveva esaminato le minacce poste dai progressi delle tecnologie di IA generativa alle elezioni democratiche.

Nell’articolo si discuteva di come l’IA potesse generare grandi volumi di contenuti personalizzati, diventando così un potente strumento di micro-targeting e di manipolazione del comportamento all’interno della sfera politica.

Questa capacità di produrre contenuti personalizzati su larga scala e a basso costo, unita al suo potenziale di produrre materiali audiovisivi altamente realistici ma falsi, ha sollevato il timore che il futuro discorso politico possa distogliere l’attenzione da questioni politiche rilevanti.

Da allora, Check Point Research ha rivelato il commercio di strumenti sofisticati nei mercati criminali di Internet, che incorporano capacità di intelligenza artificiale per creare deepfake e gestire account di social media. Una di queste piattaforme, offerta su un forum clandestino russo, impiega l’intelligenza artificiale per automatizzare la distribuzione di contenuti attraverso profili contraffatti su piattaforme di social media come Instagram e Facebook.

Questa particolare piattaforma è in grado di supervisionare centinaia di account, di facilitare i post giornalieri e di condurre campagne per influenzare gli elettori su larga scala.

Inoltre, sono emersi diversi servizi specializzati nella creazione di deepfake, RVC (Retrieval based Voice Conversion) e email di spam potenziate dall’intelligenza artificiale, che sfruttano questa tecnologia per aggirare i protocolli di sicurezza e aumentare le percentuali di successo nel colpire le persone.

“La nostra ricerca sull’uso dell’IA nelle campagne elettorali in tutto il mondo evidenzia un’evoluzione agghiacciante della guerra digitale contro i processi democratici. La sofisticazione e l’accessibilità alle tecnologie di IA hanno raggiunto un punto tale da poter essere facilmente utilizzate come armi per influenzare il processo democratico. È imperativo aumentare la consapevolezza, promuovere la collaborazione internazionale e aggiornare i quadri normativi per contrastare queste minacce“.

Sergey Shykevich – Threat Intelligence Group Manager di Check Point Software

La disponibilità di strumenti di intelligenza artificiale potenzialmente dannosi va oltre i mercati del Dark Web. Un recente rapporto di Check Point Research ha evidenziato funzionalità analoghe disponibili su piattaforme open-source.

In particolare, oltre 3.000 repository GitHub sono dedicati allo sviluppo e alla diffusione della tecnologia deepfake, con servizi offerti a prezzi che partono da 2 dollari per video.

Sfruttamento dei deepfake da parte dell’IA

Le precedenti discussioni sull’impatto degli strumenti di IA sulle elezioni si basavano per lo più su valutazioni di minacce ipotetiche. Con l’avvento di sofisticati strumenti di IA generativa, gli Stati esteri e i candidati politici nazionali sono in grado di sfruttare queste tecnologie.

Tra i più preoccupanti ci sono i servizi di “deepfake“, che possono creare contenuti audio o visivi altamente realistici, ma falsi. Questi materiali possono essere utilizzati da partiti politici e candidati nazionali, o da agenti stranieri, per aumentare le possibilità di un particolare candidato o partito alle elezioni, danneggiare i concorrenti o, in generale, minare la fiducia del pubblico nel processo democratico.

Sul fronte interno, i contendenti politici o i loro affiliati potrebbero utilizzare le capacità di deepfake insieme alle piattaforme di social media guidate dall’intelligenza artificiale per influenzare l’opinione pubblica a loro favore.

L’automazione della creazione di contenuti e la capacità di gestire vaste reti di personaggi online fittizi consentono una scala di influenza precedentemente inimmaginabile, complicando gli sforzi per mantenere la correttezza e la trasparenza delle elezioni.

Si stanno accumulando prove dell’effettivo sfruttamento di materiali generati dall’intelligenza artificiale nelle elezioni di tutto il mondo. 

Sono state esaminate 36 elezioni parlamentari, regionali e presidenziali svoltesi nei sei mesi tra il settembre 2023 e il febbraio 2024 e sono state riscontrate segnalazioni sostanziali di materiali generati dall’IA utilizzati in campagne di disinformazione in almeno 10 casi.

La revisione si è concentrata principalmente sui rapporti dei media mainstream in lingua inglese, trascurando probabilmente i Paesi più piccoli che non attirano l’attenzione dei media internazionali.

Concentrandoci sui rapporti dei media tradizionali, inoltre, non saremmo in grado di rilevare tutti i materiali generati dall’IA pubblicati sui social media, ma piuttosto solo le campagne che sono state segnalate come disinformazione e sono state riprese dai media.

Considerando la pletora di strumenti e servizi disponibili e il loro effettivo utilizzo nelle campagne in alcuni Paesi, colpisce l’assenza di prove di IA in altri casi. Eventi elettorali minori, come quelli delle Maldive e del Madagascar, possono passare inosservati in queste analisi a causa delle dimensioni, della lingua o della mancanza di interesse internazionale per i loro risultati.

Tuttavia, i media non hanno rilevato lamentele sull’uso dell’IA nelle elezioni in Francia, Canada (Manitoba), Germania (Baviera e Assia), Grecia, Nuova Zelanda, Ecuador e Finlandia. Questi Paesi si collocano relativamente in alto negli indici di democrazia (ad esempio, le classifiche V-Dem 2023 v2x_api sono rispettivamente 11, 20, 16, 38, 7, 60 e 14). 

Nei Paesi in cui l’opinione pubblica ha fiducia nei media indipendenti, la probabilità di diffondere disinformazione può essere ridotta.

Secondo un articolo dell’Harvard Misinformation Review, in questi scenari la maggior parte delle persone consuma prevalentemente contenuti provenienti da fonti tradizionali (rispetto ai social media) ed è quindi esposta solo marginalmente alla disinformazione, per quanto convincente possa apparire.

Le campagne di disinformazione sono state identificate come uno strumento fondamentale nelle società autocratiche.

Anche nelle democrazie, livelli elevati di disinformazione sono stati collegati all’inizio dell’autocratizzazione. Di conseguenza, è plausibile che l’utilizzo di strumenti di IA per la disinformazione sia più diffuso nelle nazioni autocratiche, nelle democrazie imperfette e nei Paesi che sono bersaglio di regimi autocratici.

In molti casi l’IA è stata utilizzata per generare materiali tradizionalmente prodotti dal personale della campagna elettorale o da consulenti mediatici assunti.

Questo è evidente in esempi che vanno dall’Argentina all’Indonesia. Un aspetto positivo di questi strumenti è il loro utilizzo per aggirare le restrizioni alla libertà di parola, come è stato fatto fornendo un volto e una voce al leader politico imprigionato del Pakistan Khan o un notevole tentativo di dare voce all’opposizione silenziosa della Bielorussia.

Tuttavia, è bene stare in guardia sul fatto che gli strumenti progettati per animare le idee delle campagne elettorali spesso si traducono in applicazioni fuorvianti, come email non verificate in Polonia o aver messo in bocca a leader deceduti parole per appoggiare politici attuali, una tattica che è stata utilizzata, per esempio in Indonesia e in India.

Scopri altre notizie interessanti su

blog.checkpoint.com   

Archiviato in:Intellegenza Artificiale Contrassegnato con: AI, ballottaggi, business, campagna elettorale, campagne elettorali, Check Point Research, cybercrime, cybercrimine, dark web, deepfake, disinformazione, domocrazia, election day, elezioni, GitHub, hackers, IA, IA generativa, innovazione, Intelligenza Artificiale, mainstream, media internazionali, micro-targeting, news, online, politica, regimi autocratici, Retrieval based Voice Conversion, Social Media, società autocratiche, tecnologia

Barra laterale primaria

Trova l’Innovazione

Approfondimenti

Footer

L’innovatore

E' il magazine dell'innovazione in Italia. Idee per il tuo business, tendenze e consigli per il tuo business. News, crescita personale, lifestyle e strategia per la crescita della tua impresa personale. L'utente dichiara di accettare Privacy, Termini e Condizioni d'uso L'Innovatore è un progetto di Fabio Montobbio

Trova l’Innovazione

Tag

AI arte benessere business cibo cybercrime cybersecurity design enogastronomia estate eventi fashion formazione futuro genova green green economy hacker IA impresa innovazione Intelligenza Artificiale Italia lavoro lifestyle made in italy mare marketing milano moda musica online outdoor realme salute sci sicurezza smartphone sostenibilità sport startup tecnologia travel trekking vino

L'innovatore da un idea di Fabio Montobbio - Credits : Webdesign by Fabrizio Pezzoli

Sul nostro sito Web utilizziamo i cookie. Cliccando "Accetto", acconsenti all'uso di Tutti i cookie. Tuttavia, puoi visitare "Impostazioni cookie" per fornire un consenso controllato.
Impostazioni CookieRifiutaAccetto
Gestgisci consenso

Privacy Overview

This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary
Sempre abilitato
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
CookieDurataDescrizione
cookielawinfo-checkbox-analytics11 monthsThis cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional11 monthsThe cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary11 monthsThis cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others11 monthsThis cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance11 monthsThis cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy11 monthsThe cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytics
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
Others
Other uncategorized cookies are those that are being analyzed and have not been classified into a category as yet.
ACCETTA E SALVA