Il deepfaking si pone come un grande rischio di disinformazione nel corso della campagne per le elezioni presidenziali USA del 2024. Si immagini la reazione di un utente che dinanzi a Hillary Clinton che rivela in un video di sponsorizzazione online: “In realtà mi piace molto Ron DeSantis, ,è proprio il tipo di persona di cui questo paese ha bisogno, e lo dico davvero.”. Oppure il video di Joe Biden, scatenato in uno sproloquio contro una persona transgender, in cui gli urla contro “Non sarai mai una vera donna”.
I deepfake di Clinton e Biden – video realistici ma finti, creati da algoritmi di intelligenza artificiale addestrati su copiosi filmati online – sono tra le migliaia che emergono sui social media, confondendo realtà e finzione, con una verosimiglianza elevata, grazie ai nuovi strumenti di “IA generativa che rendono economico e facile creare deepfake convincenti.
Si teme che sarà molto difficile per gli elettori distinguere il vero dal falso, mentre è logico immaginare come i sostenitori di Trump o i sostenitori di Biden potrebbero usare questa tecnologia per far sembrare “cattivo” l’avversario.
Sebbene le principali piattaforme di social media come Facebook, Twitter e YouTube abbiano compiuto sforzi per vietare e rimuovere i deepfake, la loro efficacia nel controllare tali contenuti è molto variabile.
Intanto, i deppfake si moltiplicano: quest’anno ci sono stati tre volte più deepfake video di tutti i tipi e otto volte più deepfake vocali pubblicati online rispetto allo stesso periodo di tempo nel 2022, secondo DeepMedia, una società che lavora su strumenti per rilevare i media sintetici.
In totale, circa 500.000 deepfake video e vocali saranno condivisi sui siti di social media a livello globale nel 2023, stima DeepMedia. La clonazione di una voce costava $ 10.000 in server e costi di formazione sull’intelligenza artificiale fino alla fine dell’anno scorso, ma ora le startup lo offrono per pochi dollari,.
Nessuno sa con certezza dove porti la strada dell’IA generativa o come proteggersi efficacemente dal suo potere di disinformazione di massa. Per questi motivi CEO di Open AI ha dichiarato al Congresso che l’integrità elettorale è una “significativa area di preoccupazione” e ha sollecitato una rapida regolamentazione del settore. Attualmente, OpenAI limita anche qualsiasi utilizzo “ridimensionato” dei suoi prodotti per scopi politici.
Ad esempio, OpenAI vieta l’uso della sua intelligenza artificiale per inviare e-mail personalizzate di massa agli elettori, e proibisce al suo generatore di immagini DALL-E di creare personaggi pubblici quali Trump e Biden. Ma potrebbe non essere sufficiente. Infatti, anche se l’industria lotta per prevenire l’uso improprio, alcuni attori politici stanno cercando di sfruttare il potere dell’IA generativa per truccare le campagne.