AI, social media e deepfake
Dagli USA all'Europa, qualche riflessione su criticità, soluzioni e possibilità dell'uso dell'intelligenza artificiale sui social media

Negli ultimi quattro mesi, vale a dire dalla vittoria di Donald Trump alle elezioni statunitensi, stanno circolando su TikTok dei video motivazionali in cui il presidente o Elon Musk si cimentano in affermazioni alquanto opinabili. Ad esempio:
Nessun amico, nessun problema. Nessuna ragazza, nessun ragazzo, nessun problema. Niente soldi, un gran problema.
Alexios Mantzarlis ne ha parlato ampiamente in questo articolo: si tratta di video creati con intelligenza artificiale che stanno riscuotendo un enorme successo sulla piattaforma social, tanto che 461 di essi hanno accumulato in tutto più di 700 milioni di visualizzazioni e ci sono più di 60 account che sembrano essere dedicati esclusivamente a questo.
Tali account vedono crescere costantemente il numero dei propri follower e, se per una parte di loro il fine sembra essere quello di vendere i più disparati prodotti – come integratori alimentari o libri di Elon Musk scritti con l’AI – o truffare qualche malcapitato, altri hanno scopi politici, e riprendono tra le altre cose alcune promesse fatte da Trump in campagna elettorale o affermazioni del proprietario di X.
Il format non è nuovo, anzi ne riprende sostanzialmente uno già in voga in cui personaggi famosi nel panorama statunitense dispensano consigli di vita, ma del tutto nuovi risultano i numeri che riescono a raggiungere. Ovviamente, è lecito chiedersi quale possa essere il loro impatto sulla percezione come personalità politiche dei protagonisti di questi deepfake.
Era il marzo del 2022 quando veniva pubblicato un deepfake di Zelensky in cui intimava i cittadini alla resa e, anche se la risposta del vero presidente non si fece attendere, questa esperienza ha ricordato a tutti come l’utilizzo dell’AI potrebbe risultare decisiva in momenti critici in cui è richiesta una risposta rapida – e preferibilmente unitaria – a una qualsiasi minaccia.
L’intelligenza artificiale, come tutte le tecnologie – specie quelle di recente introduzione – presenta tanto grandi potenzialità quanto pericolose criticità, ed è per questo che si rende sempre più urgente l’acquisizione di competenze base in grado di permetterci di utilizzare al meglio questo strumento e di riconoscere i contenuti che produce.
A inizio mese ha fatto scalpore la notizia di una truffa ai danni di alcuni imprenditori italiani che si basava sulla riproduzione della voce del ministro Crosetto realizzata con l’AI: chissà se qualcuno di loro aveva letto la nostra guida per riconoscere i deepfake audio. Inoltre, svariate testate italiane hanno pubblicato un’immagine di Trump, Musk e Netanyahu creata con AI spacciandola per vera. In Inghilterra, invece, le due Camere hanno votato a grande maggioranza l’inasprimento delle pene previste per la diffusione di deepfake porn, un fenomeno che rischia di coinvolgere sempre più persone – in particolare donne e ragazze – e per il contrasto del quale il ruolo delle piattaforme social è di primaria importanza. Ha fatto tanto parlare l’addio al fact-checking annunciato da Zuckerberg sul quale ci siamo pronunciati in questo articolo, eppure ben poco si è detto riguardo ai grandi problemi della piattaforma nel contenimento del deepfake porn: proprio a Meta è stata indirizzata una lettera firmata da Dick Durbin, senatore statunitense, nella quale denuncia le falle del sistema e chiede chiarimenti e interventi in merito.
Intanto, il presidente francese Macron ha organizzato a Parigi l’“Artificial Intelligence Action Summit”, un confronto internazionale su quella che è una tematica sempre più importante da affrontare, anche cercando di dare un indirizzo di sviluppo e di legiferazione a livello europeo.
Qui su BUTAC già nel novembre 2020 avevamo intervistato il professor Riccardo Zecchina, esperto di intelligenza artificiale, chiedendogli quale impatto sul mondo dell’informazione potessimo aspettarci, mentre nel 2023 pubblicavamo un editoriale nel quale, riprendendo un esperimento, mettevamo in evidenza come l’AI potrebbe essere “programmata” per diffondere false notizie o disinformazione su argomenti specifici. Più di recente, invece, abbiamo notato che la pagina facebook PAZZA sfrutta contenuti generati dall’AI per attirare lettori su specifici siti, che durante le proteste degli agricoltori si sono diffuse immagini AI di una Parigi in preda al caos e come, in corrispondenza delle elezioni europee, dei bot alimentati dall’AI abbiano contribuito a inquinare il dibattito pubblico.
Come scrivevamo, «l’intelligenza artificiale può essere uno strumento potente e utile, ma come ogni strumento, può essere usata sia per il bene che per il male». La responsabilità perché accada l’una o l’altra grava anche sulla capacità di pensiero critico di noi singoli utenti.
RC
Se ti è piaciuto l’articolo, sostienici su Patreon o su PayPal! Può bastare anche il costo di un caffè!
Un altro modo per sostenerci è acquistare uno dei libri consigliati sulla nostra pagina Amazon, la trovi qui.
BUTAC vi aspetta anche su Telegram con il canale con tutti gli aggiornamenti e il gruppo di discussione, segnalazione e quattro chiacchiere con la nostra community.