Deepfake: l’arma dell'attivismo del futuro

Deepfake: l’arma dell'attivismo del futuro

Alterare l’immagine e la voce di un soggetto, falsificandole, ma anche creare nuove identità, irriconoscibili, per proteggere gli oppositori politici dalle persecuzioni del governo. Entrambi gli scenari sono resi possibili dai deepfake, una tecnologia alimentata dall'intelligenza artificiale e capace di alterare immagini e video in modo verosimile.

Deepfake: una definizione

Ma cosa si intende esattamente per deepfake? Per il Garante per la protezione dei dati personali: «I deepfake sono foto, video e audio creati grazie a software di intelligenza artificiale che, partendo da contenuti reali, riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce» (fonte: https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/951)

2278). In sostanza, i deepfake «rubano» immagini o video dal web e li rielaborano in contesti diversi da quelli originali (fonte: https://www.treccani.it/vocabolario/deepfake_(Neologismi)/). La scienza alla base è quella delle reti generative avversarie (GAN), un modello di deep learning: il software apprende dai dati di addestramento e impara a riprodurne di simili.

Il lato oscuro dei deepfake

La tecnologia in sé è relativamente nuova, basti pensare che la parola «deepfake» è stata coniata solo nel 2017, ma da allora è stata ampiamente sfruttata per fini ingannevoli. Un esempio sono le centinaia di false immagini pornografiche creata a partire da foto di diverse celebrità (in particolare donne) (fonte: https://naturaestrema.it/notizia/deepfake-porno-250-celebrita-del-regno-unito-vittimizzate-la-presentatrice-di-channel-4-cathy-newman-condivide-il-suo-calvario/17669/). La portata del fenomeno, in crescente diffusione, ha portato il governo britannico a intervenire, ipotizzando una nuova fattispecie di reato punibile fino a 2 anni di carcere (fonte: https://www.agi.it/estero/news/2025-01-07/deepfake-porno-reato-inghilterra-carcere-29445336/). In altri casi, i deepfake sono stati sfruttati per fini politici: durante le ultime elezioni presidenziali americane sono stati diffusi vocali in cui la finta voce di Joe Biden invitava gli elettori a non votare, insieme a immagini di Donald Trump sostenuto dalla comunità afro-americana
(approfondimento: https://stampagiovanile.it/2024/04/11/intelligenza-artificiale-e-democrazia-rischi-e-potenzialita/).

Quando i deepfake diventano uno strumento di difesa

Nonostante queste criticità, i deepfake possono essere molto utili in ambiti che spaziano dalla sanità al cinema. In materia di film, un esempio positivo è il documentario «Welcome to Chechnya» («Benvenuti in Cecenia») di David France. Nell'opera il regista denuncia le persecuzioni politiche a danno di individui LGBT, che vengono sistematicamente arrestati, torturati e talvolta uccisi per mano del governo. In un simile contesto, è particolarmente complicato dar voce ai protagonisti senza esporli al rischio di essere identificati e perseguiti. Per ovviare al problema, France ha attuato quello che lui stesso definisce una sorta di «trapianto digitale»: grazie alla collaborazione di alcuni attivisti LGBTQ di New York, l’intelligenza artificiale ha imparato a riconoscere reazioni, espressioni e movimenti del volto, che ha poi applicato ai visi dei protagonisti Ceceni, mascherandone però la reale identità. In questo modo, è stata mantenuta l’umanità delle storie raccontate, proteggendo però i soggetti da rischi politici
(fonte: https://www.agendadigitale.eu/cultura-digitale/deepfake-non-solo-una-minaccia-alla-verita-ma-attenti-alla-infocalisse/).

Un'arma a doppio taglio

I deepfake sono una potente arma a doppio taglio. Da un lato propongono nuovi modi di fare cinema e di proteggere le vittime di persecuzione. Dall'altro, però, costituiscono una seria minaccia per la privacy e per la democrazia. È, quindi, necessario sviluppare nuovi sistemi per identificarli e regolamentarne l'uso, per bloccare la diffusione di informazioni false ed evitare che l'opinione pubblica venga manipolata.