L’intelligenza artificiale può essere utilizzata per creare opere d’arte, provare abiti in camerini virtuali o progettare campagne pubblicitarie, persino per scrivere articoli. Ma può avere anche usi ben diversi. Gli esperti, a tal proposito, temono che questo strumento – sempre più accessibile – possa danneggiare soprattutto le donne, ma non solo, con la pornografia deepfake non consensuale.
Oggi è sempre più difficile riconoscere un deepfake: i rischi
Il porno creato utilizzando il deepfake non è una novità: ha iniziato infatti a diffondersi sul web anni fa, quando un utente di Reddit condivise una clip con volti di celebrità femminili al posto di quelle delle pornostar. Da allora, i creatori di deepfake hanno diffuso video e immagini del genere prendendo di mira influencer, attrici, giornaliste, volti noti appartenenti a ogni categoria. Il campionario è praticamente infinito e, purtroppo, facilmente reperibile in Rete. Oggi è possibile realizzare deepfake sofisticati, per intenderci sempre più credibili. E visto che lo strumento è praticamente alla portata di tutti, chiunque può creare immagini e video a piacimento, per trasformare magari in (quasi) realtà le proprie fantasie sessuali o, peggio, danneggiare le proprie ex partner. Leggasi revenge porn.

L’allarme degli esperti e il caso dell’australiana Noelle Martin
«Questa tecnologia continuerà a proliferare, a svilupparsi e a diventare facile come premere un pulsante», ha detto all’Associated Press Adam Dodge, fondatore di EndTAB, associazione che offre corsi di formazione contro gli abusi della tecnologia online. «E finché ciò accadrà, le persone certamente continueranno a fare un uso improprio di questa tecnologia per danneggiare gli altri, principalmente attraverso la violenza sessuale online, la pornografia deepfake e le false immagini di nudo». Basti pensare, scrive AP, alla storia di Noelle Martin, 28enne di Perth, in Australia: dieci anni fa, digitando per curiosità il suo nome su Google, aveva visto saltar fuori immagini e video porno di cui era protagonista, senza però essersi mai prestata a niente del genere. Al creatore di questi deepfak, tuttora ignoto, era bastato, semplicemente, scaricare una foto della ragazza dai social. Inorridita, Martin nel corso degli anni ha contattato diverse piattaforme hard, nel tentativo di far rimuovere le immagini. Alcune non hanno risposto. Altre sì, ma una volta rimossi i contenuti sono tornati rapidamente online: «Non puoi vincere. Saranno sempre là fuori». Secondo la donna, avvocata e ricercatrice legale presso la University of Western Australia, il problema si può risolvere solo a livello globale.

Le società di AI stanno correndo ai ripari, ecco come
Consce del problema, alcune società di intelligenza artificiale hanno reso noto di aver già limitato l’accesso a immagini esplicite. È il caso di OpenAI, la più chiacchierata del momento a causa del controverso software ChatGPT, che ha imposto questo limite su Dall-E, software di intelligenza artificiale capace di generare immagini a partire da descrizioni testuali attraverso la sintografia. Dall-E impedisce inoltre agli utenti di creare immagini AI di celebrità e politici. Midjourney, programma concorrente, blocca l’uso di determinate parole chiave e incoraggia gli utenti a segnalare le immagini problematiche ai moderatori. A novembre, a seguito di alcune segnalazioni, la startup Stability AI ha lanciato un aggiornamento che ha rimosso la possibilità di creare immagini esplicite utilizzando il suo software Stable Diffusion.
LEGGI ANCHE: Intelligenza artificiale contro gli uomini? Gli scenari di un futuro distopico
Stretta sui deepfake, le restrizioni imposte da TikTok e Twitch
Nel frattempo, varie piattaforme hanno inasprito le regole, al fine di proteggere e proteggersi da immagini e filmati potenzialmente dannosi. TikTok – dove spopola un finto Tom Cruise – ha affermato a marzo che tutti i deepfake o i contenuti manipolati che mostrano scene realistiche devono essere etichettati come tali, vietando deepfake di personaggi non pubblici e minorenni. In precedenza, la società aveva vietato i contenuti sessualmente espliciti e i deepfake in grado di fuorviare gli utenti su eventi del mondo reale. Un esempio di foto – non video – fake di questo tipo? Quelle che ritraggono Donald Trump mentre scappa braccato dalla polizia o dietro le sbarre di una cella, in tuta arancione da detenuto o sul banco degli imputati mentre piange. Sempre il mese scorso è circolata un’immagine, anch’essa falsa, di Vladimir Putin inginocchiato ai piedi di Xi Jinping, nell’atto di baciargli le mani. Stretta anche da parte di Twitch, che ha già proibito i deepfake espliciti: promuovere, creare o condividere intenzionalmente materiale di questo genere comporta il ban dell’utente. Apple e Google hanno poi reso noto di aver rimosso una app dai loro store: il prodotto veniva pubblicizzato su Facebook e Instagram attraverso video deepfake di attrici, sessualmente allusivi.
Take It Down, lanciata da Meta insieme a Pornhub e OnlyFans
La ricerca sul porno deepfake non è molto ampia al momento. Un rapporto pubblicato nel 2019 dalla società di intelligenza artificiale DeepTrace Labs aveva rilevato che era quasi interamente utilizzata come arma contro le donne. Principalmente prese di mira le attrici occidentali, seguite da cantanti K-pop sudcoreane. A proposito dei già citati Facebook e Instagram, Meta insieme a siti per adulti come OnlyFans e Pornhub (e altre realtà) ha lanciato a fine febbraio Take It Down, piattaforma che consente di segnalare immagini e video espliciti di se stessi da Internet, allo scopo di combattere pedopornografia, revenge porn e sextortion. E tra queste immagini e video, ovviamente, rientrano i deepfake. Finti, ma capaci di fare male sul serio.
LEGGI ANCHE: FakeYou, cos’è l’app per parlare con la voce di Meloni o Berlusconi