Il Porno Deepfake è sempre più diffuso online

La finzione supera sempre più spesso la realtà. I social e l’intelligenza artificiale sono in rapida, rapidissima crescita dell’intelligenza artificiale, siamo sempre più consapevoli che le immagini che vediamo o addirittura i testi che leggiamo online potrebbero non essere reali. In alcuni casi queste immagini sono talmente ben fatte che è difficile differenziarle da quelle reali, ma questo è un problema: la diffusione di notizie o immagini false è impossibile da governare e limitare. In questo articolo parliamo di un fenomeno sempre più diffuso, chiamato Porno Deepfake, ovvero l’elaborazione da parte di un algoritmo di immagini o video porno “finti”, creati sulla base di immagini reali di utenti inconsapevoli, quasi sempre donne.

Donne prese di mira dal Deepfake

Sophie Maddocks, esperta in abusi sessuali basati sulle immagini,  ha spiegato in un’intervista all’Università della Pennsylvania quali sono i rischi del Porno Deepfake. Secondo uno studio del 2019, intitolato “The State of Deepfakes” della società di sicurezza informatica Deeptrace, di 14.678 video Deepfake trovati online il il 96% aveva carattere pornografico e non consensuale. Non solo: tutti i deepfake pornografici analizzati erano rivolti esclusivamente alle donne. Il Deepfake ha iniziato a prendere piede nel 2017 e dopo solo due anni, erano disponibili online già quasi 15.000 video generati dall’IA, il 96% dei quali era pornografico. Per creare contenuti porno, la tecnologia utilizza gli algoritmi di apprendimento profondo (in inglese deep learning) addestrati a rimuovere i vestiti dalle immagini delle donne, e rimpiazzarli con parti di corpi nudi.

Le immagini non hanno mai il permesso

Il principale problema del Porno Deepfake è che i contenuti vengono creati e condivisi quasi sempre senza il permesso dei protagonisti: chiunque può farlo, basta utilizzare uno dei molti siti disponibili online. Quando non c’è consenso, il Porno Deepfake diventa un esempio di quello che chiamiamo revenge porn (condivisione pubblica di immagini o video intimi tramite il web, senza il consenso dei protagonisti degli stessi) ma che, spiega Spoghie Maddocks, è più corretto definire come “abuso sessuale basato sull’immagine”.

Non ci sono leggi a tutela dei soggetti interessati

In Italia (uno dei Paesi, tra l’altro dove il fenomeno sembra più diffuso) nel 2019 è stato inserito l’articolo 612 ter contro la diffusione illecita di immagini o video sessualmente espliciti. Il dubbio, però, è che una lettura rigorosa di questo articolo ne consenta l’applicazione in caso di foto o video sessualmente espliciti che effettivamente ritraggono la vittima e non per contenuti multimediali non reali. Per rendere più agevole difendersi, quindi, servirebbe forse una norma più chiara che comprenda il fenomeno della violenza tramite immagini nel suo complesso. Nel Regno Unito è stata approvata una legge che ne regola la condivisione, ma non la creazione, mentre negli USA solo quattro Stati (New York, Virginia, Georgia e California) hanno delle leggi a riguardo.