I deepfakes sono immagini e video creati utilizzando l’intelligenza artificiale, che, partendo da contenuti reali, riesce a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e ad imitare fedelmente una determinata voce.
Queste tecnologie nelle mani sbagliate possono essere un vero pericolo per la sicurezza nazionale. Ma il pericolo più forte e quotidiano non riguarda la politica, ma il porno.
Alcune persone utilizzano i visi delle donne per creare dei video porno senza chiedere il loro consenso.
Un report di Sensity (ex DeepTrace) ha evidenziato che il numero di deepfake video su Internet è raddoppiato tra il 2018 e il 2019.
In un altro studio del settembre del 2019 i ricercatori di Sensity hanno scoperto che il 96% dei deepfake online è di tipo pornografico e circa il 100% di questi video è prodotto senza il consenso delle donne. Infatti dal giugno 2019 si è avuto un forte incremento della produzione di deepnudes dovuta al lancio di un’app chiamata “Deep Nude” che permette di manipolare e “spogliare” artificialmente le immagini di qualsiasi donna, trasformandole in foto di nudo adattate alla corporatura del soggetto, con un risultato finale davvero realistico.
In un altro report dell’ottobre 2020 sono stati rilevati numeri ancora più preoccupanti: nel luglio dello stesso anno sull’app Telegram sono stati condivisi deepnudes di 104.852 donne.
Pornhub e altri grandi siti porno hanno bannato i deepfakes all’interno delle loro piattaforme. Infatti la maggior parte di questi video sono su siti dedicati a questo tipo di abuso.
In alcuni siti dedicati a questi abusi gli utenti comprano deepfakes di celebrità o anche di persone che conoscono personalmente, oltre a scambiarsi informazioni riguardo a come creare questi video. Su questi siti gli utenti si confrontano riguardo la legalità di quello che fanno: alcuni di loro pensano di poter proteggere loro stessi identificando i video come falsi, ma questo non è vero.
Sebbene i deep-porn siano ottenuti in modo artificiale, è indubbio che la loro diffusione sia in grado di ledere la reputazione, la dignità e la libertà personale delle vittime e possa quindi assumere rilevanza penale.
Per la pubblicazione e la diffusione di immagini e video reali a contenuto sessualmente esplicito il nostro codice penale appresta già una specifica tutela, ma per quanto riguarda le immagini e i video creati artificialmente, data la recentissima diffusione del fenomeno, non esiste una fattispecie ad hoc a tutela delle vittime nel nostro ordinamento. È bene quindi iniziare ad interrogarsi sulla possibile applicazione del Revenge Porn introdotto dalla L. n. 169/2019.
Il reato di diffusione illecita di immagini o video sessualmente espliciti (art. 612 ter c.p.) è volto a tutelare la riservatezza di contenuti multimediali che potrebbero ledere la reputazione e la dignità della persona offesa, in quanto sessualmente espliciti. Questa norma prevede un’aggravante nel caso in cui i fatti siano commessi attraverso strumenti informatici o telematici, dunque ciò sembrerebbe renderla idonea a prevenire i rischi maggiori del porno deepfake.
Il dubbio è però che una sua lettura rigorosa ne consenta l’applicazione solo nell’ipotesi in cui foto o video fake a contenuto sessualmente esplicito siano stati originariamente realizzati con il consenso della vittima e poi condivisi e diffusi in maniera non consensuale, senza contare che il dettato normativo non fa alcun riferimento a contenuti multimediali non reali.
I dubbi circa l’applicabilità del Revenge Porn non impediscono alle vittime di prendere in considerazione altre possibili forme di tutela penale. Infatti è possibile tutelarsi sporgendo querela per diffamazione, in quanto tali contenuti, seppur fake, sono in grado di offendere gravemente la reputazione del soggetto ritratto e di determinare la diffusione dei contenuti tramite il web, i social o le chat private.
Non si può poi non considerare che molto spesso i contenuti di porno deepfake vengono creati al fine di minacciare o estorcere qualcosa alla vittima, in questi casi può configurarsi un tentativo di estorsione.
Tra le ulteriori fattispecie potenzialmente idonee ad apprestare una tutela alle vittime del porno deepfake vi è poi lo stalking (“atti persecutori”), che peraltro prevede un’aggravante se il fatto è commesso attraverso strumenti informatici o telematici.
È evidente che tale fenomeno sia parte di una lunga storia di umiliazione sessuale subita dalle donne ed è quindi fondamentale un’evoluzione, non solo a livello legislativo, ma anche a livello culturale, per contrastare la diffusione di questo fenomeno che colpisce negativamente la dignità, la reputazione e la vita delle vittime.
Francesca Rizzi