A.I.
Nudificazione tramite IA: la nuova frontiera dell’abuso digitale che le piattaforme restano a guardare
“Falle sparire i vestiti” o “guardala nuda ora” sono alcuni degli slogan che popolano social come Facebook, dove circolano migliaia di pubblicità per app di “nudificazione” basate sull’intelligenza artificiale. In un click, questi strumenti generano immagini ultrarealistiche di nudo, senza il consenso della vittima, ma con la promessa di garantire la privacy di chi ne fa uso. Nonostante le numerose denunce di ricercatori, giornalisti e persone colpite, i divieti proclamati dalle piattaforme e la palese violazione delle normative vigenti, la pratica continua indisturbata.
La “nudification” tramite IA è violenza di genere
L’espressione indica l’uso di app o servizi di intelligenza artificiale, spesso mascherati da innocui software di fotoritocco, che trasformano le foto di una persona vestita in un deepfake sessualmente esplicito. Ça va sans dire, funzionano praticamente solo con foto di donne: già anni fa Vice documentava come DeepNude sostituisse gli slip di un uomo con genitali femminili, a conferma del carattere misogino di questa tecnologia.
In Italia, il tema è emerso con le immagini manipolate di figure di alto livello come la premier Giorgia Meloni apparse sul sito Phica e lo scandalo del gruppo Facebook “Mia Moglie”, dove circolavano anche fotomontaggi degradanti. Sono pratiche che si inseriscono a pieno titolo nella violenza di genere e, quando coinvolgono immagini di minorenni, sconfinano nella pedopornografia.
Un business milionario e dilagante sulle piattaforme
Recentemente, Meta ha annunciando nuove misure e tecnologie per rilevare e bloccare gli annunci relativi alla creazione di contenuti intimi non consensuali. Eppure, l’attuazione in concreto non funziona. Secondo un’analisi dell’American Sunlight Project, dall’11 giugno al 10 settembre 2025 sono stati individuati almeno 4.215 annunci per 15 diversi servizi di nudificazione solo in Europa. Alcuni hanno raggiunto oltre 350.000 utenti, compresi minori, prima di essere rimossi – e solo dopo la segnalazione diretta del problema a Meta da parte dei ricercatori.
Ma non finisce qui. Un’indagine di Indicator ha stimato che la “nudifier economy” (il giro d’affari generato da queste applicazioni) possa valere fino a 36 milioni di dollari l’anno, a dimostrazione di un mercato fiorente e difficile da arginare. Sul fronte legale, Meta ha intrapreso una causa contro la società dietro CrushAi, accusandola di avere adottato tattiche mirate ad eludere i controlli sugli annunci. Un’iniziativa che suona anche come un modo per prendere le distanze dal problema, più che come un’assunzione piena di responsabilità.
Il problema, tuttavia, non è esclusivo di Meta. YouTube pullula di pubblicità pornografiche, mentre Telegram si conferma una miniera per la creazione e lo scambio di questi deepfake pornografici tramite bot, sfruttando la difficoltà di monitorare efficacemente una piattaforma così decentralizzata.
Inserzioni poco trasparenti e violazioni del Digital Services Act
Oltre a contravvenire alle proprie policy, Meta si trova in aperta violazione del Digital Services Act (DSA), la normativa europea che obbliga le piattaforme online di grandi dimensioni a combattere i contenuti illegali, anche garantendo la trasparenza delle inserzioni. In particolare, l’Articolo 39 impone di indicare in modo chiaro “la persona fisica o giuridica a nome della quale l’annuncio è presentato” e “chi ne ha sostenuto i costi”.
Per rispondere formalmente alla disposizione, Meta ha introdotto i campi “beneficiario” e “pagante” nelle inserzioni, ma li ha resi compilabili con testo libero e senza introdurre un reale obbligo di verifica. Così, dietro innumerevoli pubblicità compaiono nomi inesistenti o stringhe di lettere e numeri casuali, che rendono impossibile risalire al vero inserzionista.
In prospettiva, l’AI Act potrebbe rafforzare gli obblighi di controllo più stringenti, trattando la nudificazione come un sistema ad alto rischio. Anche se non formalmente considerata, questa forma di deepfake colpisce diritti fondamentali come dignità e privacy, sicurezza personale e non discriminazione.
Moderazione vera, stop ai recidivi e fine dei profitti tra le soluzioni
La vicenda dimostra che le misure attuali di Meta non bastano a fermare la diffusione di contenuti abusivi. In primis, la moderazione resta incoerente: molte segnalazioni vengono ignorate o gestite in modo contraddittorio, segno che non è sufficiente affidarsi a sistemi automatici senza un serio supporto umano.
L’uso del testo libero per indicare i responsabili delle campagne pubblicitarie svuota di senso le regole introdotte dal DSA. Servono verifiche più rigorose degli inserzionisti tramite identificatori strutturali, soprattutto per le categorie a più alto rischio, e un archivio pubblico completo e accessibile via API che permetta a ricercatori e autorità di monitorare davvero il fenomeno.
Mancano poi deterrenti efficaci contro i recidivi a cui sono rimossi annunci ma che continuano a violare le regole aprendo account duplicati o leggermente modificati. Per fermarli serve intervenire sui metodi di pagamento, spezzando così il flusso di profitti di un’industria dell’abuso che prospera anche grazie alla complicità delle piattaforme. Nel frattempo, migliaia di donne restano esposte a una forma ulteriore e pervasiva di violenza digitale.
Devi fare login per commentare
Accedi