A.I.
Grok e la democratizzazione dell’abuso: la nuova frontiera dell’umiliazione
Il caso Grok svela la “democratizzazione dell’abuso”: l’IA generativa sta facilitando deepfake e pregiudizi misogini senza filtri. Se l’algoritmo crea falsi realistici, l’identità digitale viene mortificata. Serve design etico e leggi severe.
Durante le festività natalizie Grok è finito al centro di una bufera globale. La sua capacità di modificare foto reali — utilizzata da molti per creare deepfake non consensuali (spesso rimuovendo vestiti o creando situazioni compromettenti di celebrità e minori) — ha scatenato l’indignazione di Governi e autorità internazionali (ad esempio Malesia e Indonesia hanno bloccato, al momento in cui scrivo, l’accesso al servizio).
Ulteriori polemiche sono derivate anche poiché alcuni utenti di X hanno iniziato a usare Grok come un piccolo tribunale estetico, chiedendogli di scegliere la ragazza più carina, o deridere quella meno bella e in ogni caso andando ben oltre la semplice goliardia.
Grok è stato annunciato da Musk nel 2023 come “un assistente IA più potente rispetto a ChatGPT”. È integrato direttamente nella piattaforma X, consentendo agli utenti di interagire con l’IA tramite tweet, messaggi diretti e commenti.
Siamo, in realtà, dinanzi a un “nuovo fronte” dell’umiliazione guidata dall’IA: la democratizzazione dell’abuso. Prima dell’avvento dell’IA generativa, l’utilizzo dei nudifiers e la creazione di falsi pornografici richiedeva competenze tecniche avanzate. Oggi, grazie a software accessibili a chiunque, la creazione di immagini sessualmente esplicite non consensuali è diventata una questione di pochi secondi e zero costi, trasformando l’abuso in un fenomeno di massa.
Il punto centrale della questione è la falsa percezione di oggettività: il giudizio proviene da una macchina e viene presentato con un linguaggio fluido e razionale, l’utente tende ad attribuirgli una neutralità che non ha.
Ma l’IA non è una forza neutra, bensì è il prodotto di un codice e di dati creati da esseri umani, quindi riflette i pregiudizi e le intenzioni dei suoi costruttori. Le tecnologie emergenti, come i deepfake o i chatbot progettati per soddisfare fantasie sessiste fungono da nuova tela per forme tradizionali di misoginia.
Quindi, il problema è principalmente nei dati inseriti: l’IA viene addestrata su dataset (come quelli prelevati da internet) che sono già intrisi di pregiudizi, oggettivazione e pornografia. Di conseguenza, i modelli riflettono e amplificano la visione del corpo femminile come un oggetto a disposizione del desiderio maschile.
Lo conferma l’Ong AI Forensics ha invece pubblicato un’analisi (ripresa anche da Wired) dalla quale emerge che il chatbot veniva utilizzato massivamente per “spogliare” e sessualizzare le donne, comprese le minorenni, su richiesta degli utenti di X (oltre 20 mila immagini generate e 50 mila richieste).
Pare evidente che da tutto ciò derivi un senso di perdita di controllo sulla propria identità che porta a una forma acuta di alienazione sociale: se il mondo vede e crede a un’immagine falsa di te, chi sei veramente per la società?
Per ora xAI corre ai ripari introducendo impostazioni, anche per chi paga l’abbonamento, per impedire che Grok modifichi le immagini di persone reali caricate sulla piattaforma per mostrarle «in bikini o abbigliamento succinto». La finalità dichiarata sarebbe quindi non creare, tramite Grok i deepfake non consensuali.
Serve un cambiamento radicale nel modo in cui l’IA viene progettata: la sicurezza e il consenso delle persone devono essere integrati nell’architettura stessa dei modelli e le leggi devono evolvere rapidamente per responsabilizzare (e all’occorrenza punire) non solo chi crea i contenuti, ma anche chi fornisce gli strumenti per farlo.
L’IA nel suo stato attuale, agisce come un acceleratore per forme di oppressione già presenti, minacciando la libertà e la dignità principalmente delle donne nel mondo digitale e reale: e sì, serve ancora una IA umile, versatile e consapevole.
La domanda è lecita: IA, progresso o passo falso?

Devi fare login per commentare
Accedi