Intelligenza artificiale: aumentano gli utilizzi illeciti

:
13 Giugno 2023

Che il rischio ci fosse, lo sapevamo.

Il diffondersi dell’intelligenza artificiale sta portando progressi e avanzamenti in numerosi settori legati alla tecnologia digitale ma, accanto ai suoi numerosi usi, si stanno moltiplicando anche gli abusi dello strumento. Un pool di ricercatori del Regno Unito e l’FBI hanno dato l’allarme, raccomandando la perpetua protezione dei dati personali quando navighiamo: si corre infatti il rischio di incappare in vere e proprie trappole orchestrate sfruttando l’AI, come la sextortion e la nascita di ghostbot.

Intelligenza deviata

Come messo in luce dall’agenzia di stampa ANSA, chi ha competenze digitali e intento truffaldino può manipolare a piacimento le capacità dei chatbot e degli altri software che sfruttano la forza dell’intelligenza artificiale. Ad esempio, è possibile prendere le sembianze di un defunto, appropriandosi delle impronte digitali lasciate in rete prima della scomparsa, così come generale immagini osé – se non proprio pornografiche – abbinando un primo piano di un qualunque volto al corpo di performer per adulti, chiedendo un riscatto per evitare che gli scatti estorti vengano resi pubblici o pretendendo favori, oppure agevolazioni, in maniera ricattatoria.

All’inizio di giugno, è stata l’FBI a lanciare un monito a seguito dell’impennata di denunce per il reato di sextortion, ovvero un estorsione a sfondo sessuale. Si tratta di una pratica già nota ma che sta diventando preponderante in seguito alla diffusione delle ultime tecnologie, le quali sono in grado di aumentare esponenzialmente qualità e verosomiglianza dei fotomontaggi. Ai malcapitati di turno infatti, talvolta minori, vengono spedite immagini di nudo sui quali è stato posto il loro viso. Nelle mail accompagnatorie mail si certifica la volontà di diffonderle in rete, a meno che non si accetti di pagare un riscatto o sottostare a un ricatto. Se anni fa la resa grafica di questi fotomontaggi era di basso livello, tanto che spesso era possibile per chiunque la visualizzasse rendersi prontamente conto che era stato effettuato il cosiddetto face swap – la pratica per la quale a un corpo nudo, magari ritratto durante pratiche erotiche o sessuali, viene applicato un viso che non c’entra nulla – oggi ciò è molto più complicato, dal momento che le immagini appaiono davvero realistiche.

“Il progresso tecnologico sta continuamente migliorando la qualità, la personalizzazione e l’accessibilità della creazione di contenuti abilitati all’intelligenza artificiale.”

Ha precisato l’agenzia investigativa federale, evidenziando uno dei rischi dello sviluppo pervasivo delle AI, la cui potenza, secondo molti addetti ai lavori, va regolamentata in maniera decisa.

Attenzione e cautela

Come ci si può difendere da queste pratiche? I consigli arrivano direttamente dall’FBI, che fa suo il manuale del buon navigatore messo assieme da un pool di ricercatori di un’università nordirlandese:

  • condividere pochi contenuti online;
  • renderli visibili soltanto a un numero ristretto di persone fidate;
  • non pubblicare mai foto e video di bambini;
  • Se è impossibile rispettare il punto precedente, oscurare sempre il volto del minore.

All’estorsore basta soltanto individuare una serie di foto del profilo che sceglie di prendere di mira, scaricarle tutte e darle in pasto a un accurato algoritmo incaricato di renderle sessualmente esplicite. Per chi è pratico, si tratta veramente di un gioco da ragazzi.

La pratica del ghostboting prende invece di mira i dati di persone scomparse e lo fa approfittando di un inquietante vuoto normativo. Di fatto, in nessun Paese al mondo esistono leggi restrittive per tutelare le impronte digitali – così vengono definite, sebbene non abbiano nulla a che vedere con i polpastrelli – dei defunti. A chi passano i profili social e tutte le informazioni condivise sul web dopo la morte? Di consueto restano a disposizione del primo che riesca ad hackerare l’account. Non a caso, la Queen’s University di Belfast, al termine di approfondita ricerca, ha suggerito la creazione di una clausola do not bot me da inserire sui testamenti per evitare rincarnazioni digitali indesiderate.

“Nel Regno Unito, le leggi sulla privacy e sulla protezione dei dati non si estendono agli eredi dopo la morte. Per quanto sia veramente difficile che un ghostbot possa causare danni fisici, esso può generare stress emotivo e danni economici, con particolare impatto sui cari e sugli eredi del defunto.”

Ha affermato ai microfoni di Reuters, nell’articolo rilanciato da ANSA dal quale provengono tutti i virgolettati, Marisa McVey, docente presso la School of Law della Queen’s University. Tanto in Italia quanto in Unione Europea, ci troviamo tutti nella stessa situazione. A questo aspetto non si pensa mai, dal momento che dopo la scomparsa di un caro non ci si preoccupa della sua identità digitale. Oppure non lo si può proprio fare perché non si dispone delle credenziali necessarie. Eppure, anche alla luce dei progressi tecnologici, sarebbe importante farlo per tenere la memoria del proprio caro al riparo da possibili attacchi informatici come il ghostboting.

Cover: foto di Cliff Hang da Pixabay

 

TAG: alta tecnologia, intelligenza artificiale, phishing, privacy, scam, Tutela della privacy
CAT: Innovazione, Privacy

Nessun commento

Devi fare per commentare, è semplice e veloce.

CARICAMENTO...