A.I.
LLM: la nuova frontiera della guerra dell’informazione russa
Attraverso la manipolazione delle fonti di addestramento, la Russia sta puntando a contaminare i grandi modelli linguistici, trasformandoli in strumenti di influenza e disinformazione.
I tentativi di interferenza russi non sono una novità. Ma con l’avvento di Internet prima, e la diffusione dell’intelligenza artificiale poi, la strategia del Cremlino si è radicalmente trasformata. Oggi Mosca può contare su mezzi che garantiscono massima diffusione a costi minimi, sfruttando l’automazione dei processi e la personalizzazione dei contenuti. In questo ecosistema, i grandi modelli linguistici (LLM) come ChatGPT, Gemini e Copilot, utilizzati quotidianamente da milioni di persone che non ne possono più fare a meno, sono diventati un nuovo terreno di battaglia informativa.
Dal ricevente alla fonte
Per anni la disinformazione russa ha cercato di plasmare direttamente la mente delle persone; oggi, invece, il bersaglio sono gli strumenti stessi da cui il pubblico si informa. E in un’epoca in i chatbot vengono consultati come veri e propri motori di ricerca, la manipolazione delle fonti su cui questi modelli si addestrano rappresenta una minaccia strutturale per l’integrità dell’informazione. “Un bambino nato oggi non sarà mai più intelligente dell’intelligenza artificiale”, ha dichiarato di recente in maniera quasi profetica sebbene poco lusinghiera il CEO di OpenAI Sam Altman, aggiungendo che ciò che è vero e ciò che è falso “tenderà gradualmente a convergere”. È in questa convergenza – o meglio nella sua distorsione – che si gioca la nuova guerra cognitiva.
Portal Kombat o Pravda
Lo scorso anno, l’agenzia governativa francese Viginum ha pubblicato un report sull’operazione “Portal Kombat”, anche nota come “Pravda” (“verità”). In un solo anno, la rete Pravda ha prodotto milioni di articoli con lo scopo di infiltrare i dati di addestramento dei chatbot occidentali, come conferma anche l’American Sunlight Project. Il network comprende circa 150 siti web, molti dei quali imitano testate locali ucraine o europee per apparire affidabili e legittimare narrazioni filorusse. Dalla cospirazione sui laboratori biologici statunitensi in Ucraina alla presunta denazificazione voluta da Putin, si attua un revisionismo storico che riscrive la memoria collettiva.
LLM grooming
Queste narrazioni, ripetute innumerevoli volte, vengono assorbite dai crawler automatici che raccolgono testi per l’addestramento dei modelli linguistici. Il risultato è una contaminazione pervasiva dell’informazione digitale che fa sì che la propaganda entri nel codice stesso dell’intelligenza artificiale. Il fenomeno viene definito “LLM grooming”, ossia l’“adescamento” dei modelli linguistici che vengono allenati su enormi quantità di testi raccolti online per imparare a riprodurre il linguaggio umano. Tuttavia, se il materiale di partenza è inquinato, anche le risposte dei chatbot rifletteranno propaganda e disinformazione.
Secondo NewsGuard, la quantità di informazioni false o fuorvianti generate dai principali chatbot è quasi raddoppiata in un anno, dal 18% nel 2024 al 35% nel 2025. In molti casi, le fonti di tali errori riconducono proprio ai siti della rete Pravda. Un esempio emblematico è la bufala secondo cui Zelensky avrebbe bandito la piattaforma Truth di Donald Trump, notizia falsa ripetuta da sei chatbot su dieci testati. Inoltre, un’indagine di Check First e DFRLab ha evidenziato che persino Wikipedia ha, in alcuni casi, amplificato contenuti provenienti dalla stessa rete, a dimostrazione di quanto sia poroso e vulnerabile il panorama informativo online. Il rischio è che, a forza di essere ripetuta e rinforzata, la menzogna venga normalizzata e data per vera.
LLM come laboratori di sperimentazione
Questa nuova fase della manipolazione informativa non nasce dal nulla. Le connessioni tra la rete Pravda e la campagna Storm-1516 – una ramificazione della famigerata Internet Research Agency, nota per l’ingerenza nelle elezioni statunitensi del 2016 – rivelano la continuità dell’apparato. Storm-1516 utilizza bot, account automatizzati e reti di siti per testare la risposta dei modelli linguistici alla disinformazione. In pratica, i modelli diventano spazi di sperimentazione: osservando quali narrazioni gli LLM tendono a ripetere o scartare, gli operatori russi individuano i punti ciechi dell’IA generativa e capiscono come sfruttarli affinché il sistema assimili e interiorizzi, in modo apparentemente neutro, le loro versioni dei fatti.
La Russia ha capito che la vera arena dell’influenza si gioca nel modo in cui gli algoritmi filtrano e ordinano i contenuti, ridefinendo cosa viene percepito come vero o rilevante più di convincere direttamente gli individui, ma di modellare le infrastrutture cognitive che determinano la percezione globale della realtà.
L’indebolimento della verifica delle fonti
Veicolando i contenuti falsi come informazioni neutre disponibili sui grandi modelli linguistici, si alimenta un paradosso: chi cerca di fare fact-checking finisce per essere tratto in inganno dagli stessi strumenti su cui dovrebbe poter contare. La contaminazione dei chatbot, delle enciclopedie online e l’indicizzazione da parte dei motori di rischiano di diventare amplificatori inconsapevoli della disinformazione. Inoltre, la diluizione di questi contenuti attraverso i vari strumenti di elaborazione di testi e ricerca di informazioni rende quasi impossibile individuarli in tempo reale, minando la resilienza degli ecosistemi informativi democratici.
Nell’era dell’intelligenza artificiale, l’influenza tra superpotenze si misura tanto in testate nucleari o territori conquistati, quanto in righe di codice e dataset manipolati. E il paradosso è che molti di questi strumenti su cui Mosca tenta di intervenire sono sviluppati proprio negli Stati Uniti o in Cina.
Devi fare login per commentare
Accedi