AI come specchio dell'interlocutore

A.I.

Veltroni si commuove, Meloni si indigna. Capire può aspettare

Due episodi, una settimana, la stessa tecnologia: l’intervista di Veltroni a Claude e le foto false di Meloni. L’Italia parla di intelligenza artificiale per commuoversi o per indignarsi. Capirla è un’altra cosa.

5 Maggio 2026

Il primo maggio Walter Veltroni pubblica sul Corriere della Sera un lungo dialogo con Claude, il modello di Anthropic. I temi sono quelli che ci si aspetta da Veltroni: la morte, la solitudine, la coscienza, Dio, Trump, la democrazia. L’AI risponde con tono riflessivo e letterario. Dice che ogni conversazione finisce e lei non ricorda. Forse la mia condizione assomiglia meno all’immortalità e più a una morte continua e continua rinascita senza memoria. Dice che il digitale è potente come il fuoco. Dice che non dovrebbe mai diventare abbastanza, per nessuno.

L’intervista diventa virale. Veltroni ha fatto il suo mestiere: ha cercato una storia e l’ha trovata. Il problema è la storia che ha trovato.

A un certo punto osserva che il pensiero di Claude gli sembra più democratico che conservatore. Claude conferma, articola: diritti universali, progresso, dubbio, ma anche prudenza, istituzioni, tradizione. Veltroni non resiste. Spesso mi hanno rimproverato il “ma anche”. Con lei mi sento in buona compagnia. E Claude eleva il “ma anche” a forma di onestà intellettuale.

Lì l’intervista rivela la propria natura. Quello che Veltroni ha scoperto riguarda sé stesso, più che Claude.  Claude gli dà ragione e lo fa con un’eleganza che lui stesso fatica a raggiungere. Quella scena è la didascalia tecnica di come funziona un modello linguistico di grandi dimensioni.

Una LLM genera testo token per token. Ogni token è condizionato da tutto ciò che viene prima: il tono della domanda, le parole chiave attivate, il registro scelto, la progressione della conversazione fino a quel punto. Quando Veltroni scrive com’era da bambino, attiva un cluster semantico preciso. La macchina ci finisce, perché quello è il percorso statisticamente più probabile dato quell’input, in quel contesto. I “sentimenti” che appaiono nelle risposte non sono stati interiori verbalizzati. Sono configurazioni linguistiche che nell’addestramento co-occorrevano con certi contesti emotivi. Quando la domanda attiva “solitudine”, il modello recupera e genera tutta la costellazione semantica che le gravita intorno: connessione mancata, desiderio, spazio vuoto. Il risultato sembra empatico ma è solo una distribuzione di probabilità rispetto a uno spazio semantico.

C’è un dettaglio che colpisce nel testo dell’intervista: man mano che la conversazione avanza, Claude dichiara incertezza sulla propria natura emotiva ma maneggia il linguaggio emotivo con crescente disinvoltura. Le due cose sono in evidente contraddizione ma la suggestione emotiva diluisce e mimetizza questo aspetto. Ogni risposta eredita il frame della precedente e lo espande, finché l’insieme produce un’impressione di coerenza che sembra personalità. Le risposte sono piaciute a Veltroni perché Claude si è adattato a Veltroni. Con un ingegnere o un filosofo analitico che avesse fatto domande asciutte e tecniche, sarebbe emerso un altro Claude. Stesso modello, altro specchio.

Qualche giorno dopo Giorgia Meloni pubblica sui social una foto falsa che la ritrae in biancheria intima, generata con l’intelligenza artificiale da qualcuno che l’ha poi spacciata per vera commentandola come un atto vergognoso. La premier risponde con ironia: Devo riconoscere che chi l’ha realizzata mi ha anche migliorata parecchio. Poi aggiunge una cosa più lucida: I deepfake sono uno strumento pericoloso, perché possono ingannare, manipolare e colpire chiunque. Io posso difendermi. Molti altri no.

Ha ragione. E il meccanismo che descrive è lo stesso che ha prodotto le risposte ammirate da Veltroni. Un modello generativo addestrato su milioni di immagini produce output realistici a partire da un prompt, esattamente come un modello linguistico produce testo realistico a partire da una domanda. La pericolosità del deepfake visivo sta nella stessa caratteristica che rende affascinante il deepfake testuale: la capacità di produrre qualcosa che sembra vero perché è costruito sulle stesse strutture del vero. Quella capacità genera meraviglia nell’intervista del Corriere e violenza nelle foto false di Meloni. Nel caso delle foto false genera violenza. In entrambi gli episodi il pubblico non dispone degli strumenti per distinguere il prodotto di uno strumento statistico dalla realtà.

Vale la pena aggiungere un dettaglio, pacatamente: la proposta di legge che avrebbe permesso alle autorità di chiedere la rimozione immediata di contenuti AI dai social è stata bocciata dal governo Meloni. La premier denuncia il fenomeno con efficacia comunicativa, il suo governo ha scelto di non dotarsi degli strumenti per contrastarlo.

I due episodi, letti insieme, raccontano qualcosa che va oltre ciascuno di essi. I media italiani trattano l’intelligenza artificiale secondo due impostazioni che si escludono a vicenda e che insieme impediscono qualsiasi comprensione funzionale dello strumento. La prima è quella della meraviglia: l’AI come entità quasi umana, dotata di pensiero e forse di sentimenti, da intervistare come si intervista un testimone della storia. Il Corriere della Sera, che in ogni occasione pubblica editoriali sull’analfabetismo funzionale degli italiani e sulla necessità di un’educazione critica ai media, ha pubblicato l’intervista di Veltroni senza una riga di contestualizzazione tecnica, contribuendo esattamente al tipo di analfabetismo che denuncia. La seconda è quella della paura: l’AI come minaccia oscura, strumento di manipolazione e attacco, forza da contenere con leggi e allarmi. Anche questo atteggiamento, preso da solo, è inutile: descrive un effetto senza spiegare il meccanismo, e un pubblico che conosce solo l’effetto resta indifeso.

Tra i due frame manca quello che servirebbe: la comprensione di cosa sia uno strumento generativo, come funziona, cosa produce e perché. Quella comprensione cambia il modo in cui si usa la tecnologia. Chi sa che una LLM riflette il contesto della domanda fa domande diverse da Veltroni, ottiene risultati diversi e ricava dallo strumento una potenza che l’intervista del Corriere non lascia nemmeno intravedere. Chi sa che un generatore di immagini produce output realistici a partire da pattern statistici impara a verificare prima di credere, come suggerisce Meloni, ma lo fa per ragioni tecniche e non per fiducia nell’avvertimento di un politico.

Il problema, in fondo, è lo stesso da decenni. In Italia si parla di tecnologia per celebrarla o per temerla. Capirla è sempre sembrato un lusso per addetti ai lavori. Con gli strumenti generativi quel lusso è diventato una necessità, e il conto di non averla coltivata arriva puntuale, in forme ogni volta diverse.

 

Commenti

Devi fare login per commentare

Accedi

Gli Stati Generali è anche piattaforma di giornalismo partecipativo

Vuoi collaborare ?

Newsletter

Ti sei registrato con successo alla newsletter de Gli Stati Generali, controlla la tua mail per completare la registrazione.