A.I.
Quando il “medico” è un’IA: nuove forme di disinformazione sanitaria online
L’intelligenza artificiale applicata alla salute si muove su due binari opposti: da un lato supporta la ricerca clinica sotto la supervisione di esperti, dall’altro alimenta la produzione di contenuti scadenti e scorretti che rischiano di disinformare chi cerca risposte sulla propria salute. Capire come i due piani si intrecciano – e si confondano nella percezione del pubblico – è oggi un nodo cruciale dell’ecosistema informativo digitale.
Quando l’IA in medicina funziona davvero
In contesti clinici controllati, l’intelligenza artificiale sta producendo risultati notevoli. Uno studio pubblicato su Science ha mostrato che, nelle prime fasi di un caso da pronto soccorso, il modello linguistico o1 di OpenAI ha raggiunto un’accuratezza diagnostica paragonabile – e talvolta superiore – a quella di medici esperti. I ricercatori, però, insistono su un punto fondamentale: questi sistemi funzionano come strumenti di sostegno, non come medici autonomi.
La slopificazione del consiglio medico
In un video diventato virale, un broccolo antropomorfo dalla voce sintetica si proclama la verdura più efficace contro il cancro. È solo uno dei tanti contenuti pubblicati dalla rete di account “Vitality Sphere”, attribuiti a un fantomatico Dr. Kim Bado, che si presenta come “chirurgo ed esperto di salute”.
Un’inchiesta del sito investigativo Indicator e dell’emittente pubblica tedesca NDR ha rivelato che dietro lo pseudonimo si nasconde Hakim Bahdo, primario di ostetricia e ginecologia in un ospedale del Saarland, in Germania. I suoi canali hanno superato i 160 milioni di visualizzazioni su YouTube.
Non si tratta solo di cattiva divulgazione: temi complessi e delicati vengono ridotti a contenuti virali e semplificati fino a risultare fuorvianti, veicolati tramite “AI slop”. Si tratta di immagini e video di bassa qualità, prodotti per catturare l’attenzione e monetizzarla – in questo caso pubblicizzando libri che promettono di “sconfiggere naturalmente il diabete” e “curare il corpo con il tè”.
Una galleria di camici sintetici
Esistono quindi medici reali che generano contenuti sintetici, ma anche medici interamente sintetici. Un’altra investigazione di Indicator ha mappato decine di account su Instagram, Facebook, TikTok e YouTube che ricorrono ad avatar IA per dispensare consigli pericolosi – dal “resettare” il sistema immunitario tramite pediluvi di acqua ossigenata alla vendita di protocolli dimagranti in PDF e di pillole di moringa – un integratore vegetale spesso commercializzato con promesse antiossidanti, prive di solide evidenze cliniche.
Dinamiche analoghe sono state documentate anche da Reset Tech. Negli ultimi sei anni sono state pubblicate oltre 350 mila inserzioni su Facebook per promuovere “nutraceutici” non regolamentati, usando deepfake di personaggi pubblici esistenti e falsi profili di medici generati artificialmente. Nonostante la portata del fenomeno, Meta tende a rimuovere singoli contenuti senza intervenire sull’architettura che ne consente la diffusione.
La forza persuasiva di questi contenuti deriva da un’estetica curata e credibile – camici, diplomi alle pareti, gergo pseudo-clinico – sufficiente a distrarre dai segnali sospetti quanto rivelatori: voci meccaniche, labiali fuori sincrono, sfondi incoerenti, mani con dita in numero variabile.
Errori dell’IA che ricadono su medici e pazienti
Il problema non riguarda solo i social. Il Guardian ha rivelato che Google AI Overviews – i riassunti automatici in cima ai risultati di ricerca – hanno fornito indicazioni sanitarie potenzialmente pericolose, arrivando per esempio a confondere il pap test, esame per il cancro della cervice, con uno strumento diagnostico del cancro vaginale.
Una ricerca pubblicata su The Lancet Digital Health e ripresa da Euronews ha inoltre mostrato che i principali modelli linguistici tendono a riprodurre come autentiche affermazioni mediche false, soprattutto quando formulate in un linguaggio clinico realistico. Ancora più significatovo il dato pubblicato da Medscape: il 97% dei 645 medici intervistati dalla Canadian Medical Association ha dichiarato di aver dovuto correggere danni causati ai pazienti da informazioni trovate online, un effetto che l’IA tende oggi ad amplificare ulteriormente.
Alla base del problema c’è una caratteristica strutturale di queste tecnologie; i modelli linguistici sono progettati per generare risposte plausibili, non necessariamente vere. Risentono del bias presenti nei dati di addestramento, faticano a valutare l’affidabilità delle fonti, possono “allucinare” (inventando fonti inesistenti) e tendono ad assecondare l’utente invece di contraddirlo.
Cosa serve davvero
Le piattaforme non stanno facendo abbastanza in un’area in cui si sovrappongono tre criticità – disinformazione, contenuti generati artificialmente e salute pubblica – ciascuna delle quali richiederebbe interventi più strutturali.
Standard di tracciabilità come il C2PA (Coalition for Content Provenance and Authenticity), pensati per l’etichettatura automatica dei contenuti IA, e gli obblighi di trasparenza dell’EU AI Act – che entrerà in vigore dal 2 agosto 2026 – rappresentano passi nella direzione giusta. La loro efficacia, però, dipenderà dall’applicazione concreta: senza controlli sistematici e sanzioni reali alle piattaforme, le regole rischiano di restare sulla carta.
A questo deve affiancarsi un investimento più ampio nell’alfabetizzazione digitale e nella capacità di valutare criticamente le informazioni sanitarie online, affinché la salute non resti in balia degli algoritmi.
Devi fare login per commentare
Accedi