Big Data. Se per capire la politica ci vuole un’intelligenza artificiale

:
28 Aprile 2015

Giulio Cesare riconobbe i presagi, ma non credette si applicassero proprio a lui”. La chiave per uno storytelling dei Big Data applicati alla politica contemporanea viene direttamente dalle Idi di Marzo: che si tratti di presagi o di byte, è sempre il confine tra prevedibilità e imprevisto a fare la differenza nell’analisi politica.
La frase tanto illuminante è di Nate Silver, uno statistico, come si definisce con orgoglio -non a torto, se secondo l’Economist è questa la professione del XXI secolo (anche se poi ci vogliono sempre le lettere classiche per raccontarla).

Inserito nel 2009 dal Time fra le 100 persone più influenti del mondo, Nate ha cominciato a studiare le statistiche dei giocatori di baseball e ha poi applicato un metodo simile per prevedere i risultati delle elezioni presidenziali americane: il film Moneyball vi dice qualcosa? Un metodo formidabile: grazie all’analisi data based delle relazioni politiche, Nate Silver ha azzeccato la vittoria di Obama con eccezionale precisione (in 49 Stati su 50 nel 2008, strike nel 2012).
Il suo libro, Il segnale e il rumore, edito in Italia da Fandango, è destinato a noi che, come Giulio Cesare, non abbiamo previsto la professione del XXI secolo -sebbene i presagi ci fossero tutti, visto che da almeno trent’anni abbiamo un computer davanti agli occhi e sotto le dita.

Una lettura finalmente accessibile di quei Data, Data Everywhere, come scrive sempre l’Economist, che segnano il nostro tempo -e di cui la politica ha iniziato ad interessarsi ben prima che noi capissimo cosa diavolo fossero. Quei Big Data che tutti percepiamo come una galassia nebulosa, quando è il pianeta concreto che stiamo costruendo con le briciole digitali che lasciamo ogni minuto dietro di noi (ora, mentre sto scrivendo, ora, mentre state leggendo). Briciole che registrano una mole di comportamenti collettivi in una scala senza precedenti.

Tuttavia, l’universo dei Big Data è così rumoroso che, senza strumenti in grado di decifrarlo, il rischio è di finire tutti in preda ad uno smarrimento cosmico da Urlo di Munch. Come scrive Nate Silver, è vero che ogni giorno, tre volte al secondo, produciamo la stessa mole di dati dell’intera, colossale Biblioteca del Congresso degli Stati Uniti. Ma è anche vero che la maggior parte di questi dati sono video di adorabili cagnolini postati su YouTube o scambi via WhatsApp tra tredicenni in attesa dell’uscita del prossimo Twilight. Distinguishing the signal from the noise requires both scientific knowledge and self-knowledge, dice Nate. Una volta isolato il dato utile dal frastuono collettivo, come usarlo? E soprattutto, che uso ne sa fare, oggi, la politica?

 

Probabilità e incertezza, prevedibilità e imprevisto: il gioco delle relazioni politiche non è cambiato dai tempi dell’antica Roma in poi. Solo che oggi non si tratta più di consultare l’oracolo, il profeta o il volo degli uccelli. Agli addetti ai lavori è chiaro come le presidenziali americane 2016 si giocheranno proprio sulla capacità di leggere e, soprattutto, decifrare i Big Data. 

La politica, da terra di opinioni, di relazioni personali, di supposizioni, sta diventando terra della scienza statistica. Stiamo vivendo a livello globale il passaggio della politica da man’s land a data’s land.

Nel film Moneyball, il giovane genio dei numeri Peter Brand dice all’allenatore degli Oakland Athletics: “se hai dodici giocatori, devi parlare dodici linguaggi diversi”. Verissimo, soprattutto in questi tempi in cui tutto è storytelling e vince chi racconta la storia di cui tutti vogliono esserne parte: con un analogo Moneyball della politica, si hanno gli strumenti per poter parlare, potenzialmente, i linguaggi di tutti gli elettori, perché si sa cosa vogliono e, soprattutto, cosa vorranno in futuro.

Attraverso sofisticati algoritmi, l’elaborazione simultanea i tutti i dati strutturati, presenti e passati, prodotti dalle istituzioni politiche permette di prevedere il risultato di votazioni e provvedimenti futuri in una sfera in cui possibilità e probabilità arrivano a toccarsi. Come nel baseball, non importa solo come un membro del Congresso vota oggi, ma come e perché ha votato ieri, e soprattutto come e perché voterà domani. In politica, vince chi lo capisce prima degli altri. 
Artificial intelligence is almost ready for business, intitola un recente articolo apparso su Harvard Business Review: guardando alle analisi politiche oltreoceano, l’impressione è che quest’intelligenza artificiale sia already ready.

Esistono strumenti e applicazioni già sul mercato che rendono quest’intelligenza artificiale alla portata di tutti: la politica è studiata come una rete neurale identica a quella del cervello umano, in cui ogni nodo è rappresentato da un parlamentare e dalle sue attività (proposte di legge, tweet, rassegna stampa, foto su Instagram). L’intelligenza artificiale non solo reagisce, come facciamo quando usiamo il cervello, agli impulsi dei dati in tempo reale, ma conserva memoria di quelli passati, elaborando modelli specifici per prevedere dati futuri.

Ad esempio, è stato sfiorando una candela che da bambini  abbiamo imparato che il fuoco brucia: il nostro cervello ce lo ricorda ogni volta che al fuoco ci avviciniamo troppo, prevedendo che ci scotteremo. Lo stesso meccanismo di analisi e memoria si ottiene, analizzando i Big Data, con un’intelligenza artificiale applicata alla politica.
Programmi matematici che rendono il futuro mappabile, attraversabile, raggiungibile, per dirla alla Dave Eggers. Applicazioni che eliminano quel rumore galattico di cui parla Nate Silver, analizzando contemporaneamente atti legislativi, stampa, social media, estrapolando solo ciò che serve all’analista e rendendo le informazioni immediatamente consultabili su un pc. Tutta la politica in tempo reale, data based, con funzioni di ricerca, report e predittività.

E in Italia? Siamo pronti anche qui. E’ previsto a breve il lancio di Policy Brain, un sistema di analisi e previsione del comportamento degli attori politici fondato sui Big Data: ci vuole davvero la complessità di un’intelligenza artificiale per leggere (e capire) la politica italiana. La start-up è tutta made in Italy: anche in questo caso è sviluppata da un giovanissimo genio della matematica, Luca Giacomel, anni 23, milanese, formatosi in Google, e prodotta da Cattaneo Zanetto & CO.
Dati, intelligenza artificiale, rete neurali, cervelli: ecco dove l’uso dei Big Data sta portando l’analisi politica. La predittività statistica è il terreno su cui si giocheranno le prossime campagne elettorali. In fondo, come diceva Alan Turing, il primo a credere al sogno di macchine capaci di pensare al posto nostro, “non importa se il cervello umano ha la consistenza di un porridge freddo”.

TAG: barack obama, big data, elezioni, politica, start up, usa
CAT: Media, Partiti e politici

Un commento

Devi fare per commentare, è semplice e veloce.

  1. ntirelli 9 anni fa

    Una citazione molto comune dalle mie parti dice che “Big data is like teenage sex: everyone talks about it, nobody really knows how to do it, everyone thinks everyone else is doing it, so everyone claims they are doing it…”
    Questo riassume la valenza molto modaiola che questa espressione ha assunto; allo stesso tempo avverte della necessità di rimuovere quella ‘hype’ che circonda gli argomenti culto del momento.
    Il punto critico infatti non è più riconoscere l’esistenza dei big data, ma procedere alla loro de-mitificazione: in statistica sia la presentazione che soprattutto l’interpretazione dei dati sono prodotti meno fattuali e obiettivi di quanto invece dipendano da azioni soggettive più o meno conscie.

    Mi spiego:
    separare dati da rumore, ovvero trovare una soglia significativa è già un’operazione soggettiva.
    Individuare popolazioni in base a caratteristiche determinanti (e la scelta di queste ultime) è un’altra operazione soggettiva.
    Il tipo di connessioni sviluppate in una rete neurale può essere fortemente influenzato dalla scelta soggettiva dei parametri originari.
    Infine (o meglio, all’inizio) la raccolta stessa dei dati è spesso un’altra operazione soggettiva.

    A fronte di questo, spesso troviamo una credenza quasi messianica che dati provati su grandi campioni statistici siano una verità fattuale.
    Per esempio, nelle campagne elettorali britanniche si fa un uso quotidiano di big data allo scopo di costruire una base fattuale per delle policies, o per crearne di nuove; da qui, la presenza di conclusioni diametralmente opposte ma tutte regolarmente basate su big data sul ruolo degli immigrati nell’economia, sulla sostenibilità del sistema bancario, sul successo degli incentive governativi al mercato immobiliare, etc.

    Quindi sarebbe opportuno che accanto all’enfasi sui big data, ci sia anche quella sulla loro relativizzazione. Se è vero che ‘In politica, vince chi capisce il futuro prima degli altri’, è anche vero che non si parla solo di un futuro fattuale, ma anche e soprattutto di una visione, magari accattivante, ma spesso consciamente soggettiva. Per esempio, se un politico capisce l’insostenibilità di una crescita economica infinita, probabilmente fa una previsione accurata, ma non gli conviene basarci la campagna elettorale e andare contro il modello economico corrente. Chi voterebbe per non andare nel paese dei balocchi?

    Rispondi 0 0
CARICAMENTO...