Le previsioni del divino mago Web

ForexForecast

Negli ultimi giorni abbiamo avuto modo di leggere un paio di improbabili notizie riguardanti la possibilità da parte di algoritmi opportunamente costruiti di effettuare delle vere e proprie previsioni sul futuro.

La prima viene dall’Iran, dove, a quanto pare, un geniale giovane scienziato, Ali Razeghi, avrebbe addirittura messo a punto una macchina del tempo (qui ne parla Wired). A diffondere la notizia è stata l’agenzia di stampa iraniana Fars, che ha però immediatamente rimosso la pagina e pubblicato una rettifica in cui si spiega che nessuna invenzione del genere è stata mai depositata in alcun ufficio brevetti iraniano.

Se state pensando che il motivo del “ripensamento” risieda nel fatto che Razeghi abbia usato la propria invenzione per tornare indietro nel tempo e impedire a se stesso di darne comunicazione ai media, siete in errore, perché la misteriosa (mancata) invenzione non sarebbe stata in realtà propriamente una macchina del tempo, nel senso cui la fantascienza ci ha abituati, quanto piuttosto una macchina per le previsioni del futuro, da cinque a otto anni in avanti: una sorta di computer di modeste dimensioni nel quale girerebbe un algoritmo quasi infallibile in grado di effettuare previsioni su argomenti di vario genere, dagli evergreen da manuale della perfetta chiromante (riuscirò a sposarmi a breve? Diventerò ricco? Sarà maschietto o femminuccia?) all’andamento dei prezzi di beni strategici, primo fra tutti il petrolio.

C’è poi il famigerato web bot project (di cui abbiamo già parlato in questo articolo) che ha di recente sfornato un’altra catastrofica previsione: l’impatto di un grosso asteroide per il 14 Aprile 2013. Ne ha parlato anche l’Osservatorio apocalittico,  su sollecitazione di un lettore.

Web bot è un programma messo a punto nella seconda metà degli anni ’90 da Clif High e George Ure, inizialmente al fine di produrre previsioni riguardo i mercati finanziari, ma poi passato a vere e proprie veggenze sui fatti più disparati, ivi comprese sciagure di origine assolutamente non antropica (tsunami, terremoti, asteroidi…). Il web bot project si basa appunto sul concetto di bot, ovvero un programma che “visita” il web esattamente come farebbe un essere umano, o meglio un gruppo di esseri umani particolarmente veloci: per questo motivo si usa spesso anche il termine “spiders” (ragni). Algoritmi del genere sono oggi largamente utilizzati nell’indicizzazione dei siti da parte dei motori di ricerca.

Non ci addentreremo in questo articolo nella analisi delle singole previsioni del web bot project, né sul tema della effettiva paternità delle previsioni. Web bot è infatti un progetto commerciale e come tale non esistono dettagli sull’algoritmo (il che potrebbe addirittura far pensare ad una bufala a monte), né esiste una fonte ufficiale di divulgazione delle previsioni: esistono solo voci in rete che chiunque in teoria può mettere in circolo.

Vorremmo piuttosto utilizzare queste recenti notizie come spunto per una discussione su cosa vuol dire “fare una previsione” e su cosa un algoritmo matematico possa prevedere attingendo all’immenso archivio di dati presente nel web.

Ipotizziamo che qualcuno vi presenti un sondaggio da cui risulta che il 70% degli intervistati preferisce la carne al pesce. Se il campione scelto è opportunamente vasto e ben costruito, se esso cioè è una buona descrizione dell’intera popolazione, potete tranquillamente fare  delle previsioni sul fatto che, intervistando la prima persona che passa, essa preferirà la carne con una probabilità di 7/10. Avete fatto quella che in gergo si chiama un’inferenza (o previsione) statistica. Questo risultato potrebbe ad esempio essere di estrema importanza se state aprendo un ristorante e siete in dubbio sul menu da proporre.

Immaginiamo invece che un altro studio mostri che il 70% degli italiani crede che un asteroide devastante colpirà la Terra nei prossimi sei mesi. In questo caso invece è scorretto inferire che effettivamente esistono sette possibilità su dieci che la Terra subisca un devastante impatto nei prossimi sei mesi. In altri termini, se siete in dubbio sul pianeta in cui aprire un ristorante, il sondaggio di cui sopra non vi darà alcuna informazione utile.

La differenza fra i due casi, volutamente esasperata, consiste nel fatto che nel primo caso si vuole fare un’analisi inferenziale  su una caratteristica della popolazione (i gusti degli intervistati), nel secondo caso il fenomeno fisico non dipende in alcun modo dall’opinione che la gente ha a riguardo.

Per quel che ci è dato sapere, le previsioni del web bot project si basano su una ricerca nella rete da parte degli spider di particolari topic e su un complesso algoritmo (i cui dettagli sono volutamente mantenuti oscuri) volto a valutare la disposizione emotiva riguardo lo stesso nonché eventuali informazioni temporali. Se in rete si inizierà a parlare con insistenza e con apprensione di un impatto imminente, il web bot prevederà l’impatto, ma la previsione è indubbiamente fondata sul ricorso alla statistica fallace cui abbiamo accennato. Per ritornare all’esempio precedente, è come sei il bot leggesse i risultati del sondaggio sull’asteroide; di sicuro non troverà in rete il giornale del giorno successivo alla catastrofe. Non solo: se la previsione del web bot venisse divulgata (come è più volte accaduto in passato) finirebbe per accentuare la discussione sull’argomento, con l’effetto di falsare il risultato stesso. La soluzione sarebbe quindi mantenere la previsione segreta fino a fatti avvenuti, il che renderebbe il metodo del tutto indistinguibile dalle classiche “previsioni a posteriori” cui siamo ormai abituati, oltre che scandalosamente inutile.

Come si diceva, la destinazione originale del web bot project era la previsione degli andamenti delle borse, tramite la raccolta in rete di informazioni utili per capire se un determinato titolo potesse o meno subire importanti variazioni. Concettualmente, un approccio del genere non è infondato, dal momento che i mercati sono determinati dagli investitori e gli investitori si informano e prendono decisioni anche grazie alla rete. Rientreremmo quindi nella casistica delle previsioni carne/pesce, piuttosto che in quella dell’asteroide. Nella pratica anche in questo caso la riuscita delle previsioni non è per nulla garantita: da alcuni decenni gli economisti dibattono in modo feroce sulla validità della teoria dei mercati efficienti , un concetto abbastanza complesso che possiamo sintetizzare in una domanda: è vero che possedere quante più informazioni possibili ci permetterebbe di “battere i mercati”, ovvero di ottenere rendimenti costantemente al di sopra dell’andamento medio della borsa, minimizzando i rischi?

Al di là dell’informazione in sé, sembra infatti che una “sana” dose di irrazionalità abbia un ruolo fondamentale nei fenomeni economici. Tale irrazionalità certamente anima anche la rete, nella quale non si trovano soltanto sterili informazioni, ma anche opinioni e timori. La presenza di questo “rumore di fondo” però rende i mercati modellabili, ma intrinsecamente imprevedibili. In altri termini, come accade per altri fenomeni come i terremoti, possiamo capire come funzionano ma non possiamo usare queste informazioni per fare previsioni su cosa accadrà domani o fra un mese. Emblematico a tal proposito un recente studio  pubblicato da un gruppo di fisici italiani nel Journal of Statistical Physics, dal programmatico titolo “The beneficial role of random strategies in social and financial systems“, nel quale si dimostra che la strategia meno rischiosa di previsione dei mercati sia quella di scommettere a caso, con buona pace degli alacri ragnetti della rete, ai quali non resterebbe altro che dedicarsi a previsioni sbagliate sulla fine del mondo.

Hai gradito questo post? Aiutaci con una