Tag

, , , , , , , , , , , , , , , , , , , , , , , , , , ,

C’era una volta l’analisi economica, basata su tecniche statistiche e lettura dei risultati senza sovrastrutture teoriche. Poi gli economisti si convinsero di essere degli scienziati puri, al pari di fisici e biologi, e cominciarono a costruire modelli matematici per formalizzare teoricamente il comportamento del mercato. Questi modelli si basano su ipotesi, alcune delle quali realistiche, altre di comodo. Anche un modello fisico si basa su ipotesi, ad esempio la forza di gravità: senza gravità la fisica non ha senso. La differenza è che la forza di gravità è un costrutto oggettivo e misurabile, il comportamento umano no. Questo comporta delle difficoltà, se un modello economico deve spiegare e prevedere il comportamento di milioni di esseri umani, tra l’altro in un sistema complesso. Di conseguenza, nel tempo, i modelli sono diventati sempre più complicati ed astrusi, perdendo gran parte del rapporto con la realtà.

Oggi fare analisi economica significa sostanzialmente due cose: nella maggior parte dei casi, costruire modelli di equilibrio generale che migliorino, nella struttura matematica e nella formulazione delle ipotesi, quelli esistenti; oppure analizzare i dati economici e dar loro una lettura, sovente sulla base della teoria economica di riferimento. Un monetarista troverà sempre una formulazione teorica che gli consentirà di spiegare un fenomeno, e poco importa che non sia in grado di spiegare il medesimo fenomeno in circostanze diverse.

La conseguenza la vediamo tutti: l’Europa è in crisi dal 2008 e non si riesce a partorire altro che misure recessive (austerità, politiche deflattive), ideologiche (privatizzazioni) e topolini (quantitative easing, bonus fiscali) per contrastarla. L’economia non riparte, e tutti a dire che non si sta facendo abbastanza, invece di chiedersi se per caso non siano sbagliate le risposte.

Una cosa tristemente analoga sta succedendo in ambito statistico con la cosiddetta data science. L’analisi dei dati, in sé, non è una scienza: il metodo scientifico è dato dall’applicazione della statistica mediante l’utilizzo della teoria della probabilità, che permette di misurare matematicamente il supporto sperimentale delle conclusioni che si raggiungono. Solo che i dati ci sono, ce ne sono tanti, c’è tanta potenza di calcolo, e allora tutti si sono convinti di poterli analizzare e trarne qualcosa di scientifico, o quantomeno di utile e spendibile, prescindendo dal rigore metodologico.

Ad oggi la dicitura data science sottintende l’utilizzo combinato di tecniche, mutuate da discipline che utilizzate in modo compiuto sono scienze, con fini analitici e predittivi. Il risultato è, solitamente, un gigantesco intreccio poco attendibile, ancor meno generalizzabile e scientificamente risibile. Il fatto che tutto questo si chiami data science è surreale, tuttavia l’aspetto preoccupante è che tutto ciò stia diventando routine. Tutti fanno data science o big data analysis, anche se non hanno capito bene cosa significhi, cosa implichi o a cosa serva in concreto. La conseguenza è che si stanno imponendo tecniche di analisi prive di qualunque legame col metodo scientifico, in cui è più importante tirare fuori qualcosa di spendibile subito che fare qualcosa di attendibile e replicabile in condizioni diverse, e non sono per niente sicuro di dove tutto questo conduca.

Io non so come le teorie monetariste post-crollo di Bretton-Woods siano state affrontate dagli economisti: so che negli anni ’70 tutti chiedevano spiegazioni alla crisi (tutt’altro che endemica) del sistema keynesiano, e chi era in grado di darle – ancorché zoppicanti – veniva ascoltato ed accolto come il Messia. 40 anni dopo non siamo in grado di affrontare una recessione da insufficienza di domanda, però buttiamo tempo e soldi in misure ideologiche ed inefficaci. Oggi che la statistica tradizionale mostra (per ragioni tecniche, non teoriche) il fianco di fronte all’enorme disponibilità di dati, il processo è analogo: tutti chiedono cosa fare con i terabyte di informazioni e chiunque dia delle risposte per avere tutto e subito, anche se prive di senso o metodologicamente sbagliate, è considerato un guru della data science. Non vorrei che ci risvegliassimo tra 40 anni, costretti a sperimentare i farmaci sulla popolazione durante un’epidemia perché non più in grado di fare un test double blind o incapaci di accettare che la scienza richieda tempo e rigore e sia fallibile.

Spero tanto di sbagliarmi.

Annunci