contattaci
Non possiamo credere ai dati delle scienze economiche e sociali (G.Contessa) Torna a indice


La crisi economica che stiamo attraversando ci ha insegnato almeno una cosa: i dati economici, sociali, statistici spacciati per "scientifici" non hanno quasi nessun valore. I cosiddetti dati hanno assunto oggi il valore che nel medio evo aveva l'ipse dixit (l'ha detto Aristotele), o alla metà del secolo scorso aveva la frase "l'hanno detto in tv". Si tratta di mantra la cui funzione è solo quella di evocare una verità inesistente e tacitare le confutazioni. Siccome "i dati dicono che...." nessuno può obiettare. Nessuno sa chi ha raccolto questi dati nè come: basta che il nome della fonte sia esotico ed evocativo (tanto nessuno lo legge o lo ascolta). I dati sono un alibi per lo scientismo ingenuo.

1. Nessun dato di per sè ha un significato

I dati da soli sono neutrali o insignificanti: trovano un senso sola dalla loro interpretazione. Strombazzare che l'occupazione ha "raggiunto il 90%" può essere motivo di trionfalismo, e può anche essere del tutto vero. Il significato del dato cambia però se affermiamo che "un italiano su 10" non ha lavoro. Il dato assume ancora un altro significato se lo compariamo nel tempo. Se l'anno scorso l'occupazione era del 95%, significa che in un solo anno i disoccupati sono raddoppiati. E ancora cambia se lo compariamo spazialmente: se i Paesi confinanti hanno un'occupazione del 97% vuol dire che il nostro Paese ha una grosso problema. La cosa è chiarissima nei periodi post elettorali. I dati sono uguali per tutti i partiti, ma ogni politico li legge come vuole. Lo strano è che mentre nessuno crede ai dati interpretati dai politici, tutti credono ai dati che provengono da un ente statale, una banca, una università o un centro di ricerca dal nome roboante.

2. La maggior parte dei dati sono vecchi

La leggenda dai dati in tempo reale è appunto una leggenda. Gli unici dati "caldi" (anche se non sono mai in tempo reale) sono quelli che riguardano le interviste televisive o telefoniche: purtroppo sono privi di significato. L'opinione di due consumatori ripresi mentre escono da un negozio, rispecchia solo la loro opinione del momento, col dubbio che la forma "diretta" abbia prodotto una falsificazione. I fallimenti clamorosi di molti exit polls testimoniano della fragilità di dati "caldi".

Tutti i dati che conosciamo oggi sono stati raccolti almeno sei mesi fa. Se si tratta di dati raccolti non in via diretta, con ricercatori che interpellano i soggetti, ma in via indiretta, con ricercatori che raccolgono dati e documenti raccolti da altri, il tempo raddoppia o triplica. Dunque, ad ogni dato che ci sentiamo propinare oggi, manca tutta la storia che quel dato a subìto negli ultimi 12 o 24 mesi. Questo forse non pesa molto se parliamo di dati sui monumenti storici, ma pesa moltissimo se parliamo di occupazione, incidenti stradali, produzione industriale.

3. Una gran parte dei dati sono errati

Nelle ricerche su larga scala le principali fonti di errore sono due: il campione e i rilevatori. Quando si effettua una ricerca su larga scala il primo scoglio è la definizione di un campione, cioè di un piccolo numero di soggetti da indagare, che sia però rappresentativo dell'universo. I ricercatori capaci di creare un campione esatto sono rari e quindi costosi. Molte ricerche dunque si basano su campioni fatti "in casa". I dati finali della ricerca non sono quindi rappresentativi dell'universo da indagare. Coloro che materialmente effettuano le rilevazioni sono in genere giovani e mal pagati. Tutti abbiamo un amico che per pagarsi uno svago ha fatto il rilevatore in qualche ricerca. E tutti sappiamo quante schede di rilevazione ha riempito con fantasia, nel suo salotto di casa. Il grado di accuratezza circa la raccolta dati è spesso molto vago.

Nelle ricerche da fonti indirette, entrano in gioco fattori come l'incompletezza, la falsità, e l'eterogeneità. Come sono andate le scuole della provincia di Novara l'anno scorso? Per rispondere a questa domanda dobbiamo sapere il numero dei bocciati, dei rimandati, dei ritirati, degli evasori dell'obbligo; la quantità di assenze dei docenti; il numero degli incidenti; il numero dei programmi integrativi e di supporto attivati, e magari anche altro. In teoria si ci si potrebbe rivolgere al Provveditorato, che però sicuramente non avrà tutti i dati delle sue scuole perchè, benchè sia passato un anno, molte scuole non hanno ancora mandato nulla. Allora avremo alcuni dati dell'anno scorso, alcuni dati di 2 o anche 3 anni fa. Alla fine troviamo alcuni dati presso il Provveditorato o sollecitando le scuole in ritardo: chi è disposto a scommettere che siano dati veritieri? Chi ha raccolto i dati può avere sbagliato qualche calcolo, o anche aver mentito su qualche aspetto per non mettere in cattiva luce la scuola. Infine l'eterogeneità. Una scuola raccoglie i dati divisi per classe, un'altra no. Una scuola registra solo gli incidenti alla struttura, una scuola registra solo quelli alle persone. Una scuola conteggia le assenza dei docenti solo se di lunghezza tale da richiedere un supplente, un'altra conteggia anche le assenza per andare in bagno. In conclusione: nessuno è in grado di dire, a partire dai dati, come vanno le scuole a Novara. Potremo dire come vanno le scuole in Italia? Lo stesso discorso vale per la sanità, l'assistenza, la tossicodipendenza, il lavoro, la strada, in genere per ogni tema che richieda fonti indirette.

4. Molti dati son manipolati

I dati hanno qualcuno che paga per averli. E chi paga ha sempre delle aspettative: alla verità, preferisce una conferma di queste aspettative. Chi fa ricerca sa che sarà pagato e che otterrà altre ricerche solo se presentarà dati che confermino l'aspettativa del committente. I più onesti si fanno solo influenzare, e impostano, anche senza accorgersene, la ricerca in modo che sia più facile ottenere alcuni risultati invece che altri. I meno onesti usano invece la penna rossa per alterare i dati raccolti sul campo o modificarne la interpretazione a favore di committente. Se la ricerca riesce a scampare alle manipolazioni dei ricercatori, dei responsabili di agenzia, o del committente, c'è sempre un'ultima manipolazione possibile: cestinarla. Il committente richiede una ricerca che confermi le sue aspettative, se i dati che arrivano sono "sgradevoli", la butta via ! (come è successo per il Rapporto Barberi della Regione Abruzzo).