Mentire con la matematica

strumentalizzazione delle fallacie logiche legate al ragionamento statistico

Sia in ambito scientifico che in politica non è raro sentir dire che “con le statistiche si può provare qualsiasi cosa1.  È facile, infatti, quando non si è esperti in materia, interpretare in modo sbagliato i dati statistici anche quando questi sono corretti. Bisogna sottolineare che questo non avviene per forza perché si è in cattiva fede, ma è un fenomeno dovuto al nostro modo di pensare. La statistica è una branca della matematica spesso controintuitiva e quindi soggetta a diverse fallacie logiche, cioè “errori nascosti nel ragionamento che comportano la violazione delle regole di un confronto argomentativo corretto”2.

Questi errori intrinseci nel nostro modo di pensare possono essere, tuttavia, strumentalizzati per portare diversi vantaggi a chi dichiara i dati, come, ad esempio, lucrare a spese della salute dei consumatori. Un esempio di tattica utilizzata per alterare i risultati è lo scarto di dati sfavorevoli. Per capire come funziona questo metodo prendiamo in considerazione un articolo senza nessun effetto dimostrabile messo sul mercato sul quale, però, si vogliono dati scientifici a favore del funzionamento.

Tenendo conto del fatto che le misurazioni sono, per loro natura, aleatorie, immaginiamo di fare una serie di studi su questo prodotto. Questa è condotta con un metodo che comporta una confidenza dell’x% sul risultato (x è idealmente molto alta, ma mai pari a 100). Ripetendo un grande numero di volte l’esperimento, in modo da renderlo statisticamente rilevante, circa x risultati su 100 saranno in accordo nel dire che l’articolo sul mercato non ha nessun effetto. A causa della natura aleatoria dei risultati ottenuti, ciò implica che esistano studi in disaccordo con il consenso generale, che, però, per x sufficientemente grandi, dovrebbero essere considerati anomalie statistiche.

Per poter dichiarare che esistono studi a supporto dell’efficacia del prodotto basta, quindi, ripeterne un numero sufficiente, riportando solo quelli che dichiarano un effetto positivo. Ovviamente, per mantenere l’illusione è necessario omette il fatto che la maggior parte indichi l’inefficacia dell’articolo e probabilmente, alcuni un effetto negativo.

Un altro modo per sbilanciare i dati, utilizzato soprattutto nei sondaggi, è porre le domande in modo non oggettivo. Lo scopo di questo metodo è far propendere chi risponde ai quesiti verso una delle opzioni, obiettivo che può essere raggiunto, per esempio, cambiando la formulazione della domanda. In questo modo, tecnicamente il significato non viene alterato, ma è possibile presentare le diverse alternative come più giuste o sbagliate facendo leva sulla semantica. Alternativamente, è possibile incoraggiare una certa risposta fornendo (o rimuovendo) dati aggiuntivi utili per contestualizzare la domanda o esplicitamente favorevoli a una delle tesi proposte.

I sondaggi, inoltre, soffrono di un altro problema. È possibile dimostrare, attraverso l’utilizzo del Teorema del Limite Centrale, che, preso un campione sufficientemente grande all’interno di una popolazione, il valore medio di una certa grandezza osservabile per il gruppo grande sia equivalente a quello del campione ristretto entro un certo margine di incertezza. La parola chiave, qui, è “incertezza”. Se è vero che il risultato ottenuto da un sondaggio approssima sempre meglio il “valore vero” al crescere delle dimensioni del campione, lo è altrettanto il fatto che è un’approssimazione, cosa che spesso viene omessa nei risultati resi pubblici. È importante notare che questo non è sempre fatto con l’intenzione di ingannare: è possibile che la confidenza sia data per scontata poiché equivalente a un valore standard (per esempio del 95%), quindi bisogna fare attenzione a non considerare mai assoluti questo tipo di risultati.

I problemi con i sondaggi, però, non finiscono qui, in quanto un altra fonte di errore è proprio il campione di popolazione preso in esame: se non si è attenti con la selezione, si può andare incontro a sovrageneralizzazione. Con questo termine si indica la tendenza a estendere la validità di risultati ottenuti per un gruppo a un secondo gruppo che però non è compatibile con quello su cui è stata compiuta l’analisi, e avviene soprattutto quando a divulgare i risultati della suddetta sono fonti non tecniche. Un esempio del fenomeno? “Un esempio reale dell’errore causato dalla sovrageneralizzazione può essere osservato come un artefatto delle moderne tecniche elettorali, che vietano di chiamare dai telefoni cellulari per sondaggi politici al telefono. Poiché è più probabile che i giovani non abbiano un telefono fisso rispetto ad altri, un sondaggio telefonico che esamina esclusivamente attraverso i telefoni fissi, può causare il sottodimensionamento delle opinioni dei giovani, se non vengono prese altre misure per tenere conto di questa inclinazione del campionamento. Di conseguenza, un sondaggio che esamina le preferenze di voto dei giovani utilizzando questa tecnica non può essere una rappresentazione perfettamente accurata delle preferenze di voto vere dei giovani in generale, senza generalizzare, perché il campione utilizzato esclude i giovani che hanno solo un telefono cellulare, che potrebbero o no avere preferenze di voto che differiscono dal resto della popolazione“.3

Un’altra fallacia statistica degna di nota è quella del tasso di base, anche detta del bias di base. Ci si imbatte in questo errore particolarmente insidioso quando, presentando dati relativi al tasso di incidenza di base di una certa condizione insieme a dati più specifici (relativi solo a un certo campionamento) non si integrano correttamente le informazioni, favorendo quelle specifiche rispetto al tasso base. Un caso notevole è quello del paradosso dei falsi positivi, che si verifica quando un test anche molto preciso per una certa condizione fornisce più falsi positivi che veri positivi.

Questo accade perché il risultato del test non dipende solo dalle caratteristiche dello stesso, ma anche da quelle del campione della popolazione analizzato, che, come nel caso dei giovani nei sondaggi telefonici, potrebbe essere affetto da bias di selezione. Quando la popolazione presa in esame ha un tasso di incidenza della condizione inferiore al tasso con il quale il test produce falsi positivi, che può essere anche molto basso, si avrà un numero di falsi più elevato di quello dei veri positivi nel complesso, come si può dimostrare con l’ausilio del Teorema di Bayes.

Alla luce dei numerosi modi in cui possiamo essere tratti in inganno in modo apparentemente supportato dai dati, è necessario prestare grande attenzione quando leggiamo dati statistici, soprattutto se pubblicati sui social media o in televisione, consapevoli del fatto che nessuno è immune a queste illusioni se prima non riesce a individuarne la fonte.

Mario Colabello

Fonti:

https://it.m.wikipedia.org/wiki/Uso_sbagliato_della_statistica

https://it.wikipedia.org/wiki/Fallacia_del_tasso_di_base

  1. https://www.psyjob.it/le-fallacie-una-introduzione-ai-piu-comuni-inganni-dellargomentazione.htm#:~:text=Fallacie%20statistiche,in%20un%20interlocutore%20poco%20esperto. ↩︎
  2. https://it.m.wikipedia.org/wiki/Fallacia ↩︎
  3. https://it.wikipedia.org/wiki/Uso_sbagliato_della_statistica ↩︎

Lascia un commento