Quanto sbagliano davvero i sondaggi politici?
di Paola Tellaroli
Il 2024 è stato l’anno più “elettorale” di sempre, con oltre 50 elezioni in tutto il mondo. E nel mese di febbraio 2025 c’è stata fibrillazione per il voto in Germania: per questo, di recente, abbiamo spesso sentito parlare di sondaggi. Sulla loro affidabilità c’è talvolta un certo scetticismo, specialmente in seguito a grossi flop come quelli che si sono verificati in occasione del voto per la Brexit e delle elezioni USA del 2016.
Il fatto è che i sondaggisti, purtroppo, non hanno il super-potere di prevedere il futuro. Il loro obiettivo è, semmai, quello di estrapolare dalle opinioni di un piccolo gruppo di individui (campione) quelle di molte più persone (popolazione), fornendoci così scenari più o meno probabili. In “statistichese”, questo processo è chiamato “inferire” (badate bene, non infierire!). Ma se i sondaggi sono strumenti estremamente utili per analizzare l’opinione pubblica, sono anche, ahinoi, imperfetti per diverse ragioni.
Perché i sondaggi sono imperfetti?
Prima di tutto, bisogna tenere conto che si basano sulle risposte delle persone in un determinato momento e, si sa, col passare del tempo le opinioni possono cambiare. E così, per via degli indecisi che sceglieranno il giorno stesso dove mettere la croce sulla scheda, o di chi si era dichiarato astensionista ma all’ultimo minuto ha deciso di esprimere il proprio voto (che resta ignoto al sondaggio), una rilevazione condotta anche soltanto 48 ore prima dell’appuntamento alle urne non sarà più accurata. Se a queste fonti di incertezza aggiungiamo anche quella che deriva da chi non risponde con onestà all’intervista, è chiaro che questi sono problemi che non vanno attribuiti a errori nell’operato dei sondaggisti.
In secondo luogo, bisogna considerare che le inferenze sono delle stime e che, in quanto tali, sono sempre legate a margini d’errore. Questi ultimi indicano la precisione di un risultato statistico, esprimendo in quale misura i risultati di un campione potrebbero differire da quelli ottenibili con l’intera popolazione reale. Per esempio, se un sondaggio su un campione di 1000 persone scelte casualmente mostra che il 60% preferisce un candidato con un margine d’errore del +/- 3%, questo significa che la percentuale reale nella popolazione potrebbe variare tra il 57% e il 63%.
La buona notizia è che il margine d’errore tende a restringersi all’aumentare della numerosità del campione. Quella cattiva è che in questo modo crescono anche i costi: intervistare 100 persone richiede meno denaro e tempo rispetto a quanti ne servono per intervistarne 1000. Inoltre, nonostante la numerosità campionaria sia un ingrediente importante per giungere a risultati affidabili, non è l’unico. Infatti, per il cosiddetto “paradosso dei Big Data”, anche aumentando il numero di interviste condotte, se un campione non è rappresentativo, questo finirà per ingannarci, fornendoci stime inaffidabili ma precise in maniera illusoria. Come ha scritto lo statistico Xiao-Li Meng, cadendo in questo paradosso “più sono i dati, più precisamente ci illudiamo”. [1]
Il paradosso dei Big Data
Un esempio famoso è quello delle elezioni presidenziali statunitensi del 1836, alle quali concorrevano il governatore repubblicano del Kansas Alfred Mossman Landon e il democratico Franklin Delano Roosevelt, presidente uscente. In quel periodo un autorevole settimanale, il Literary Digest, organizzò un sondaggio che fu inviato per posta a 10 milioni di persone. Sulla base delle risposte arrivate, quel giornale predisse una vittoria di 3 a 2 per il candidato repubblicano. Nello stesso periodo, lo statistico George Gallup ottenne un risultato opposto su un campione assai più esiguo, e finì per avere ragione. Roosevelt non solo vinse, ma stravinse. L’errore del periodico fu quello di incappare in due distorsioni (bias). La prima, fu la distorsione campionaria, perché costruì il campione usando gli elenchi degli abbonati telefonici e dei proprietari di automobili, beni ben poco diffusi all’epoca. Per questo, il campione era perlopiù composto da cittadini benestanti, cosa che produsse risultati distorti, dato che i sostenitori di Roosevelt provenivano per la maggior parte dalle classi meno abbienti non sondate dal giornale. Gallup, al contrario, riuscì ad azzeccare la previsione intervistando poche persone, ma con un campione rappresentativo. Quindi, avere tanti dati non garantisce per forza la bontà del campione.
Piccolo campione, buon campione
Insomma: un campione ottimale dovrà essere esiguo (di rado superiore a 1500 persone, ben poco se confrontate con i circa 50 milioni di persone maggiorenni residenti in Italia) e rappresentativo, ovvero, dovrà rispecchiare su scala minore alcune caratteristiche della popolazione di riferimento – come l’età, il genere e l’istruzione. Non qualcosa come un sondaggio su Twitter/X, per capirci. Ma questo non basta: c’è da mettersi al riparo anche da un’altra fonte d’errore, ovvero da quella che sta nella metodologia con cui i sondaggi vengono condotti.
La domanda da porsi è questa: se anche riuscissimo a intervistare le quote giuste che ricadono nelle varie fasce della popolazione, come si fa a sapere che l’opinione di chi risponde non sia diversa da quella di chi ha le stesse caratteristiche socio-demografiche ma non ha rilasciato alcuna opinione? Questo è uno dei problemi più annosi che chi si occupa di indagini sociali si ritrova a combattere, ovvero quello del bias di autoselezione (o self-selection bias), che può introdurre distorsioni nell’indagine. Si verifica quando i partecipanti a uno studio si selezionano in maniera autonoma. Spieghiamoci con un esempio: i sondaggi online sulla soddisfazione dei clienti di un ristorante. Probabilmente, un sondaggio del genere sarà compilato da persone con esperienze molto positive o molto negative. In questo modo, mancherà l’opinione della maggioranza moderata. Un bias che porta a risultati distorti che non riflettono con accuratezza l’opinione generale. Nel 1936, il Literary Digest commise anche questo genere di errore: recapitò a 10 milioni di persone il sondaggio, ma di queste risposero soltanto 2,4 milioni. Tutti coloro che non risposero costituiscono quello che lo statistico David Hand definisce dark data: sappiamo che le persone esistono ma non è dato sapere cosa pensino.

“I sondaggi sbagliano sempre!”
Di solito, con alcune accortezze è possibile prevedere anche piuttosto accuratamente i risultati delle elezioni, eppure si sente spesso dire che i sondaggi non indovinano mai. Ma sarà vero? Di sondaggi e di arbitri sportivi si sente parlare soltanto quando questi sbagliano, ma che cosa s’intende per “sbagliato”? Sbagliato, qui, vuol dire forse che si dava per vincitore chi poi ha perso, anche se il vantaggio era minimo e perciò i margini di errore si sovrapponevano? Oppure, significa che uno o più risultati erano al di fuori del loro margine d’errore? O, ancora, sta a indicare che non corrispondevano a perfezione ai risultati, ma che questi rientravano comunque nel margine d’errore?
Leave or Remain?!
Il referendum sulla Brexit del 23 giugno 2016 ha spiazzato un po’ tutti, e questo nonostante il “poll of polls” del Financial Times (una media ponderata di tutte le rivelazioni) pubblicato il giorno del voto in realtà evidenziasse un testa a testa (il Remain al 48%, il Leave 46%), e nei 26 sondaggi realizzati nelle due settimane precedenti, 14 vedessero il Leave in testa, 11 dessero il Remain in vantaggio e 1 prevedesse una perfetta parità. In questa occasione, il guaio risiedeva nel fatto che il sentire comune che la vincita del Leave fosse improbabile cozzava coi dati dei sondaggi, e non nel malfunzionamento di questi ultimi. Una cosa simile si ripeté pochi mesi dopo, in occasione della prima vittoria di Donald Trump alle elezioni presidenziali Usa, nonostante il candidato repubblicano avesse totalizzato circa 2 milioni e 900 mila voti in meno rispetto alla democratica Hillary Clinton.
Elezioni 2016 | Media dei sondaggi | Risultati finali |
Clinton | 46.8% | 48.2% |
Trump | 43.6% | 46.1% |
Differenza | Clinton +3.2 | Clinton +2.1 |
Errore: 1.1 punti |
In realtà, nel caso americano i risultati dei sondaggi furono piuttosto precisi: presentavano un margine d’errore addirittura inferiore a quello storicamente registrato nelle presidenziali. Considerato il sistema elettorale americano, su questa débâcle potrebbero aver influito sia la sovrastima dei sondaggi a livello nazionale rispetto ai singoli stati, sia il mancato inserimento del titolo di studio tra i criteri per la composizione dei campioni di cittadini da intervistare (non era significativo, fino a quel momento, perché le preferenze di voto tendevano a compensarsi). [3] Alla prova del voto vero, infatti, Trump risultò avanzare moltissimo tra le fasce meno istruite della popolazione. Per l’esperto di dati elettorali David Shor, nel 2016 gli elettori con bassi livelli di fiducia sociale tendevano a rispondere di meno ai sondaggi. Perciò, se questi elettori diffidenti fossero stati perlopiù tra gli elettori di Trump, i risultati dei sondaggi non potevano che risultare confusi.
In realtà, i sondaggi non avevano sottostimato Trump, e i numeri mostravano che quella con Hillary Clinton si presentava come una partita aperta. Tuttavia, a molti osservatori – forse anche per le caratteristiche del personaggio coinvolto – sembrava impossibile una vittoria di Trump. E ancora più eclatante il caso Brexit: i sondaggi per quel referendum davano un testa a testa, ma l’uscita del Regno Unito dall’Unione Europea era un esito che per tanti equivaleva a un cataclisma. Dunque, si dava quasi per scontata la vittoria del Remain, anche se non era quello il quadro che i sondaggi mostravano. In entrambi i casi, quindi, non è del tutto vero che i sondaggi siano stati clamorosamente smentiti.
Quanto sbagliano davvero i sondaggi politici?
In conclusione, i sondaggi politici non “sbagliano” tanto quanto si tende a credere. Spesso, le apparenti imprecisioni derivano non da difetti intrinseci dello strumento, ma da aspettative distorte del pubblico o da interpretazioni errate dei risultati. Come abbiamo visto nei casi della Brexit e delle elezioni USA 2016, i sondaggi mostravano effettivamente scenari di competizione serrata, con margini d’errore che includevano l’esito finale.
I sondaggi non sono strumenti di previsione infallibili, ma piuttosto tentativi di “fotografare” un momento specifico dell’opinione pubblica, soggetti a limiti metodologici inevitabili: campionamento imperfetto, bias di autoselezione, margini d’errore statistici e cambiamenti dell’opinione nell’ultimo momento. Ciò che conta davvero è avere un campione rappresentativo, più che numeroso, e interpretare i risultati con la giusta cautela, considerando sempre i margini d’errore dichiarati.
Quindi, i sondaggi non sono né infallibili né inutili: sono strumenti imperfetti ma preziosi per comprendere le tendenze dell’opinione pubblica, a patto che vengano letti con le dovute precauzioni metodologiche e senza aspettarsi da loro il potere di predire con certezza assoluta il futuro politico.
Note
- [1] Meng, X. L. (2018). Statistical paradises and paradoxes in big data (i) law of large populations, big data paradox, and the 2016 US presidential election. The Annals of Applied Statistics, 12(2), 685-726.
- [2] David J. Hand, Il tradimento dei numeri. I dark data e l’arte di nascondere la verità, 2019, Rizzoli
- [3] Pregliasco Lorenzo, Benedetti sondaggi: leggere i dati, capire il presente, 2022, add editore
Immagine di apertura di Mirko Grisendi da Pixabay