Convivere con l’incertezza
L’arte di predire e misurare

di Gigi Rolandi

Intorno al 1850 l’astronomo francese Urban le Verrier confrontava misure precise al secondo dei tempi del passaggio di Mercurio davanti al Sole, fatte nei 150 anni precedenti, con quanto predetto dalla teoria di Newton. Trovò una differenza importante: la misura della precessione secolare del perielio (punto di massimo avvicinamento al Sole) dell’orbita era circa del 10% più grande di quanto predetto e le incertezze sulla predizione e sulle misure erano molto inferiori al 10%.
Il confronto tra misure e predizioni teoriche, insieme alla corretta valutazione delle incertezze sperimentali e teoriche, indicò quindi, già nella seconda metà dell’800, la presenza di una nuova fisica, necessaria per descrivere correttamente il mondo naturale (vd. Einstein al limite, ndr). Questa fu teorizzata solo nel 1915, grazie ad Albert Einstein e alla sua teoria della relatività generale, che estendeva la teoria di Newton e prediceva correttamente le piccole differenze dell’orbita nel caso estremo di un pianeta così vicino al Sole.
Non c’è una regola generale per valutare l’incertezza su una predizione teorica. A volte il calcolo della predizione è così complesso che si riesce a svolgerlo solo in maniera approssimata e bisogna in questo caso valutare quantitativamente l’effetto delle approssimazioni fatte.
Altre volte la predizione dipende da altre variabili note sperimentalmente con una certa accuratezza: nel caso della precessione del perielio di Mercurio, la precisione della predizione dipendeva dalla massa di Venere, che era nota al tempo di Le Verrier con un’accuratezza superiore al 10%.
In fondo, ce lo fece capire già Galileo: partendo da osservazioni sperimentali quantitative si può giungere a relazioni quantitative tra le variabili osservabili sperimentalmente (chiamate dai fisici semplicemente “osservabili”), cioè a modelli o teorie, che sono il cuore della comprensione del mondo naturale. La fisica progredisce così, paragonando tra loro osservazioni sperimentali quantitative e predizioni teoriche quantitative. In questo processo è fondamentale il concetto di incertezza delle misure e delle previsioni teoriche. L’incertezza è la stima della differenza tra il valore dell’osservabile misurata (o predetta) e il suo valore vero, cioè quel valore che potremmo idealmente misurare (o predire) solo con uno strumento o un metodo infinitamente preciso. Questa incertezza nel gergo dei fisici viene chiamata spesso “errore”, ma questo, per l’accezione usuale del termine, in realtà è uno sbaglio! L’errore, così come lo intendiamo comunemente infatti, è qualcosa che si può correggere, mentre l’incertezza no. L’incertezza è parte centrale del processo di confronto.
Misura e previsione sono in accordo quando la loro differenza è confrontabile con l'incertezza teorica o con quella sperimentale.
 
a.
La statua di Urbain Le Verrier (1811-1877) a Parigi.

 

Ma come si valuta l’incertezza di una misura? È questa l’arte della fisica! Le incertezze sono di solito categorizzate in sistematiche e statistiche. Le incertezze sistematiche includono le approssimazioni fatte nella definizione o nella realizzazione delle misure, i limiti degli strumenti utilizzati e l’imperfetta conoscenza dei parametri che intervengono nell’analisi dei dati.
Il comitato congiunto per i manuali di metrologia ha prodotto un manuale (vd. link sul web, ndr), in cui le incertezze delle misura sono opportunamente classificate in varie categorie. Molte misure tipiche della vita comune sono limitate da incertezze sistematiche. Quando utilizziamo un metro comune per misurare una lunghezza, la precisione è limitata dallo strumento: la distanza tra le tacche che indicano i millimetri. La misura della velocità fatta con il tachimetro installato sulle automobili è realizzata in maniera approssimata, poiché si basa su una proporzionalità assunta tra la velocità di rotazione dell’albero di trasmissione e lo spazio percorso dal veicolo: sgonfiando o gonfiando i pneumatici o semplicemente caricando molto o poco l’automobile possiamo variare questo fattore di proporzionalità. Quando invece ci pesiamo con la bilancia di casa, è la misura che è approssimata: il nostro peso cambia di giorno in giorno a causa di quello che mangiamo o dell’attività fisica che facciamo, e questa variazione è più grande della precisione dello strumento. In tal senso quindi il nostro peso è una misura non riproducibile. Le incertezze statistiche sono invece le variazioni osservate in molte ripetizioni della stessa misura in condizioni apparentemente identiche. Alcuni fenomeni fisici hanno difatti una casualità intrinseca. L’incertezza statistica di una misura è legata al fatto che avendo ottenuto un certo risultato in un esperimento, rifacendolo si potrebbe ottenerne un altro. Un tipico esempio è il lancio ripetuto di dieci monete. Se al primo lancio si sono ottenute, per esempio, 5 teste e 5 croci, ripetendo il lancio non è detto che si ottenga lo stesso risultato, potrebbe invece uscire 3 volte testa e 7 croce, o 6 volte croce e 4 testa. Quanti tra i milioni di neutroni liberi all’interno di una “bottiglia” di confinamento (vd. Vite da neutroni, ndr) decadono in dieci minuti? Questo numero varia in maniera casuale: si può dimostrare che la scala tipica di questa variazione è inversamente proporzionale alla radice quadrata del numero di neutroni nella bottiglia. Per migliorare l’incertezza statistica di questa misura, si può aumentare il numero di neutroni o ripetere più volte la misura nelle stesse condizioni e fare una media tra i risultati.
Il confronto tra i risultati delle singole misure, che ci si aspetta siano distribuite secondo una curva di Gauss (vd. Per un pugno di sigma, ndr), dà anche un’indicazione sulla riproducibilità delle misure stesse. Il confronto è una parte essenziale del progresso in fisica. Quando bisogna fare calcoli molto complessi e accurati per predire una osservabile, è importante che questi calcoli vengano fatti in parallelo e indipendentemente da più di un gruppo di fisici teorici, in modo che i risultati si possano confrontare oggettivamente.

 
b.
In un esperimento la precisione dello strumento di misura ha un’influenza sull’incertezza sistematica dello stesso.
 
c.
Uno dei punti chiave del progresso della conoscenza scientifica è il continuo confronto tra teoria ed esperimento. Il maggiore o minore accordo tra i due fornisce informazioni importanti alla comprensione dell’universo in cui viviamo. Sia la predizione che la misura sono affette da incertezze: se indichiamo con un punto il valore centrale di entrambe, possiamo rappresentarne l’incertezza come una regione più o meno grande che contiene con una certa probabilità i risultati di ripetute predizioni o misure della stessa quantità. Se ora confrontiamo la predizione con la misura, possiamo avere tre situazioni diverse: a sinistra, le incertezze si sovrappongono ampiamente, per cui possiamo affermare che la predizione e la misura sono in accordo; a destra, non c’è sovrapposizione, per cui possiamo affermare che la misura e la predizione non sono in accordo; al centro vediamo che le due incertezze si toccano appena: in questo caso non possiamo trarre conclusioni e dobbiamo diminuire le incertezze sulle misure e/o sulle predizioni per poter arrivare a una conclusione.
 
E dalla loro compatibilità nasce la “confidenza” sull’accuratezza della predizione. Se le predizioni non sono compatibili, bisogna riguardare la logica del calcolo e trovare i motivi delle differenze. E lo stesso vale per i risultati sperimentali. Il Large Hadron Collider (Lhc) del Cern, ad esempio, è uno strumento unico che permette di esplorare per la prima volta condizioni in cui la materia collide ad altissima energia. Ci sono due collaborazioni, Atlas e Cms, che misurano le collisioni con apparati sperimentali diversi e le analizzano indipendentemente, fornendo un controllo incrociato dei risultati ottenuti. Il confronto fa parte del processo scientifico, richiede tempo e permette di evitare gli errori umani, che sono sempre possibili sia nei calcoli sia nelle misure. Nell’autunno del 2011 la collaborazione Opera, analizzando i dati sui tempi di percorrenza dei neutrini dal Cern al laboratorio del Gran Sasso, era giunta alla conclusione che i neutrini viaggiavano a una velocita superiore a quella della luce (vd. Star Track, ndr). La reazione della comunità scientifica è stata di cercare velocemente un confronto sperimentale: la sequenza temporale con cui i neutrini venivano inviati dal Cern è stata modificata, per rendere più efficace la misura del tempo di percorrenza, e altri esperimenti al laboratorio del Gran Sasso si sono attrezzati per effettuare questa misura. Già alla fine della primavera del 2012 il problema era stato archiviato e il risultato sperimentale dei neutrini superluminali non è stato confermato, anche perché nel frattempo era stato identificato dalla collaborazione Opera un problema tecnico che causava l’apparente discrepanza tra misura e predizione: un errore nel senso comune della parola, cioè uno sbaglio! Il confronto tra due misure della stessa osservabile si basa sulle rispettive incertezze, che includono sia gli effetti sistematici, che possono essere ridotti tramite un controllo del metodo sperimentale, sia gli effetti statistici, che si possono ridurre ripetendo le misure o aumentando la sensibilità del metodo sperimentale. Le incertezze statistiche giocano talvolta brutti scherzi e per questo motivo la comunità scientifica ha deciso che una scoperta, per essere dichiarata tale, deve avere una significanza statistica di almeno cinque “deviazioni standard” o, come si dice in gergo, di cinque “sigma”. In pratica si valuta la compatibilità dei dati sperimentali sotto due ipotesi: l’assenza della scoperta, data l’esistenza dei fenomeni noti, e la presenza della scoperta, data l’esistenza dei medesimi fenomeni noti. Per dichiarare una scoperta si richiede che i dati siano compatibili con la seconda ipotesi (presenza della scoperta) e che la probabilità della prima ipotesi (assenza della scoperta), chiamata “p-value”, sia minore di una parte su 3,5 milioni. Cioè, che la probabilità che i soli fenomeni noti producano una distribuzione dei dati così estrema da mimare un fenomeno nuovo (la scoperta) sia minore di una parte su 3,5 milioni. Insomma, per avere la certezza di una scoperta si richiede che la discrepanza tra la misura e la predizione sia più grande di cinque volte la stima dell’incertezza sulla differenza tra misura e predizione. La quantità di dati analizzati gioca un ruolo molto importante: in presenza di una vera scoperta, il p-value diminuisce all’aumentare dei dati analizzati.
 
[as] approfondimento
La Divina casualità


Quale è la probabilità che una scimmia che batte a caso i tasti di una tastiera componga la prima terzina della Divina Commedia? È un numero piccolissimo: la scimmia dovrebbe azzeccare quell’unica combinazione su 10 alla 134 combinazioni possibili. 10 alla 134 è un numero enorme: un 1 seguito da 134 zeri! Per confronto, tutte le stelle dell’universo sono solo pari a un 1 seguito da 22 zeri! Gli scienziati si dicono (abbastanza) sicuri di una scoperta quando la probabilità che la scoperta stessa sia dovuta al caso e non a un nuovo fenomeno non noto fino a ora è più piccola di 1 su 3,5 milioni (le cinque sigma, vd. anche in Asimmetrie n. 20 fig. c in Per qualche sigma in più, ndr). Questa è la stessa probabilità che la scimmia scrivendo solo cinque lettere componga per caso (appena!) i primi cinque caratteri della Divina Commedia. Se però la scimmia compone una pagina da circa 400 caratteri, dobbiamo controllare se l’inizio della Divina Commedia appare per caso in questa pagina (è il famoso “look elsewhere effect”, cioè il “guardare altrove”, vd. Per un pugno di sigma, ndr). In questo caso la probabilità delle cinque sigma corrisponde alla probabilità di trovare in fila i primi 7 caratteri. [Barbara Sciascia]
 
Questa probabilità di una parte su 3,5 milioni può sembrare molto piccola, ma bisogna tenere in conto che vengono effettuati molti esperimenti diversi e che ogni esperimento osserva molte distribuzioni diverse. Con una probabilità più alta, per esempio di quattro sigma, equivalente a una parte su 31.000, potremmo annunciare molte false scoperte. L’esperienza recente a Lhc ha mostrato l’importanza di questa convenzione. Nel dicembre 2011, Atlas e Cms hanno mostrato in un seminario al Cern i primi dati sulla ricerca del bosone di Higgs. Anche se molti scienziati presenti al seminario erano convinti che il bosone di Higgs fosse stato scoperto, l’analisi statistica mostrava un’evidenza minore di cinque sigma. Sono stati raccolti altri dati nel 2012, che hanno mostrato di nuovo lo stesso comportamento compatibile con la presenza del bosone di Higgs. Il p-value delle distribuzioni rilevanti è diminuito e l’analisi complessiva ha raggiunto un livello di confidenza tale da superare i cinque sigma e da rendere possibile l’annuncio della scoperta. Nel dicembre 2015, Atlas e Cms hanno mostrato, sempre in un seminario al Cern, i primi dati sul nuovo run di Lhc all’energia di 13 TeV. Questi dati mostravano un fenomeno inaspettato: gli eventi in cui erano stati prodotti due fotoni molto energetici e senza altre particelle intorno avevano una distribuzione diversa da quanto predetto dalla teoria. La distribuzione mostrava un eccesso di eventi indicativo della possibile produzione di una nuova particella di massa 750 GeV, che decadeva appunto in due fotoni. Ma l’analisi statistica di questo fenomeno mostrava un’evidenza minore di cinque sigma. Sono stati raccolti altri dati nel 2016 che non hanno mostrato la stessa deviazione, e così il p-value della distribuzione incriminata è aumentato invece che diminuire, e l’entusiasmo di molti - insieme alle perplessità di molti altri - si è assopito (vd. Per un pugno di sigma, ndr). La conoscenza scientifica avanza quindi con un processo intrinsecamente scrupoloso. Occorre tempo per produrre e analizzare abbastanza dati in Lhc, per ridurre l’incertezza statistica sulle misure a un livello tale da poter dichiarare una scoperta. Occorre tempo per fare e confrontare calcoli complessi prodotti da gruppi teorici diversi e occorre tempo per fare nuovi esperimenti capaci di confermare una “scoperta”, quando questa è stata fatta da un solo esperimento. Questo processo continuo di confronto, basato su calcoli e misure sperimentali e su una corretta valutazione delle loro incertezze è lento, ma è anche solido. La comunità scientifica vi è abituata: prima di accettare la scoperta di un nuovo fenomeno, sa che deve aspettare la sua evidenza statistica a cinque sigma e la conferma da più di un esperimento.
 

d.
Il tunnel di Lhc al Cern di Ginevra.

 
Questo tempo di avanzamento della conoscenza può essere molto lungo rispetto alla velocità con cui oggi viaggia l’informazione. Il grande pubblico è molto interessato ai risultati scientifici, e questo è un bene, ma bisogna sempre tenere presente che una scoperta, prima di essere accettata come tale dalla comunità scientifica, ha bisogno di confronti e di una corretta valutazione delle incertezze. E che questo processo richiede del tempo. Fare un titolo a effetto del tipo “Newton aveva torto”, quando Le Verrier mostrava l’incompatibilità della misura dell’orbita di Mercurio con le previsioni della teoria di Newton o quando Einstein mostrava che la relatività generale spiegava questa incompatibilità, sarebbe stato uno sbaglio, perché Newton non aveva torto! La sua teoria viene utilizzata ancora oggi in moltissimi casi, quando l’incertezza della predizione dovuta al non utilizzo della relatività generale è piccola rispetto ad altre incertezze del caso in esame. Al contrario, sarebbe sbagliato usare oggi la teoria di Newton senza valutare, appunto, l’incertezza legata al non utilizzo della relatività generale. Le incertezze quindi - e non gli errori - fanno progredire la comprensione del mondo naturale. In tutti i sensi comuni di queste due parole.
 

Biografia
Gigi Rolandi è ricercatore al Cern e professore di fisica sperimentale delle alte energie alla Scuola Normale di Pisa. Il suo campo principale di ricerca è la fisica degli acceleratori e i test di precisione del modello standard. Ha partecipato agli esperimenti Aleph e Cms con responsabilità centrali nella costruzione dei tracciatori e nell’analisi dei dati. È membro degli editorial board di Physics Letters B e Jhep ed è membro dell’Accademia Pontaniana.


Link
www.bipm.org/utils/common/documents/jcgm/JCGM_100_2008_E.pdf
https://it.wikipedia.org/wiki/Precessione_del_perielio_dell'orbita_di_ Mercurio
http://home.cern/topics/large-hadron-collider https://atlas.web.cern.ch/Atlas/Collaboration/
http://cms.web.cern.ch 
https://en.wikipedia.org/wiki/Faster-than-light_neutrino_anomaly


icon-pdf [scarica pdf]

 
DOI: 10.23801/asimmetrie.2017.22.1
 

{jcomments on}

 ©asimmetrie   Istituto Nazionale di Fisica Nucleare / via E. Fermi 40 / 00044 Frascati [Roma] Italia
Ufficio Comunicazione INFN / P.zza dei Caprettari 70 / 00186 Roma Italia
Registrazione del Tribunale di Roma n. 336/2012 del 7 dicembre 2012
powered by Multimedia Service e INFN-LNF servizio di calcolo
Informativa sulla Privacy e Cookie Policy