Se io voglio misurare la velocità di un treno in corsa ho svariati modi per farlo: se sono a terra prendo due punti distanti poniamo un chilometro e vedo quanto tempo ci mette il treno a transitare, oppure se sono sul treno conto quanti giri fa una ruota di circonferenza nota (poniamo 10 metri) in un minuto. 

Uso in tutti e due i casi un cronometro che, mettiamo, ha la precisione del centesimo di secondo. Otterrò in entrambi i casi una misura con un determinato margine di errore che è dovuto a due fattori: l’imprecisione intrinseca del cronometro ed il fatto che io “veda”, tramite la luce, gli eventi che ho deciso di cronometrare. Otterrò quindi una misura che, se sono corretto, avrà un margine d’indecisione che viene rappresentato in generale in questa maniera: il treno ha una velocità di 200 chilometri l’ora più o meno (anche qui uso un esempio) 100 metri. Ossia, per convenzione del linguaggio scientifico (ci sono raffinate teorie statistiche a confermare questo, ma per ora credetemi sulla parola), la probabilità che il treno vada ad una velocità tra 199,9 e 200,1 chilometri l’ora è del 70% circa. Se voglio una probabilità più alta (poniamo del 95%) allora devo aumentare l’imprecisione del doppio (ossia dire che esiste il 95% di probabilità che il treno abbia una velocità compresa tra 199,8 e 200,2 chilometri l’ora).

 

Si può raggiungere il 100%? No, ma in generale i fisici usano il primo margine di incertezza (quello del 70% circa), sapendo che se vogliono un margine di incertezza minore (il 95%) devono raddoppiare l’errore, e se lo vogliono ancora minore (il 99,7%) lo triplicano. Con questo sistema, per verificare una teoria (ad esempio la relatività galileiana che afferma che rispetto ad un osservatore ferma due velocità si sommano semplicemente) se io vado dall’ultimo vagone alla locomotiva correndo a 20 chilometri orari, rispetto ad un osservatore in terra io vado a 220 chilometri l’ora più o meno 200 metri (due errori di misura fatti col lo stesso strumento si devono sommare).

 

Come migliorare le misure ed abbassare l’incertezza? In due modi: costruendo strumenti sempre più sofisticati (cronometri con un’incertezza del millesimo di secondo o del milionesimo di secondo) e studiare bene lo “strumento” che porta l’informazione al sottoscritto (la luce).

 

Quando questa venne studiata la domanda che i fisici si fecero era se fosse una particella (ossia un corpuscolo con massa e dimensioni definite) oppure un’onda (che si trasmetteva in un mezzo come le onde si trasmettono nel mare). Newton, uno dei più grandi scienziati della storia era per la natura “corpuscolare” della luce (ma Newton, e questo ci tornerà utile in seguito, era un ciarlatano in tante sue manifestazioni: ad esempio era un astrologo famoso, all’epoca. Non per questo i suoi risultati matematici e fisici perdono il loro valore), ma un esperimento fatto agli inizi del XIX secolo da tale Young dimostrò senza ombra di dubbio (PER LA PRECISIONE DEGLI STRUMENTI DELL’EPOCA) che essa era un’onda.

 

Newton aveva sbagliato tutto, allora? Ovviamente no, ma in quel caso si. I fisici, che in genere sono molto più logici dei logici, non credevano in Newton: credevano nelle teorie di Newton che si erano dimostrate valide sotto esperimenti, e nel fatto che esse spiegavano meravigliosamente bene leggi empiriche quali quelle di Keplero (le leggi empiriche sono quelle ricavabili solo dall’osservazione, ma che non hanno un supporto teorico dietro: che i pianeti orbitassero su orbite ellittiche attorno al sole era la legge di Keplero, che questo, per la teoria gravitazionale e la dinamica classica fosse necessario è stato il merito della legge di Newton).

 

(1 – Continua)