p. 1/23 INFORMAZIONI Prossime lezioni Giorno Ora Dove Giovedi 25/02 14:30 Aula informatica (4 gruppi) Martedi 02/03 14:30 P50 Giovedi 04/03 14:30 Aula informatica (4 gruppi) Martedi 09/03 14:30 P50
p. 1/23 INFORMAZIONI Prossime lezioni Giorno Ora Dove Giovedi 25/02 14:30 Aula informatica (4 gruppi) Martedi 02/03 14:30 P50 Giovedi 04/03 14:30 Aula informatica (4 gruppi) Martedi 09/03 14:30 P50 Appelli d esame Appello Esame Consegna relazioni entro I Martedi 16/03 Venerdi 12/03 II Venerdi 26/03 Venerdi 19/03
p. 2/23 LA DISTRIBUZIONE NORMALE o DI GAUSS Osservando gli istogrammi delle misure e degli scarti, nel caso di osservazioni ripetute in identiche condizioni Gli istogrammi sono campanulari e simmetrici, con la colonna centrale corrispondente alla media aritmetica (misure) e allo zero (scarti).
p. 2/23 LA DISTRIBUZIONE NORMALE o DI GAUSS Osservando gli istogrammi delle misure e degli scarti, nel caso di osservazioni ripetute in identiche condizioni Gli istogrammi sono campanulari e simmetrici, con la colonna centrale corrispondente alla media aritmetica (misure) e allo zero (scarti). Le misure prossime alla media sono più numerose di quelle lontane. Gli scarti più piccoli sono più numerosi di quelli grandi.
p. 2/23 LA DISTRIBUZIONE NORMALE o DI GAUSS Osservando gli istogrammi delle misure e degli scarti, nel caso di osservazioni ripetute in identiche condizioni Gli istogrammi sono campanulari e simmetrici, con la colonna centrale corrispondente alla media aritmetica (misure) e allo zero (scarti). Le misure prossime alla media sono più numerose di quelle lontane. Gli scarti più piccoli sono più numerosi di quelli grandi. Il numero delle misure maggiori della media è all incirca uguale a quello delle misure minori della media. Il numero deli scarti positivi (in eccesso) è all incirca uguale a quello degli scarti negativi (in difetto).
LA DISTRIBUZIONE NORMALE o DI GAUSS Osservando gli istogrammi delle misure e degli scarti, nel caso di osservazioni ripetute in identiche condizioni Gli istogrammi sono campanulari e simmetrici, con la colonna centrale corrispondente alla media aritmetica (misure) e allo zero (scarti). Le misure prossime alla media sono più numerose di quelle lontane. Gli scarti più piccoli sono più numerosi di quelli grandi. Il numero delle misure maggiori della media è all incirca uguale a quello delle misure minori della media. Il numero deli scarti positivi (in eccesso) è all incirca uguale a quello degli scarti negativi (in difetto). Una funzione analitica atta a rappresentare una tale distribuzione deve essere simmetrica, unimodale e campanulare. p. 2/23
p. 3/23 DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI Proprietà ipotetiche dedotte da Gauss dalle osservazioni: s = x x scarto di una misura dal valore vero
p. 3/23 DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI Proprietà ipotetiche dedotte da Gauss dalle osservazioni: s = x x scarto di una misura dal valore vero 1. Se s > 0 e s < 0 equiprobabili distribuzione degli scarti simmetrica rispetto allo zero.
p. 3/23 DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI Proprietà ipotetiche dedotte da Gauss dalle osservazioni: s = x x scarto di una misura dal valore vero 1. Se s > 0 e s < 0 equiprobabili distribuzione degli scarti simmetrica rispetto allo zero. 2. Scarti piccoli più probabili: se s 1 > s 2 P( s 1 ) < P( s 2 ).
p. 3/23 DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI Proprietà ipotetiche dedotte da Gauss dalle osservazioni: s = x x scarto di una misura dal valore vero 1. Se s > 0 e s < 0 equiprobabili distribuzione degli scarti simmetrica rispetto allo zero. 2. Scarti piccoli più probabili: se s 1 > s 2 P( s 1 ) < P( s 2 ). 3. Condizione di normalizzazione (ipotesi aggiuntiva) + f(s)ds = 1
p. 4/23 DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI In base alle 3 ipotesi e dal principio della media aritmetica a Gauss derivò che la distribuzione degli scarti di misure affette da errori accidentali è descritta da: f(s) = h π e h2 s 2 funzione di Gauss o legge normale di distribuzione degli errori
p. 5/23 DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI Soddisfa alle 3 ipotesi iniziali:
p. 5/23 DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI Soddisfa alle 3 ipotesi iniziali: 1. Forma a campana simmetrica rispetto a s = 0;
p. 5/23 DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI Soddisfa alle 3 ipotesi iniziali: 1. Forma a campana simmetrica rispetto a s = 0; 2. Decrescente per s crescente;
p. 5/23 DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI Soddisfa alle 3 ipotesi iniziali: 1. Forma a campana simmetrica rispetto a s = 0; 2. Decrescente per s crescente; 3. Tendente a zero per s ±, come richiesto dalla condizione di normalizzazione)
p. 5/23 DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI Soddisfa alle 3 ipotesi iniziali: 1. Forma a campana simmetrica rispetto a s = 0; 2. Decrescente per s crescente; 3. Tendente a zero per s ±, come richiesto dalla condizione di normalizzazione) La legge normale degli scarti dipende da un solo parametro h, detto modulo di precisione della misura. Tanto maggiore è h tanto minore è la dispersione delle misure rispetto alla media.
p. 5/23 DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI Soddisfa alle 3 ipotesi iniziali: 1. Forma a campana simmetrica rispetto a s = 0; 2. Decrescente per s crescente; 3. Tendente a zero per s ±, come richiesto dalla condizione di normalizzazione) La legge normale degli scarti dipende da un solo parametro h, detto modulo di precisione della misura. Tanto maggiore è h tanto minore è la dispersione delle misure rispetto alla media. Per h descrecente la campana si abbassa e si allarga.
p. 6/23 PROPRIETÀ DELLA LEGGE NORMALE Hp: Supponiamo di aver infinite misure, N
p. 6/23 PROPRIETÀ DELLA LEGGE NORMALE Hp: Supponiamo di aver infinite misure, N Valore di aspettazione dello variabile scarto: E(s) = h + π h + π sf(s)ds = se h2 s 2 ds = 0 è identicamente nullo.
p. 6/23 PROPRIETÀ DELLA LEGGE NORMALE Hp: Supponiamo di aver infinite misure, N Valore di aspettazione dello variabile scarto: E(s) = h + π h + π sf(s)ds = se h2 s 2 ds = 0 è identicamente nullo. Ne segue un importantissima conseguenza: E(s) = E (x x ) = E(x) x = 0 E(x) = x
p. 7/23 PROPRIETÀ DELLA LEGGE NORMALE E(x) = x
p. 7/23 PROPRIETÀ DELLA LEGGE NORMALE E(x) = x Il valore di aspettazione delle misure di una grandezza fisica affette solo da errori casuali esiste, e coincide con il valore vero della grandezza misurata.
p. 8/23 PROPRIETÀ DELLA LEGGE NORMALE ERRORE MEDIO θ: il valore di aspettazione del modulo dello scarto θ = E( s ) θ = 1 h π
p. 8/23 PROPRIETÀ DELLA LEGGE NORMALE ERRORE MEDIO θ: il valore di aspettazione del modulo dello scarto θ = E( s ) θ = 1 h π ERRORE PROBABILE ρ: quel valore di s per cui metà delle misure ha s ρ +ρ ρ f(s)ds = 0.5
p. 8/23 PROPRIETÀ DELLA LEGGE NORMALE ERRORE MEDIO θ: il valore di aspettazione del modulo dello scarto θ = E( s ) θ = 1 h π ERRORE PROBABILE ρ: quel valore di s per cui metà delle misure ha s ρ +ρ ρ f(s)ds = 0.5 ERRORE QUADRATICO MEDIO σ: è la radice quadrata del valore di aspettazione del quadrato degli scarti ( E(s 2 ) = 2h 1 ) σ = 1 2 2h
p. 9/23 RELAZIONI TEORICHE Per misure affette da errori distribuiti secondo la legge normale: l errore quadratico medio ed il modulo di precisione h soddisfano alla relazione σ = 1 h 2
p. 9/23 RELAZIONI TEORICHE Per misure affette da errori distribuiti secondo la legge normale: l errore quadratico medio ed il modulo di precisione h soddisfano alla relazione σ = 1 h 2 Il rapporto tra errore probabile ed errore quadratico medio vale ρ σ 0.674
p. 9/23 RELAZIONI TEORICHE Per misure affette da errori distribuiti secondo la legge normale: l errore quadratico medio ed il modulo di precisione h soddisfano alla relazione σ = 1 h 2 Il rapporto tra errore probabile ed errore quadratico medio vale ρ σ 0.674 Il rapporto tra errore medio ed errore quadratico medio vale θ σ 0.798
RELAZIONI TEORICHE p. 10/23
p. 11/23 DISTRIBUZIONI DELLE MISURE E DEGLI SCARTI Esprimendo h in funzione di σ la legge di Gauss diventa s2 f(s) = 1 σ e 2σ 2 2π
p. 11/23 DISTRIBUZIONI DELLE MISURE E DEGLI SCARTI Esprimendo h in funzione di σ la legge di Gauss diventa s2 f(s) = 1 σ e 2σ 2 2π Esprimendo s = x µ otteniamo f(x) = 1 σ 2π e 1 2 ( x µ ) 2 σ
p. 11/23 DISTRIBUZIONI DELLE MISURE E DEGLI SCARTI Esprimendo h in funzione di σ la legge di Gauss diventa s2 f(s) = 1 σ e 2σ 2 2π Esprimendo s = x µ otteniamo f(x) = 1 σ 2π e 1 2 ( x µ ) 2 σ
p. 12/23 LO SCARTO NORMALIZZATO Essendo la distribuzione normale largamente utilizzata e non avendo il suo integrale indefinito una forma analitica, per il calcolo delle probabilità vengono usati valori pre-tabulati.
p. 12/23 LO SCARTO NORMALIZZATO Essendo la distribuzione normale largamente utilizzata e non avendo il suo integrale indefinito una forma analitica, per il calcolo delle probabilità vengono usati valori pre-tabulati. Impossibile avere tabelle per tutte le possibili coppie di valori dei parametri σ e µ. È quindi conveniente rendere il calcolo della funzione cumulativa F(x) indipendente dai parametri.
p. 12/23 LO SCARTO NORMALIZZATO Essendo la distribuzione normale largamente utilizzata e non avendo il suo integrale indefinito una forma analitica, per il calcolo delle probabilità vengono usati valori pre-tabulati. Impossibile avere tabelle per tutte le possibili coppie di valori dei parametri σ e µ. È quindi conveniente rendere il calcolo della funzione cumulativa F(x) indipendente dai parametri. Definiamo scarto normalizzato o variabile normale standardizzata t = x µ σ
p. 12/23 LO SCARTO NORMALIZZATO Essendo la distribuzione normale largamente utilizzata e non avendo il suo integrale indefinito una forma analitica, per il calcolo delle probabilità vengono usati valori pre-tabulati. Impossibile avere tabelle per tutte le possibili coppie di valori dei parametri σ e µ. È quindi conveniente rendere il calcolo della funzione cumulativa F(x) indipendente dai parametri. Definiamo scarto normalizzato o variabile normale standardizzata t = x µ σ La densità di probabilità della variabile t è ϕ(t) = 1 2π e 1 2 t2
p. 13/23 STRIBUZIONE NORMALE STANDARDIZZAT Indipendente dall errore quadratico medio, ovvero dalla precisione della misura.
p. 13/23 STRIBUZIONE NORMALE STANDARDIZZAT Indipendente dall errore quadratico medio, ovvero dalla precisione della misura. La distribuzione normale standardizzata è una particolare normale con E(x) = 0 e σ = 1. ϕ(t) = 1 2π e 1 2 t2
p. 14/23 STRIBUZIONE NORMALE STANDARDIZZAT Alla normale standardizzata può essere ricondotta qualunque funzione di Gauss, effettuando il cambio di variabili: t = x µ σ z 1 µ+zσ valendo la relazione: e 1 1 2 t2 dt = 2π σ 2π e 1 2 z µ zσ ( x µ σ ) 2
p. 14/23 STRIBUZIONE NORMALE STANDARDIZZAT Alla normale standardizzata può essere ricondotta qualunque funzione di Gauss, effettuando il cambio di variabili: t = x µ σ z 1 µ+zσ valendo la relazione: e 1 1 2 t2 dt = 2π σ 2π e 1 2 z µ zσ ( x µ σ Esistono delle tabelle per il calcolo dell integrale della distribuzione normale standardizzata ) 2
p. 14/23 STRIBUZIONE NORMALE STANDARDIZZAT Alla normale standardizzata può essere ricondotta qualunque funzione di Gauss, effettuando il cambio di variabili: t = x µ σ z 1 µ+zσ valendo la relazione: e 1 1 2 t2 dt = 2π σ 2π e 1 2 z µ zσ ( x µ σ Esistono delle tabelle per il calcolo dell integrale della distribuzione normale standardizzata La distribuzione normale standardizzata presenta le stesse caratteristiche della distribuzione normale NON standardizzata. Ciò che distingue le due distribuzioni è che la normale standardizzata ha µ = 0 e σ = 1. ) 2
p. 15/23 STRIBUZIONE NORMALE STANDARDIZZAT L aspetto più importante della standardizzazione è che trasformando una distribuzione normale di parametri (µ, σ) nella distribuzione standardizzata (0, 1), le aree individuate nella prima da due qualsiasi ascisse x 1 e x 2 sono uguali alle aree individuate nella seconda dagli scarti normalizzati t 1 = x 1 µ σ t 2 = x 2 µ σ
p. 16/23 IBUZIONE NORMALE STANDARDIZZ La distribuzione normale standardizzata è rappresentata da UNA SOLA CURVA, mentre la distribuzione normale generale è costituita da una famiglia a seconda dei valori di µ e σ.
p. 17/23 LO SCARTO NORMALIZZATO ( ) Pr t [ 1, +1] ( ) Pr t [ 2, +2] ( ) Pr t [ 3, +3] +1 1 = 2π 1 +2 1 = 2π 2 +3 1 = 2π 3 e t2 2 dt = 0.6827... e t2 2 dt = 0.9545... e t2 2 dt = 0.9973...
p. 18/23 LO SCARTO NORMALIZZATO Ricordando che t = s/σ ( ) Pr s [ σ, +σ] ( ) Pr s [ 2σ, +2σ] ( ) Pr s [ 3σ, +3σ] ( ) Pr t [ 1, +1] ( ) Pr t [ 2, +2] ( ) Pr t [ 3, +3] 0.6827 0.9545 0.9973
p. 19/23 INTERPRETAZIONE PROBABILISTICA DI σ Duplice lettura:
p. 19/23 INTERPRETAZIONE PROBABILISTICA DI σ Duplice lettura: Le misure affette da errori casuali (e quindi normali) hanno una probabilità del 68% di cadere all interno di un intervallo di semiampiezza σ centrato sul valore vero della grandezza misurata. Il 95% e il 99,7% (quasi la totalità) delle misure sono affette da errore in modulo minore o al piu uguale a 2σ e 3σ rispettivemente. µ σ µ µ + σ
p. 19/23 INTERPRETAZIONE PROBABILISTICA DI σ Duplice lettura: Le misure affette da errori casuali (e quindi normali) hanno una probabilità del 68% di cadere all interno di un intervallo di semiampiezza σ centrato sul valore vero della grandezza misurata. Il 95% e il 99,7% (quasi la totalità) delle misure sono affette da errore in modulo minore o al piu uguale a 2σ e 3σ rispettivemente. µ σ µ µ + σ L intervallo di semiampiezza σ centrato su di una misura qualsiasi di un campione ha pertanto una probabilità del 68% di contenere il valore vero, sempreché gli errori siano casuali e normali. x σ x x + σ
p. 20/23 STIMA DELL ERRORE QUADRATICO MEDIO Si abbiano n misure x i di una stessa grandezza fisica
p. 20/23 STIMA DELL ERRORE QUADRATICO MEDIO Si abbiano n misure x i di una stessa grandezza fisica Sia ǫ i = x i x l errore di una misura, dove x è il valore vero (incognito) della grandezza fisica in esame.
p. 20/23 STIMA DELL ERRORE QUADRATICO MEDIO Si abbiano n misure x i di una stessa grandezza fisica Sia ǫ i = x i x l errore di una misura, dove x è il valore vero (incognito) della grandezza fisica in esame. Sia ǫ = 1 n ǫ i l errore da associare alla media aritmetica. n i=1
p. 20/23 STIMA DELL ERRORE QUADRATICO MEDIO Si abbiano n misure x i di una stessa grandezza fisica Sia ǫ i = x i x l errore di una misura, dove x è il valore vero (incognito) della grandezza fisica in esame. Sia ǫ = 1 n ǫ i l errore da associare alla media aritmetica. n i=1 Sia s i = x i x lo scarto di una misura rispetto alla media aritmetica.
p. 20/23 STIMA DELL ERRORE QUADRATICO MEDIO Si abbiano n misure x i di una stessa grandezza fisica Sia ǫ i = x i x l errore di una misura, dove x è il valore vero (incognito) della grandezza fisica in esame. Sia ǫ = 1 n ǫ i l errore da associare alla media aritmetica. n i=1 Sia s i = x i x lo scarto di una misura rispetto alla media aritmetica. Ne segue che ǫ i = s i + ǫ.
p. 20/23 STIMA DELL ERRORE QUADRATICO MEDIO Si abbiano n misure x i di una stessa grandezza fisica Sia ǫ i = x i x l errore di una misura, dove x è il valore vero (incognito) della grandezza fisica in esame. Sia ǫ = 1 n ǫ i l errore da associare alla media aritmetica. n i=1 Sia s i = x i x lo scarto di una misura rispetto alla media aritmetica. Ne segue che ǫ i = s i + ǫ. Quadriamo: (ǫ i ) 2 = (s i ) 2 + ǫ 2 + 2s i ǫ
p. 20/23 STIMA DELL ERRORE QUADRATICO MEDIO Si abbiano n misure x i di una stessa grandezza fisica Sia ǫ i = x i x l errore di una misura, dove x è il valore vero (incognito) della grandezza fisica in esame. Sia ǫ = 1 n ǫ i l errore da associare alla media aritmetica. n i=1 Sia s i = x i x lo scarto di una misura rispetto alla media aritmetica. Ne segue che ǫ i = s i + ǫ. Quadriamo: (ǫ i ) 2 = (s i ) 2 + ǫ 2 + 2s i ǫ Sommiamo da 1 a n n n (ǫ i ) 2 = [(s i ) 2 + ǫ 2 + 2s i ǫ] = i=1 n (ǫ i ) 2 = i=1 i=1 i=1 n (s i ) 2 + nǫ 2 n (s i ) 2 + nǫ 2 + 2ǫ i=1 n i=1 s i
p. 21/23 TIMA DELL ERRORE QUADRATICO MEDIO Dividiamo per n n i=1 (ǫ i) 2 n = n i=1 (s i) 2 n + ǫ 2
p. 21/23 TIMA DELL ERRORE QUADRATICO MEDIO n i=1 Dividiamo per n (ǫ i) 2 n La varianza è dunque: = n i=1 (s i) 2 n + ǫ 2 (3) σ 2 = n i=1 (s i) 2 n + ǫ 2 espressa in funzione degli scarti e dell errore della media, ancora incognito.
p. 21/23 TIMA DELL ERRORE QUADRATICO MEDIO n i=1 Dividiamo per n (ǫ i) 2 n La varianza è dunque: = n i=1 (s i) 2 n + ǫ 2 (5) σ 2 = n i=1 (s i) 2 n + ǫ 2 espressa in funzione degli scarti e dell errore della media, ancora incognito. Quadriamo ( l errore della media: ǫ 2 = 1 n ) 2 ǫ n 2 i = 1 n (ǫ 2 1 + ǫ 2 + ǫ n ) 2 = i=1 1 n 2 (ǫ2 1 + ǫ 2 2 + ǫ 2 n + 2ǫ 1 ǫ 2 + 2ǫ 1 ǫ 3 + ) [ ǫ 2 = 1 n ] n 2 (ǫ i ) 2 + (2ǫ 1 ǫ 2 + 2ǫ 1 ǫ 3 + ) i=1
p. 21/23 TIMA DELL ERRORE QUADRATICO MEDIO n i=1 Dividiamo per n (ǫ i) 2 n La varianza è dunque: = n i=1 (s i) 2 n + ǫ 2 (7) σ 2 = n i=1 (s i) 2 n + ǫ 2 espressa in funzione degli scarti e dell errore della media, ancora incognito. Quadriamo ( l errore della media: ǫ 2 = 1 n ) 2 ǫ n 2 i = 1 n (ǫ 2 1 + ǫ 2 + ǫ n ) 2 = i=1 1 n 2 (ǫ2 1 + ǫ 2 2 + ǫ 2 n + 2ǫ 1 ǫ 2 + 2ǫ 1 ǫ 3 + ) [ ǫ 2 = 1 n ] n 2 (ǫ i ) 2 + (2ǫ 1 ǫ 2 + 2ǫ 1 ǫ 3 + ) i=1 La somma dei termini misti può essere ragionevolmente posta = 0 per la simmetria della distribuzione di Gauss degli errori.
p. 22/23 STIMA DELL ERRORE QUADRATICO MEDIO Il quadrato dell errore della media è quindi: n [ ǫ 2 = 1 n ] n 2 (ǫ i ) 2 = 1 (ǫ i ) 2 i=1 n n = σ2 n i=1
p. 22/23 STIMA DELL ERRORE QUADRATICO MEDIO Il quadrato dell errore della media è quindi: n [ ǫ 2 = 1 n ] n 2 (ǫ i ) 2 = 1 (ǫ i ) 2 i=1 n n = σ2 n i=1 Introduciamo questa relazione nell Eq. (1) n σ 2 i=1 = (s i) 2 + σ2 n n
p. 22/23 STIMA DELL ERRORE QUADRATICO MEDIO Il quadrato dell errore della media è quindi: n [ ǫ 2 = 1 n ] n 2 (ǫ i ) 2 = 1 (ǫ i ) 2 i=1 n n = σ2 n i=1 Introduciamo questa relazione nell Eq. (1) n σ 2 i=1 = (s i) 2 + σ2 n n Esplicitiamo [ σ 2 σ 2 1 1 ] n i=1 = (s i) 2 n σ 2 i=1 = (s i) 2 n n n 1
p. 22/23 STIMA DELL ERRORE QUADRATICO MEDIO Il quadrato dell errore della media è quindi: n [ ǫ 2 = 1 n ] n 2 (ǫ i ) 2 = 1 (ǫ i ) 2 i=1 n n = σ2 n i=1 Introduciamo questa relazione nell Eq. (1) n σ 2 i=1 = (s i) 2 + σ2 n n Esplicitiamo [ σ 2 σ 2 1 1 ] n i=1 = (s i) 2 n σ 2 i=1 = (s i) 2 n n n 1 Infine: σ = n i=1 (s i) 2 n 1 che esprime lo scarto quadratico medio in funzione di tutti e soli gli scarti delle misure.
p. 23/23 A DELL ERRORE QUADRATICO MEDIO DELLA MED L errore della media o scarto quadratico medio della media deriva dall Eq. (2) σ 2 σ x = n = σ n n i=1 (s i) 2 σ x = n(n 1)