Prof. Fausto Sacerdote - Topografia e cartografia digitale - Capitolo 4.3 Calcolo della probabilità e statistica

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Prof. Fausto Sacerdote - Topografia e cartografia digitale - Capitolo 4.3 Calcolo della probabilità e statistica"

Transcript

1 APPENDICE - CALCOLO DELLA PROBABILITÀ E STATISTICA 1. Variabili aleatorie 1.1. Variabili 1D a valori in R - I risultati di ripetute misure di una stessa quantità non sono in generale tutti uguali, a causa di errori che sono presenti in ciascuna misura. A ciascuna operazione di misura corrisponde in generale un numero diverso, ma i valori ottenuti tendono ad addensarsi in un intervallo tanto più piccolo quanto più precise sono le misure. Il risultato di ciascuna misura non è prevedibile a priori, ma se si fa un numero molto elevato di misure si può prevedere che i loro valori si distribuiscono in modo piuttosto regolare (per esempio, la maggior parte di essi è contenuto in un piccolo intervallo, e si diradano sempre di più allontanandosi da tale intervallo. Questo comportamento, che si ripete quando si eseguono più serie di misure, mentre i singoli valori sono diversi da serie a serie, può essere descritto in un linguaggio matematico rigoroso introducendo il concetto di probabilità, che consente di associare ad ogni intervallo della retta reale un numero compreso fra 0 e 1 che indica la frazione del numero totale di misure che prevedibilmente cade in quell intervallo. La probabilità è definita a priori, e non ci si aspetta che i risultati la rispecchino esattamente, ma solo approssimativamente, e con un approssimazione tanto migliore quanto maggiore è il numero di ripetizioni della misura. Questi concetti, che sono qui espressi in maniera imprecisa, vengono rigorosamente precisati nell ambito della teoria della probabilità e della statistica (ad esempio, non solo si definisce la probabilità che il risultato di una misura cada in un certo intervallo, ma si può anche calcolare, in funzione del numero totale di ripetizioni della misura eseguite, la probabilità che il numero effettivo di misure che cadono in quell intervallo si discosti dal numero previsto più di una quantità fissata). Nei casi che saranno esaminati in seguito la probabilità per una quantità X (ad esempio la misura di una grandezza) può essere definita introducendo una funzione non negativa f X (x) (densità di probabilità - dp) tale che la probabilità che X cada in [a, b] è data da P {[a, b]} = b a f X (x)dx (1) La quantità X è detta variabile aleatoria (va). f X (x) può essere definita su tutto R anche se la probabilità di X limitato. In tal caso f X = 0 al di fuori di tale intervallo. Ovviamente è diversa da 0 solo in un intervallo f X (x)dx = 1 (2) Inoltre, poichè la probabilità che X cada in un intervallo tende a 0 al tendere a 0 dell ampiezza dell intervallo, P (X = x) = 0 per ogni singolo punto x. Questo non vuol dire che sia impossibile che il valore di una misura sia esattamente x ; vuol solo dire che, fissato in precedenza x ed eseguendo poi un numero finito di misure, in generale nessuna misura ha esattamente il valore x. La cosa non ha grandi conseguenze pratiche, poichè, quando si fa una misura, a causa della risoluzione finita dello strumento, non si determina mai un preciso numero reale, ma piuttosto un piccolo intervallo. Ad esempio, se si dice che la lunghezza di un segmento è1.013 m, si intende che essa è compresa fra m e1.014 m e che la risoluzione dello strumento è1mm. Se lo strumento avesse risoluzione maggiore, si userebbero più cifre decimali. NOTA: in teoria della probabilità esistono situazioni (non esaminate in questo contesto) in cui probabilità finite sono concentrate su singoli valori (si pensi ad esempio al lancio di un dado). Si parla allora di distribuzione di probabilità discreta. In questo caso non è possibile definire la funzione densità di probabilità. Si definisce funzione di distribuzione cumulativa (fdc) 1 1

2 x F X (x) = f X (t)dt = P {X x} (3) Quindi f X (x) =(d/dx)f X (x). È facile vedere che F X (x) è non decrescente per ogni x. Nel caso di distribuzioni di probabilità discrete la fdc può essere ugualmente definita dalla (3) omettendo il termine intermedio. In corrispondenza dei valori in cui sono concentrate probabilità finite F X (x) presenta una discontinuità. ESEMPI: - distribuzione uniforme: dove in generale si definisce f X (x) = 1 b a I [a,b](x) (4) I A (x) = { 1 x A 0 x A (5) La probabilità di sottointervalli di [a, b] è in questo caso proporzionale alla loro lunghezza. - distribuzione normale (o gaussiana): f X (x) = 1 exp ( 1 (x a) 2 ) 2πα 2 α 2 (6) Questa dp è quella più frequentemente adottata per descrivere la distribuzione di misure affette da errori casuali. Si noti che essa è simmetrica rispetto ad a ; il parametro α indica quanto il picco è concentrato intorno ad a Generalizzazione a R n. Marginale e condizionata. - In modo analogo si procede quando si vogliono trattare contemporaneamente le misure di diverse grandezze scalari, che possono essere ordinate in un vettore di R n. In questo caso ha senso chiedersi qual è la probabilità che il vettore le cui componenti sono le misure delle grandezze prese in considerazione (variabile aleatoria n-dimensionale) appartenga ad un certo sottoinsieme A di R n, ad esempio un determinato quadrato o cerchio in R 2,edè possibile, nella maggior parte dei casi che saranno qui trattati, introdurre anche in questo caso una funzione densità di probabilità f X (x) =f X (x 1,..., x n ) (densità di probabilità congiunta - dpcg), tale che P {X A} = A f X (x)d n x (7) Spesso accade che si sia interessati a conoscere la distribuzione di probabilità di una singola componente X, indipendentemente dalle altre. Si introduce allora la densità di probabilità marginale (dpm) di X : f X (x )= dx 1... dx 1 dx dx n f X (x) (8) Si ha allora P {a X b} = 2 b a f X (x )dx (9) 2

3 che rappresenta la probabilità che la coordinata X appartenga all intervallo [a, b], mentre le altre sono arbitrarie. L insieme a cui appartiene il vettore X è ad esempio in dimensione 3 uno strato infinito limitato da 2 piani paralleli ad uno dei piani coordinati. In modo analogo si ottiene la dpm congiunta di un sottoinsieme delle componenti di X, {X 1,..., X m }, integrando la dpcg rispetto alle restanti componenti. Per introdurre il concetto di probabilità condizionale con la corrispondente densità, si considerino inizialmente per semplicità due sole quantità con dpcg f X (x 1,x 2 ), e si supponga di voler conoscere la probabilità che la componente X 1 appartenga ad un intervallo [a, b], quando si sappia che la componente X 2 appartiene all intervallo [c, d] (indicata con P {X 1 [a, b] X 2 [c, d] ). Si vuole cioè prevedere, qualora si eseguano ripetutamente misure della coppia di grandezze X 1 e X 2, e si selezionino quelle misure per cui X 2 sta nell intervallo [c, d], in quale frazione di queste misure X 1 sta nell intervallo [a, b]. È facile rendersi conto che P {X 1 [a, b] X 2 [c, d]} = P {X 1 [a, b],x 2 [c, d]} P {X 2 [c, d]} = b a dx 1 d c dx 2f X (x 1,x 2 ) dx 1 d c dx 2f X (x 1,x 2 ) (10) Si supponga ora che l intervallo [c, d] abbia un ampiezza molto piccola x 2 ( d = c + x 2 ). In tal caso l integrale sulla variabile x 2 può essere approssimato da una semplice moltiplicazione del valore della funzione integranda in x 2 = c per x 2. Di conseguenza, la (10) diventa P {X 1 [a, b] X 2 [c, c + x 2 ]} = b a dx 1f X (x 1,c) x 2 dx 1f X (x 1,c) x 2 = b a = dx 1f X (x 1,c) b dx 1f X (x 1,c) = a dx 1 f X (x 1,c) f X2 (c) (10) (nell ultimo passaggio si è usata la definizione (8) per il denominatore). La funzione integranda nell ultimo termine è detta densità di probabilità condizionale (dpcd): f X1 X 2 (x 1 x 2 )= f X(x 1,x 2 ) f X2 (x 2 ) (11) Questa definizione è facilmente generalizzabile a R n, quando si voglia introdurre la dpcd relativa ad un insieme di componenti {X 1,..., X m }, condizionata a valori fissati per le rimanenti: f X1,...,X m Xj 1,...,Xj n m (x 1,..., x m x j1,..., x jn m )= f X (x) f Xj1,...,X jn m (x j1,..., x jn m ) (12) Tornando al caso 2-dimensionale, si osservi che, se è possibile esprimere la dpcg nella forma f X1 X 2 (x 1,x 2 )= g(x 1 )h(x 2 ), allora g e h coincidono a meno di un fattore di proporzionalità con le marginali f X1 e f X2, e si può scrivere senz altro f X1X 2 (x 1,x 2 )=f X1 (x 1 )f X2 (x 2 ). Si vede allora dalla (11) che la dpcd relativa a X 1 coincide con la dpm, e non dipende da x 2. Si dice in tal caso che X 1 e X 2 sono indipendenti. Generalizzando al caso n-dimensionale, si dice che n variabili aleatorie X 1,..., X n sono tra di loro a due a due indipendenti se f X (x) =f X1 (x 1 )...f Xn (x n ). 3 3

4 1.3. Cambiamento di variabile - Sia X una va scalare e sia y = φ(x) una funzione reale. Si può allora definire la va Y che ad ogni estrazione x dalla va X (cioè ad ogni misura della grandezza X avente come risultato x ) fa corrispondere il valore y = φ(x). Si supponga inizialmente che φ(x) sia monotona crescente e continua. Allora l immagine dell intervallo [x, x + x] è l intervallo [φ(x), φ(x)+ y],dove,se x è piccolo e se φ(x) è derivabile, y può essere approssimato con φ (x) x. Per introdurre la dp di Y, si osservi che, ovviamente, D altra parte P {φ(x) Y φ(x)+ y} = P {x X x + x} (13) P {x X x + x} f X (x) x P {φ(x) Y φ(x)+ y} f Y (φ(x)) y f Y (φ(x))φ (x) x (14) Da (13) e (14) segue f Y (φ(x)) = f X(x) φ (x) (15a) ovvero f Y (y) = f X(φ 1 (y)) φ (φ 1 (y)) (15b) Queste formule sono facilmente generalizzabili al caso che φ(x) non sia monotona e diversi valori x (i) abbiano la stessa immagine y (cioè φ(x (i) )=y per i =1,..., ). Si ha allora f Y (y) = 1 f X (x (i) ) φ (x (i) ) (16) Ad esempio, se y = x 2,siha f Y (y) = f X( y) 2 y + f X(+ y) 2 y (17) È possibile anche una generalizzazione al caso n-dimensionale. In questo caso y = φ(x) è una funzione da R n a R n (cioè ogni componente di y è esprimibile in funzione delle componenti di x ). Come esempi si possono considerare le espressioni delle coordinate cartesiane in funzione delle coordinate polari nel piano ( R 2 ) o nello spazio ( R 3 ). Sia J φ (x) la matrice Jacobiana di φ (cioè quella matrice i cui elementi sono (J φ ) ij = φ i / x j ). Allora f Y (y) = 1 f X (x (i) ) det J φ (x (i) ) (18) 4 4

5 1.4. Media e varianza. Momenti. Matrice di covarianza. Teorema della media e propagazione della covarianza. - Media e varianza: indici che esprimono la localizzazione e la dispersione di una va. Analogia con i concetti di centro di massa e di momento di inerzia per masse distribuite. - Media ( in dim.1) - Generalizzazione a dim.n E{X} µ X = E{X i } = x i f X d n x = R n E{X} µ X è il vettore di componenti E{X i } - Teorema della media: se y = φ(x) E{Y } = yf Y (y)dy = xf X (x)dx (19) Dimostrazione semplice per φ(x) monotona crescente e derivabile: x i f Xi dx i (20) φ(x)f X (x)dx E{φ(X)} (21) yf Y (y)dy = La formula però è valida in generale. - Linearità della media y f X(φ 1 (y)) φ (φ 1 (y)) dy = φ(x) f X(x) φ (x) φ (x)dx = φ(x)f X (x)dx (22) E{αX + βy } = = α dx dy(αx + βy)f XY (x, y) = dx xf X (x)+β dyyf Y (y) =αe{x} + βe{y } (23a) e anche E{αφ(x)+βψ(x)} = = α dx(αφ(x)+βψ(x))f X (x) = dxφ(x)f X (x)+β dxψ(x)f X (x) =αe{φ(x)} + βe{ψ(x)} (23b) - Varianza (in dim.1) var{x} σx 2 = E{(X µ X ) 2 } = σ X = var{x} scarto quadratico medio - Matrice di covarianza (in dim.n) C X : 5 (x µ X ) 2 f X (x)dx (24) 5

6 ovvero, in forma vettoriale, (C X ) ij = E{(X i µ Xi )(X j µ Xj )} (25a) C X = E{(X µ X )(X µ X ) T } (25b) C X è evidentemente una matrice simmetrica. Gli elementi diagonali sono le varianze delle componenti. NOTA E{( i v i (X i µ Xi )) 2 } = ij (C X ) ij v i v j = v T C X v (26) Quindi, per ogni v R n, v 0, v T C X v > 0. Si dice allora che la matrice C X è definita positiva. Si prova facilmente che il determinante di una matrice def.pos. è positivo. ESEMPIO (in dim.1) Per la distr. normale (densità di prob. def. in (6)) µ X = a, σx 2 = α2. Si usa il simbolo N[a, α 2 ]. In particolare, per a = 0,α = 1 si ha una normale standardizzata. - Momenti (semplici): µ (n) = E{X n }. - Momenti centrali: µ (n) = E{(X µ X ) n }. NOTA: µ (1) =0; µ (2) = σ 2 ;se f X è simmetrica rispetto a µ X, i momenti centrali di ordine dispari sono nulli. OSSERVAZIONE: var{x} = E{(X µ X ) 2 } = E{X 2 } 2µ X E{X} + µ 2 X = µ (2) X µ2 X (27) - Coefficiente di correlazione fra X e Y. Posto σ XY = E{(X µ X )(Y µ Y )} si definisce coefficiente di correlazione ρ XY = σ XY /σ X σ Y. Poichè σx 2 σ2 Y σ2 XY = det C XY > 0, segue che ρ < 1. NOTA: siano X e Y indipendenti. Allora σ XY = (x µ X )(y µ Y )f XY (x, y)dxdy = dx(x µ X )f X (x) dy(y µ Y )f Y (y) =0 (27bis) dato che (x µ X)f X (x)dx = xf X(x)dx + µ X f X(x)dx = µ X µ X = 0. Quindi due va indipendenti sono anche incorrelate. Il viceversa non è però vero: basta osservare che, se ad esempio f XY (x, y) è simmetrica per cambio di segno di x e y, allora σ XY = 0. Per le distribuzioni normali, tuttavia, come si può vedere dalla (30), se le componenti del vettore X sono incorrelate, la loro matrice di covarianza è diagonale, e quindi la loro ddp congiunta si spezza nel prodotto delle ddp delle singole componenti, che risultano quindi indipendenti. - Propagazione della covarianza Se y = Ax + b, allora C Y = E{[(AX+b) (Aµ X +b)][(ax+b) (Aµ X +b)] T } = AE{(X µ X )(X µ X ) T }A T = AC X A T (28) 6 6

7 In particolare, in dim.1 σax+b 2 = a2 σx 2. NOTA: si ha anche C YX E{[(AX + b) (Aµ X + b)](x µ X ) T } = AC X (29) Si noti che C YX non è simmetrica e che C YX = CXY T. Se y = φ(x) (in dim.1) è una funzione non lineare, non c è in generale una relazione semplice fra E{X} e E{Y }. Se però X è molto concentrata intorno alla sua media, nell intervallo in cui F X (x) è significativamente diversa da 0 φ(x) può essere approssimata con la sua linearizzazione φ(µ X )+φ (µ X )(x µ X ). Si può quindi applicare il teorema della media e la propagazione della covarianza alla forma linearizzata ed ottenere buone approssimazioni di µ Y e σy 2. È possibile dare una generalizzazione a dim.n (Qui non viene scritta esplicitamente) Distribuzione normale in dim. n f X (x) =(2π) n/2 (det C) 1/2 exp[ 1 2 (x a)t C 1 (x a)] (30) dove C è una matrice simm. def. pos.. Caso particolare: C = I,a =0: f Z (z) =(2π) n/2 exp[ 1 2 zt z]=(2π) n/2 exp[ 1 zi 2 ]= 2 i i (2π) 1/2 exp[ 1 2 z2 i ] (31) ovvero le componenti di Z sono normali standardizzate indipendenti. In tal caso si dice che Z è una normale standardizzata in dim. n. Media e matr. di cov. di una normale in dim. n: µ X = a,c X = C. Cenno di dimostrazione: - si opera la decomposizione C = HH T (è sempre possibile) - si introduce la va Z = H 1 (X a) - si verifica che Z è normale standardizzata (usando la regola di cambiamento di variabile) - si giunge al risultato applicando la linearità della media e la propagazione della covarianza. Si possono provare i seguenti risultati: - la somma di 2 normali è una normale. Più in generale, applicando una trasformazione lineare (anche fra spazi di dim. diversa) ad una normale, si ottiene ancora una normale - le marginali e le condizionate di una normale sono normali. In dim. 2 si ha ( (x µ X ) T C 1 1 (x1 µ 1 ) 2 (x µ X )= 1 ρ 2 12 σ1 2 (x 1 µ 1 ) (x 2 µ 2 ) 2ρ 12 + (x 2 µ 2 ) 2 ) σ 1 σ 2 σ2 2 (32) L equazione (x µ X ) T C 1 (x µ X )=cost. (33) 7 7

8 è l equazione di un ellisse nel piano x 1 x 2, con gli assi paralleli agli assi coordinati se ρ 12 = 0 in (32), e rappresenta una curva di livello per la dp. Il fatto che un asse dell ellisse sia molto più piccolo dell altro significa che nella direzione corrispondente la va è molto più concentrata che nella direzione ortogonale, e quindi si ha una precisione molto più elevata. Cambiando la cost. a secondo membro si ottengono ellissi tutte simili fra loro e orientate nello stesso modo. Esse possono essere caratterizzate ad esempio indicando la probabilità che la va cada al loro interno. 2. Stimatori. Correttezza e consistenza. Problema: disponendo di estrazioni da variabili aleatorie, trarre da questi dati informazioni riguardanti le distribuzioni di probabilità (ad es., sulla media o la varianza, più in generale su parametri che compaiono nelle densità di probabilità). Si cerca di costruire funzioni dei valori estratti (dette statistiche), i cui valori approssimano (nel senso che hanno elevata probabilità di essere vicini) quantità calcolabili a priori utilizzando le distribuzioni di probabilità. Esempio: se da una stessa distribuzione di prob. si eseguono n estrazioni indipendenti x i (campione bernoulliano), la quantità m = n 1 i x i (detta media campionaria) approssima la media µ X. Per chiarire bene in quale senso, bisognerebbe in generale conoscere la distrib. di prob. della va M = n 1 i X i, dove le X i sono tutte ugualmente distribuite e indipendenti. Tuttavia in questo caso, indipendentemente da tale distrib., si può subito dire che E{M} = n 1 i µ X = µ X ; σm 2 = n 2 i σ2 X = σ2 X /n. Il fatto che lim n σm 2 = 0 prova che, quanto più il campione è numeroso, tanto più elevata è la probabilità che M sia effettivamente vicino a µ X. Una statistica usata per approssimare il valore di una quantità a priori q è detta stimatore di q ; il valore ottenuto in base alle estrazioni disponibili è detto stima. Si osservi che uno stimatore è una va, in quanto funzione di va, mentre la stima è un numero, in corrispondenza ad ogni estrazione. Uno stimatore Q di q è detto corretto se E{Q} = q (ad esempio, la media campionaria). Si consideri ora per un campione bernoulliano la statistica S 2 = n 1 i (X i M) 2 (varianza campionaria), da utilizzare come stimatore della varianza σx 2. Per verificare se è corretto bisogna calcolare E{S2 }. Tenendo conto che (X i M) 2 =(X i µ X + µ X 1 X ) 2 =(X i µ X ) 2 2(X i µ X )( 1 X µ X )+ n n +( 1 X µ X ) 2 =(X i µ X ) 2 2(X i µ X ) 1 (X µ X )+ 1 n n n 2 [ (X µ X )] 2 si ottiene [ ] E{S 2 } = 1 E{(X i µ X ) 2 } 2 E{(X i µ X )(X µ X )} + 1 n n n 2 E{ (X µ X )(X l µ X )} = i l = 1 [nσ 2X 2n n nσ2x + 1n ] 2 n n σ2 = σx(1 2 1 n ) σ2 X (34) Quindi S 2 non è uno stimatore corretto di σ 2. Si osservi però che lim n E{S 2 } = σx 2 ; inoltre, si può provare (con calcoli molto laboriosi) che lim n σs 2 = 0. Di conseguenza, si può concludere anche 2 in questo caso che per un campione numeroso S 2 ha elevata probabilità di essere prossimo a σx 2,edè quindi ragionevole utilizzarlo come stimatore di σx 2. Uno stimatore che ha le proprietà viste sopra per S2 è detto consistente. 8 8

9 Si osservi inoltre che la statistica [n/(n 1)]S 2 =(n 1) 1 i (X i M) 2 è uno stimatore corretto di σx 2 ; essa è detta varianza campionaria corretta. Gli esempi visti non esauriscono ovviamente l illustrazione delle proprietà degli stimatori, nè indicano regole generali per costruirli. Viene qui indicata una procedura per ottenere, partendo da un insieme di dati (non necessariamente campione bernoulliano) che ammette una densità di probabilità congiunta (funzione di verosimiglianza) dipendente da un parametro a, uno stimatore di a : si calcola il valore di a (se esiste) che massimizza la funzione di verosimiglianza (stimatore di massima verosimiglianza). Non è però detto a priori che gli stimatori di max. ver. abbiano particolari proprietà (siano ad esempio corretti o consistenti). Ad esempio, M e S 2 sono entrambi stimatori di max. ver.; come si è già visto, M è corretto, mentre S 2 non lo è. Si noti che per un campione bernoulliano la funz. di ver. è il prodotto n volte della stessa dp, in virtù dell indipendenza delle estrazioni. 3. Verifica di ipotesi 3.1. Test parametrici - si assume noto il tipo di densità di prob. (ad es. gaussiana), dipendente da uno o più parametri; l ipotesi da verificare è che una parte o tutti i parametri assumano determinati valori. Il procedimento generale consiste nell usare una particolare statistica, la cui distribuzione di prob. è completamente nota quando i parametri assumono i valori ipotizzati, e nell individuare un insieme di valori (in genere un intervallo) in cui il valore empirico di quella statistica ha un elevata probabilità di cadere. Si decide allora di accettare l ipotesi se, in corrispondensa dei valori estratti, il valore di quella statistica cade in quell insieme, di rifiutarla in caso contrario. Naturalmente si corre sempre il rischio (indicato con α e detto livello di significatività del test) di rifiutare l ipotesi quando essa è verificata. NOTA 1: Se si vuole verificare un ipotesi su una parte soltanto dei parametri ed il valore dei rimanenti non è noto, bisogna utilizzare statistiche che non dipendono dai parametri sconosciuti. NOTA 2: Non sempre è facile, anche quando sia noto il tipo di dp dei dati, dedurre da esso la forma della dp della statistica. La situazione in generale èpiù semplice nel caso di distribuzioni gaussiane. Spesso accade di dover ricorrere a dp approssimate (valide, ad es., per campioni molto numerosi). NOTA 3: Esistono anche altre famiglie di test (non parametrici), ad esempio test per verificare l appartenenza di una distrib. di prob. ad una certa famiglia. ESEMPIO: estrazioni indipendenti da una gaussiana N[µ, σ 2 ]. Si suppone noto σ 2, e si fa l ipotesi H 0 : µ = µ. È naturale usare come statistica la media campionaria M, la cui dp è N[µ, σ2 /n] (n=numero dei valori estratti) e, fissato α, in assenza di motivazioni specifiche in senso contrario, prendere come intervallo di accettazione di H 0 un intervallo simmetrico intorno a µ : µ a α <m< µ + a α,dove m è il valore empirico di M e a α è determinato in modo che il livello di significatività sia proprio α. NOTA: Il fatto che m cada nell intervallo sopra indicato consente di accettare ipotesi diverse da H 0 allo stesso livello di significatività, ovvero tutti i valori µ tali che m a α <µ<m+ a α (intervallo fiduciario) vengono accettati. Mentre, come si è visto, è facile valutare la prob. di commettere l errore di rifiutare l ipotesi quando è vera, in generale èpiùdifficile determinare la prob. di commettere l errore opposto, cioè di accettare l ipotesi quando è falsa, perchè in questo caso non è individuata una precisa dp. Può però accadere di formulare un ipotesi alternativa H 1 semplice: ad es., nel caso sopra esaminato, µ = µ. Si possono fare allora le seguenti osservazioni:. la prob. β di accettare H 0 quando è vera H 1 può anche essere molto elevata, se µ e µ sono vicine e se σ 2 è grande;. non c è più ragione di prendere un intervallo simmetrico: se ad es. µ µ, a parità di α, β viene minimizzata scegliendo come insieme di accettazione di H 0 la semiretta <m< µ + b α ; 9 9

10 . fissati µ, µ, α, β è tanto più piccolo quanto più numeroso è il campione estratto Densità di probabilità più usate. χ 2 n (chi quadro a n gradi di libertà): f X (x) =C n e (x/2) x (n/2) 1. distrib. F λ,ν di Fisher con parametri λ, ν :. distrib. t ν di Student a ν gradi di libertà: x (λ 2)/2 f X (x) =C λ,ν (λx + ν) (λ+ν)/2 f X (x) =C ν (1 + x2 ν ) (ν+1)/2 -se Z i, i =1,,n sono Gaussiane standardizzate indipendenti, allora la va Y = n i=1 Z2 i ha distrib. χ 2 n. Segue che, se Y n, Y m hanno rispettivamente distrib. χ 2 n, χ 2 m ; e sono fra loro indip., allora W = Y n + Y m ha distrib. χ 2 n+m ; -se Z è Gauss. stand., X = W 1/2,Wdistribuita come χ 2 ν,e Z e W sono fra loro indipendenti, allora Y = νz/x ha distrib. t ν ; -se W λ ha distrib. χ 2 λ e W ν ha distrib. χ 2 ν,e W λ,w ν sono fra loro indip., allora Y =(W λ /λ)/(w ν /ν) ha distrib. F λ,ν. Segue che Z =1/Y ha distrib. F ν,λ. NOTA1: tutte queste ddp sono tabulate NOTA2: si può verificare che lim ν t ν = Z (nel senso che, se X ν è una successione di va con distrib. t ν e Z è Gauss. stand., P (a X ν b) P (a Z b) ; nello stesso senso lim ν F λ,ν = χ 2 λ. - Si può provare che, se Y è un vettore aleatorio n-dim con dp congiunta Gaussiana e C è la sua matrice di covarianza, allora (Y EY) T C 1 (Y EY) ha distribuzione χ 2 n. Infatti, essendo C simmetrica definita positiva, è sempre possibile scrivere C = H 2, H simmetrica definita positiva. Posto Z = H 1 (Y EY), evidentemente (Y EY) T C 1 (Y EY) =Z T Z,e Z è gaussiana standardizzata, ovvero EZ =0,C Z = H 1 CH 1 = I

Calcolo delle Probabilità e Statistica Matematica: definizioni prima parte. Cap.1: Probabilità

Calcolo delle Probabilità e Statistica Matematica: definizioni prima parte. Cap.1: Probabilità Calcolo delle Probabilità e Statistica Matematica: definizioni prima parte Cap.1: Probabilità 1. Esperimento aleatorio (definizione informale): è un esperimento che a priori può avere diversi esiti possibili

Dettagli

Variabili casuali multidimensionali

Variabili casuali multidimensionali Capitolo 1 Variabili casuali multidimensionali Definizione 1.1 Le variabili casuali multidimensionali sono k-ple ordinate di variabili casuali unidimensionali definite sullo stesso spazio di probabilità.

Dettagli

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza

Dettagli

Teorema del limite centrale TCL Questo importante teorema della statistica inferenziale si applica a qualsiasi variabile aleatoria che sia combinazion

Teorema del limite centrale TCL Questo importante teorema della statistica inferenziale si applica a qualsiasi variabile aleatoria che sia combinazion Teorema del limite centrale TCL Questo importante teorema della statistica inferenziale si applica a qualsiasi variabile aleatoria che sia combinazione lineare di N variabili aleatorie le cui funzioni

Dettagli

Elaborazione statistica di dati

Elaborazione statistica di dati Elaborazione statistica di dati CONCETTI DI BASE DI STATISTICA ELEMENTARE Taratura strumenti di misura IPOTESI: grandezza da misurare identica da misura a misura Collaudo sistemi di produzione IPOTESI:

Dettagli

Università degli Studi Roma Tre Anno Accademico 2017/2018 ST410 Statistica 1

Università degli Studi Roma Tre Anno Accademico 2017/2018 ST410 Statistica 1 Università degli Studi Roma Tre Anno Accademico 2017/2018 ST410 Statistica 1 Lezione 1 - Mercoledì 27 Settembre 2017 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,

Dettagli

Distribuzione normale multidimensionale

Distribuzione normale multidimensionale Capitolo 2 Distribuzione normale multidimensionale La funzione di densità normale undimensionale ha la forma seguente Anderson, 1984 fx ce 1 2 Ax b2 ce 1 2 x bax b La costante di normalizzazione c è data

Dettagli

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza di Variabili Aleatorie Sistema di Variabili

Dettagli

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza

Dettagli

Esperimentazioni di Fisica 1. Prova in itinere del 12 giugno 2018

Esperimentazioni di Fisica 1. Prova in itinere del 12 giugno 2018 Esperimentazioni di Fisica 1 Prova in itinere del 1 giugno 018 Esp-1 Prova in Itinere n. - - Page of 6 1/06/018 1. (1 Punti) Quesito L incertezza da associare alle misurazioni eseguite con un certo strumento

Dettagli

Università di Pavia Econometria. Richiami di Statistica. Eduardo Rossi

Università di Pavia Econometria. Richiami di Statistica. Eduardo Rossi Università di Pavia Econometria Richiami di Statistica Eduardo Rossi Università di Pavia Campione casuale Siano (Y 1, Y 2,..., Y N ) variabili casuali tali che le y i siano realizzazioni mutuamente indipendenti

Dettagli

Costruzione di macchine. Modulo di: Progettazione probabilistica e affidabilità. Marco Beghini. Lezione 7: Basi di statistica

Costruzione di macchine. Modulo di: Progettazione probabilistica e affidabilità. Marco Beghini. Lezione 7: Basi di statistica Costruzione di macchine Modulo di: Progettazione probabilistica e affidabilità Marco Beghini Lezione 7: Basi di statistica Campione e Popolazione Estrazione da una popolazione (virtualmente infinita) di

Dettagli

Università degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1

Università degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1 Università degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1 Lezione 1 - Mercoledì 28 Settembre 2016 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,

Dettagli

Università di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti

Università di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Università di Siena Corso di STATISTICA Parte seconda: Teoria della stima Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Master E 2 C Centro per lo Studio dei Sistemi Complessi Università di

Dettagli

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A Università di Siena Teoria della Stima Lucidi del corso di A.A. 2002-2003 Università di Siena 1 Indice Approcci al problema della stima Stima parametrica Stima bayesiana Proprietà degli stimatori Stime

Dettagli

Università degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1

Università degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1 Università degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1 Lezione 1 - Martedì 23 Settembre 2014 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,

Dettagli

Modelli di probabilità

Modelli di probabilità Modelli di probabilità Corso di STATISTICA Ordinario di, Università di Napoli Federico II Professore supplente, Università della Basilicata a.a. 0/0 Obiettivo dell unità didattica Definire i concetti di

Dettagli

I appello di calcolo delle probabilità e statistica

I appello di calcolo delle probabilità e statistica I appello di calcolo delle probabilità e statistica A.Barchielli, L. Ladelli, G. Posta 8 Febbraio 13 Nome: Cognome: Matricola: Docente: I diritti d autore sono riservati. Ogni sfruttamento commerciale

Dettagli

Esercizi di statistica

Esercizi di statistica Esercizi di statistica Test a scelta multipla (la risposta corretta è la prima) [1] Il seguente campione è stato estratto da una popolazione distribuita normalmente: -.4, 5.5,, -.5, 1.1, 7.4, -1.8, -..

Dettagli

Esercitazione del 16/04/2019 Istituzioni di Calcolo delle Probabilità

Esercitazione del 16/04/2019 Istituzioni di Calcolo delle Probabilità Esercitazione del 6/04/09 Istituzioni di Calcolo delle Probabilità David Barbato Nozioni di riepilogo con esercizi Distribuzione di una funzione di una variabile aleatoria discreta. Sia X una variabile

Dettagli

Calcolo delle probabilità (3/7/2001) (Ing. Elettronica, Informatica, Telecomunicazioni - Latina)

Calcolo delle probabilità (3/7/2001) (Ing. Elettronica, Informatica, Telecomunicazioni - Latina) Calcolo delle probabilità (3/7/00). La distribuzione di probabilità di un numero aleatorio X non negativo soddisfa la condizione P (X > x + y X > y) = P (X > x), x > 0, y > 0. Inoltre la previsione di

Dettagli

Matematica e Statistica per Scienze Ambientali

Matematica e Statistica per Scienze Ambientali per Scienze Ambientali Variabili aleatorie - Appunti 1 1 Dipartimento di Matematica Sapienza, Università di Roma Roma, Gennaio 2013 Variabili aleatorie Un numero aleatorio è un esempio di variabile aleatoria.

Dettagli

Esercizi di Calcolo delle Probabilità

Esercizi di Calcolo delle Probabilità Esercizi di Calcolo delle Probabilità Versione del 1/05/005 Corso di Statistica Anno Accademico 00/05 Antonio Giannitrapani, Simone Paoletti Calcolo delle probabilità Esercizio 1. Un dado viene lanciato

Dettagli

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2006/07

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2006/07 PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 006/07 Esercizio 1 Prova scritta del 16/1/006 In un ufficio postale lavorano due impiegati che svolgono lo stesso compito in maniera indipendente, sbrigando

Dettagli

Università di Pavia Econometria. Richiami di teoria delle distribuzioni statistiche. Eduardo Rossi

Università di Pavia Econometria. Richiami di teoria delle distribuzioni statistiche. Eduardo Rossi Università di Pavia Econometria Richiami di teoria delle distribuzioni statistiche Eduardo Rossi Università di Pavia Distribuzione di Bernoulli La variabile casuale discreta Y f Y (y; θ) = 0 θ 1, dove

Dettagli

25 - Funzioni di più Variabili Introduzione

25 - Funzioni di più Variabili Introduzione Università degli Studi di Palermo Facoltà di Economia CdS Statistica per l Analisi dei Dati Appunti del corso di Matematica 25 - Funzioni di più Variabili Introduzione Anno Accademico 2013/2014 M. Tumminello

Dettagli

Variabili aleatorie continue

Variabili aleatorie continue Variabili aleatorie continue Per descrivere la distribuzione di una variabile aleatoria continua, non si può più assegnare una probabilità positiva ad ogni valore possibile. Si assume allora di poter specificare

Dettagli

SCHEDA DIDATTICA N 7

SCHEDA DIDATTICA N 7 FACOLTA DI INGEGNERIA CORSO DI LAUREA IN INGEGNERIA CIVILE CORSO DI IDROLOGIA PROF. PASQUALE VERSACE SCHEDA DIDATTICA N 7 LA DISTRIBUZIONE NORMALE A.A. 01-13 La distribuzione NORMALE Uno dei più importanti

Dettagli

Calcolo delle Probabilità 2

Calcolo delle Probabilità 2 Prova d esame di Calcolo delle Probabilità 2 Maggio 2006 Sia X una variabile aleatoria distribuita secondo la densità seguente ke x 1 x < 0 f X (x) = 1/2 0 x 1. 1. Determinare il valore del parametro reale

Dettagli

La funzione di ripartizione caratterizza la v.a. Ad ogni funzione di ripartizione corrisponde una ed una sola distribuzione.

La funzione di ripartizione caratterizza la v.a. Ad ogni funzione di ripartizione corrisponde una ed una sola distribuzione. Funzione di ripartizione X v.a. a valori in IR F X (x) = P (X x), x IR Indice X omesso quando chiaro Proprietà funzione di ripartizione F (i) F X (x) ; x (ii) è non decrescente Sia a < b P (a < X b) =

Dettagli

1. Funzioni implicite

1. Funzioni implicite 1. Funzioni implicite 1.1 Il caso scalare Sia X R 2 e sia f : X R. Una funzione y : (a, b) R si dice definita implicitamente dall equazione f(x, y) = 0 in (a, b) quando: 1. (x, y(x)) X x (a, b); 2. f(x,

Dettagli

Esercitazioni di Statistica

Esercitazioni di Statistica Esercitazioni di Statistica Stima Puntuale Prof. Livia De Giovanni statistica@dis.uniroma.it Esercizio In ciascuno dei casi seguenti determinare quale tra i due stimatori S e T per il parametro θ è distorto

Dettagli

Teorema del limite centrale TCL

Teorema del limite centrale TCL Teorema del limite centrale TCL Questo importante teorema della statistica inferenziale si applica a qualsiasi variabile aleatoria che sia combinazione lineare di N variabili aleatorie le cui funzioni

Dettagli

Statistica ARGOMENTI. Calcolo combinatorio

Statistica ARGOMENTI. Calcolo combinatorio Statistica ARGOMENTI Calcolo combinatorio Probabilità Disposizioni semplici Disposizioni con ripetizione Permutazioni semplici Permutazioni con ripetizioni Combinazioni semplici Assiomi di probabilità

Dettagli

( ) ( ) ( e la probabilità che si verifichi un evento compreso tra c e b a < c < b sarà data da:

( ) ( ) ( e la probabilità che si verifichi un evento compreso tra c e b a < c < b sarà data da: e la probabilità che si verifichi un evento compreso tra c e b a < c < b sarà data da: p ( ) ( c < X < b) f ( x) LA VC NORMALE O GAUSSIANA Una vc si dice normale o gaussiana (da Gauss che la propose come

Dettagli

Dispensa di Statistica

Dispensa di Statistica Dispensa di Statistica 1 parziale 2012/2013 Diagrammi... 2 Indici di posizione... 4 Media... 4 Moda... 5 Mediana... 5 Indici di dispersione... 7 Varianza... 7 Scarto Quadratico Medio (SQM)... 7 La disuguaglianza

Dettagli

Es.: una moneta viene lanciata 3 volte. X = n. di T nei primi 2 lanci Y = n. di T negli ultimi 2 lanci

Es.: una moneta viene lanciata 3 volte. X = n. di T nei primi 2 lanci Y = n. di T negli ultimi 2 lanci Es.: una moneta viene lanciata 3 volte. X = n. di T nei primi 2 lanci Y = n. di T negli ultimi 2 lanci X\Y 0 1 2 0 1/8 1/8 0 1/4 1 1/8 1/4 1/8 1/2 2 0 1/8 1/8 1/4 1/4 1/2 1/4 1 X e Y non sono indip. Se

Dettagli

Esercitazione del 21/02/2012 Istituzioni di Calcolo delle Probabilità

Esercitazione del 21/02/2012 Istituzioni di Calcolo delle Probabilità Esercitazione del /0/0 Istituzioni di Calcolo delle Probabilità David Barbato Funzione di ripartizione Sia F X una funzione da in. consideriamo le seguenti condizioni: F X è non decrescente lim ( ) x F

Dettagli

Probabilità classica. Distribuzioni e leggi di probabilità. Probabilità frequentista. Probabilità soggettiva

Probabilità classica. Distribuzioni e leggi di probabilità. Probabilità frequentista. Probabilità soggettiva Probabilità classica Distribuzioni e leggi di probabilità La probabilità di un evento casuale è il rapporto tra il numero dei casi favorevoli ed il numero dei casi possibili, purchè siano tutti equiprobabili.

Dettagli

Ulteriori Conoscenze di Informatica e Statistica

Ulteriori Conoscenze di Informatica e Statistica Ulteriori Conoscenze di Informatica e Statistica Carlo Meneghini Dip. di fisica via della Vasca Navale 84, st. 83 (I piano) tel.: 06 55 17 72 17 meneghini@fis.uniroma3.it Indici di forma Descrivono le

Dettagli

INFORMAZIONI. p. 1/23

INFORMAZIONI. p. 1/23 p. 1/23 INFORMAZIONI Prossime lezioni Giorno Ora Dove Giovedi 11/02 14:30 Laboratorio (via Loredan) Martedi 16/02 14:30 P50 Lunedi 22/02 09:30 P50 Martedi 23/02 14:30 P50 Giovedi 25/02 14:30 Aula informatica

Dettagli

POPOLAZIONE E CAMPIONI

POPOLAZIONE E CAMPIONI p. 1/2 POPOLAZIONE E CAMPIONI POPOLAZIONE insieme di tutti quegli elementi che hanno almeno una caratteristica comune (persone, oggetti,misure, osservazioni). Consideriamo il caso di caratteristiche associate

Dettagli

Richiami di probabilità e statistica

Richiami di probabilità e statistica Richiami di probabilità e statistica Una variabile casuale (o aleatoria) X codifica gli eventi con entità numeriche x ed è caratterizzata dalla funzione di distribuzione di probabilità P(x) : P(x)=Pr ob[x

Dettagli

Coppie di variabili aleatorie

Coppie di variabili aleatorie Coppie di variabili aleatorie 1 Coppie di variabili aleatorie Definizione: Si definisce vettore aleatorio la coppia (,) dove,, sono definite sullo stesso spazio campione : S R, : S R (, ) : S R Esempio:

Dettagli

Corso di probabilità e statistica

Corso di probabilità e statistica Università degli Studi di Verona Facoltà di Scienze MM.FF.NN. Corso di Laurea in Informatica Corso di probabilità e statistica (Prof. L.Morato) Esercizi Parte III: variabili aleatorie dipendenti e indipendenti,

Dettagli

Statistica. Alfonso Iodice D Enza

Statistica. Alfonso Iodice D Enza Statistica Alfonso Iodice D Enza iodicede@unicas.it Università degli studi di Cassino () Statistica 1 / 33 Outline 1 2 3 4 5 6 () Statistica 2 / 33 Misura del legame Nel caso di variabili quantitative

Dettagli

Probabilità e Statistica

Probabilità e Statistica Diario delle lezioni e del tutorato di Probabilità e Statistica a.a. 2014/2015 www.mat.uniroma2.it/~caramell/did 1415/ps.htm 02/03/2015 - Lezioni 1, 2 Breve introduzione al corso. Fenomeni deterministici

Dettagli

0 < x 3. A1 1 [7 punti] Determinare le eventuali soluzioni del seguente sistema di congruenze: x 2 mod 5 2x 1 mod 3. x 21 mod 7

0 < x 3. A1 1 [7 punti] Determinare le eventuali soluzioni del seguente sistema di congruenze: x 2 mod 5 2x 1 mod 3. x 21 mod 7 Dipartimento di Matematica e Informatica Anno Accademico 017-018 Corso di Laurea in Informatica L-31 Prova scritta di Matematica Discreta 1 CFU 5 Settembre 018 A1 1 [7 punti] Determinare le eventuali soluzioni

Dettagli

Facoltà di Ingegneria Calcolo delle Probabilità e Statistica Ingegneria Civile e A&T e Informatica

Facoltà di Ingegneria Calcolo delle Probabilità e Statistica Ingegneria Civile e A&T e Informatica Facoltà di Ingegneria Calcolo delle Probabilità e Statistica Ingegneria Civile e A&T e Informatica Prima prova scritta A.A. 8-9 Durata della prova h Punteggi: ) + + ; ) + + + ; ) +. Totale. Esercizio Sia

Dettagli

VETTORI DI VARIABILI ALEATORIE

VETTORI DI VARIABILI ALEATORIE VETTOI DI VAIABILI ALEATOIE E. DI NADO 1. Funzioni di ripartizione congiunte e marginali Definizione 1.1. Siano X 1, X 2,..., X n v.a. definite su uno stesso spazio di probabilità (Ω, F, P ). La n-pla

Dettagli

9. Test del χ 2 e test di Smirnov-Kolmogorov. 9.1 Stimatori di massima verosimiglianza per distribuzioni con densità finita

9. Test del χ 2 e test di Smirnov-Kolmogorov. 9.1 Stimatori di massima verosimiglianza per distribuzioni con densità finita 9. Test del χ 2 e test di Smirnov-Kolmogorov 9. Stimatori di massima verosimiglianza per distribuzioni con densità finita Supponiamo di avere un campione statistico X,..., X n e di sapere che esso è relativo

Dettagli

Probabilità e Statistica

Probabilità e Statistica Diario delle lezioni e del tutorato di Probabilità e Statistica a.a. 2013/2014 www.mat.uniroma2.it/~caramell/did 1314/ps.htm 04/03/2014 - Lezioni 1, 2 Breve introduzione al corso. Fenomeni deterministici

Dettagli

Matematica con elementi di Informatica

Matematica con elementi di Informatica Variabili aleatorie Matematica con elementi di Informatica Tiziano Vargiolu Dipartimento di Matematica vargiolu@math.unipd.it Corso di Laurea Magistrale in Chimica e Tecnologie Farmaceutiche Anno Accademico

Dettagli

Vettore (o matrice) casuale (o aleatorio): vettore (o matrice) i cui elementi sono variabili aleatorie

Vettore (o matrice) casuale (o aleatorio): vettore (o matrice) i cui elementi sono variabili aleatorie Variabili (vettori e matrici) casuali Variabile casuale (o aleatoria): Variabile che può assumere un insieme di valori ognuno con una certa probabilità La variabile aleatoria rappresenta la popolazione

Dettagli

Esercitazione del 28/10/2011 Calcolo delle probabilità

Esercitazione del 28/10/2011 Calcolo delle probabilità Esercitazione del 28/0/20 Calcolo delle probabilità Distribuzione di una funzione di una variabile aleatoria discreta. Sia X una variabile aletoria discreta, sia f una funzione da in, se Y := f(x) allora

Dettagli

CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 3

CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 3 CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 3 Dott.ssa Antonella Costanzo a.costanzo@unicas.it Esercizio 1. La variabile casuale normale Da un analisi di bilancio è emerso che, durante i giorni feriali

Dettagli

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2011/12

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2011/12 PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 0/ Esercizio Prova scritta del 7/06/0 Siano X e Y due v.a. indipendenti, con distribuzione continua Γ(, ). Si trovino la distribuzione di X Y e di (X Y ). Esercizio

Dettagli

UNIVERSITA DEGLI STUDI DI BRESCIA-FACOLTA DI MEDICINA E CHIRURGIA CORSO DI LAUREA IN INFERMIERISTICA SEDE DI DESENZANO dg STATISTICA MEDICA.

UNIVERSITA DEGLI STUDI DI BRESCIA-FACOLTA DI MEDICINA E CHIRURGIA CORSO DI LAUREA IN INFERMIERISTICA SEDE DI DESENZANO dg STATISTICA MEDICA. Lezione 4 DISTRIBUZIONE DI FREQUENZA 1 DISTRIBUZIONE DI PROBABILITA Una variabile i cui differenti valori seguono una distribuzione di probabilità si chiama variabile aleatoria. Es:il numero di figli maschi

Dettagli

Distribuzioni di Probabilità

Distribuzioni di Probabilità Distribuzioni di Probabilità Distribuzioni discrete Distribuzione uniforme discreta Distribuzione di Poisson Distribuzioni continue Distribuzione Uniforme Distribuzione Gamma Distribuzione Esponenziale

Dettagli

Analisi multivariata per osservazioni appaiate. Analisi multivariata per osservazioni appaiate

Analisi multivariata per osservazioni appaiate. Analisi multivariata per osservazioni appaiate Introduzione Notazione Modello additivo Verifica d ipotesi Sia X una variabile q-dimensionale, a valori reali, non degenere, osservata in k tempi diversi (τ 1, τ 2,..., τ k ), sulle stesse n unità statistiche

Dettagli

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A. 2004-05 Alberto Perotti DELEN-DAUIN Esperimento casuale Esperimento suscettibile di più

Dettagli

Calcolo delle Probabilità e Statistica Matematica previsioni 2003/04

Calcolo delle Probabilità e Statistica Matematica previsioni 2003/04 Calcolo delle Probabilità e Statistica Matematica previsioni 2003/04 LU 1/3 Esempi di vita reale : calcolo delle probabilità, statistica descrittiva e statistica inferenziale. Lancio dado/moneta: definizione

Dettagli

Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016

Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016 Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 205/206 20 Settembre 206 Esercizio. Un dado equilibrato viene lanciato ripetutamente. Indichiamo con X n il risultato dell n-esimo

Dettagli

Risoluzioni di alcuni esercizi

Risoluzioni di alcuni esercizi Risoluzioni di alcuni esercizi Reti topografiche, trasformazioni di coordinate piane In una poligonale piana il punto è nell origine delle coordinate, l angolo (in verso orario fra il semiasse positivo

Dettagli

Probabilità e Statistica

Probabilità e Statistica Diario delle lezioni e del tutorato di Probabilità e Statistica a.a. 2012/2013 www.mat.uniroma2.it/~caramell/did 1213/ps.htm 05/03/2013 - Lezioni 1, 2, 3 Breve introduzione al corso. Fenomeni deterministici

Dettagli

Indici di posizione e dispersione per distribuzioni di variabili aleatorie

Indici di posizione e dispersione per distribuzioni di variabili aleatorie Indici di posizione e dispersione per distribuzioni di variabili aleatorie 12 maggio 2017 Consideriamo i principali indici statistici che caratterizzano una distribuzione: indici di posizione, che forniscono

Dettagli

Statistica 28/10/09 Gruppo H-Z Programma ed esercizi svolti

Statistica 28/10/09 Gruppo H-Z Programma ed esercizi svolti ) Statistica 8/1/9 Gruppo H-Z Programma ed esercizi svolti Coppie ( X, Y di variabili aleatorie (v.a.) X e Y considerate congiuntamente pag. 1 Rappresentazioni grafiche di una coppia ( X, Y ) di v.a. pag.

Dettagli

Contenuti: Capitolo 14 del libro di testo

Contenuti: Capitolo 14 del libro di testo Test d Ipotesi / TIPICI PROBLEMI DI VERIFICA DI IPOTESI SONO Test per la media Test per una proporzione Test per la varianza Test per due campioni indipendenti Test di indipendenza Contenuti Capitolo 4

Dettagli

con distribuzione gaussiana standard e si ponga

con distribuzione gaussiana standard e si ponga Laurea Triennale in Matematica, Università La Sapienza Corso di Probabilità, AA 6/7 Prova di Esonero Maggio 7 Testi e soluzioni degli esercizi proposti Siano Z, Z, Z variabili aleatorie indipendenti e

Dettagli

Esonero di Analisi Matematica II (A)

Esonero di Analisi Matematica II (A) Esonero di Analisi Matematica II (A) Ingegneria Edile, 8 aprile 3. Studiare la convergenza del seguente integrale improprio: + x log 3 x (x ) 3 dx.. Studiare la convergenza puntuale ed uniforme della seguente

Dettagli

I VETTORI GAUSSIANI E. DI NARDO

I VETTORI GAUSSIANI E. DI NARDO I VETTOI GAUSSIANI E. DI NADO. L importanza della distribuzione gaussiana I vettori di v.a. gaussiane sono senza dubbio uno degli strumenti più utili in statistica. Nell analisi multivariata, per esempio,

Dettagli

UNIVERSITA` di ROMA TOR VERGATA

UNIVERSITA` di ROMA TOR VERGATA UNIVERSITA` di ROMA TOR VERGATA Corso di PS2-Probabilità 2 PBaldi appello, 23 giugno 29 Corso di Laurea in Matematica Esercizio Per α 2 consideriamo la catena di Markov su {, 2, 3} associata alla matrice

Dettagli

UNIVERSITA DEGLI STUDI DI BRESCIA-FACOLTA DI MEDICINA E CHIRURGIA CORSO DI LAUREA IN INFERMIERISTICA SEDE DI DESENZANO dg STATISTICA MEDICA.

UNIVERSITA DEGLI STUDI DI BRESCIA-FACOLTA DI MEDICINA E CHIRURGIA CORSO DI LAUREA IN INFERMIERISTICA SEDE DI DESENZANO dg STATISTICA MEDICA. Lezione 4 DISTRIBUZIONE DI FREQUENZA 1 DISTRIBUZIONE DI PROBABILITA Una variabile i cui differenti valori seguono una distribuzione di probabilità si chiama variabile aleatoria. Es:il numero di figli maschi

Dettagli

9.3 Il metodo dei minimi quadrati in formalismo matriciale

9.3 Il metodo dei minimi quadrati in formalismo matriciale 9.3. IL METODO DEI MINIMI QUADRATI IN FORMALISMO MATRICIALE 121 9.3 Il metodo dei minimi quadrati in formalismo matriciale Per applicare il MMQ a funzioni polinomiali, ovvero a dipendenze di una grandezza

Dettagli

STATISTICA INDUTTIVA: STIMA DI PARAMETRI STIMA PUNTUALE

STATISTICA INDUTTIVA: STIMA DI PARAMETRI STIMA PUNTUALE S.S.I.S TOSCANA F.I.M. -II anno STATISTICA INDUTTIVA: STIMA DI PARAMETRI STIMA PUNTUALE PROBLEMA 1 Vogliamo valutare la percentuale p di donne fumatrici tra le donne in età fertile. Procediamo all estrazione

Dettagli

Ulteriori Conoscenze di Informatica e Statistica

Ulteriori Conoscenze di Informatica e Statistica ndici di forma Ulteriori Conoscenze di nformatica e Statistica Descrivono le asimmetrie della distribuzione Carlo Meneghini Dip. di fisica via della Vasca Navale 84, st. 83 ( piano) tel.: 06 55 17 72 17

Dettagli

Tutorato di Complementi di Analisi Matematica e Statistica 30 maggio 2016

Tutorato di Complementi di Analisi Matematica e Statistica 30 maggio 2016 Tutorato di Complementi di Analisi Matematica e Statistica 30 maggio 2016 Esercizi possibili di probabilità e statistica Notazioni: U(a, b) è la distribuzione di probabilità uniforma nell intervallo (a,

Dettagli

Tutorato di Complementi di Analisi Matematica e Statistica 26 maggio 2016

Tutorato di Complementi di Analisi Matematica e Statistica 26 maggio 2016 Tutorato di Complementi di Analisi Matematica e Statistica 26 maggio 2016 Esercizi possibili di probabilità e statistica Notazioni: U(a, b) è la distribuzione di probabilità uniforma nell intervallo (a,

Dettagli

! X (92) X n. P ( X n X ) =0 (94)

! X (92) X n. P ( X n X ) =0 (94) Convergenza in robabilità Definizione 2 Data una successione X 1,X 2,...,X n,... di numeri aleatori e un numero aleatorio X diremo che X n tende in probabilità a X escriveremo X n! X (92) se fissati comunque

Dettagli

Statistica Applicata all edilizia: Stime e stimatori

Statistica Applicata all edilizia: Stime e stimatori Statistica Applicata all edilizia E-mail: orietta.nicolis@unibg.it 15 marzo 2011 Statistica Applicata all edilizia: Indice 1 2 Statistica Applicata all edilizia: Uno dei problemi principali della statistica

Dettagli

Distribuzione normale

Distribuzione normale Distribuzione normale istogramma delle frequenze di un insieme di misure relative a una grandezza che varia con continuità popolazione molto numerosa, costituita da una quantità praticamente illimitata

Dettagli

ARGOMENTI TRATTATI NEL CORSO DI ANALISI II

ARGOMENTI TRATTATI NEL CORSO DI ANALISI II ARGOMENTI TRATTATI NEL CORSO DI ANALISI II ANALISI Limiti Curve Convergenza di una successione di punti Definizione di limite Condizione necessaria e condizione sufficiente all esistenza del limite in

Dettagli

Richiami di Statistica

Richiami di Statistica Università di Pavia Richiami di Statistica Eduardo Rossi Popolazione e campione casuale Un idea centrale della statistica è che un campione sia una rappresentazione della popolazione. Si possono sfruttare

Dettagli

PROVA SCRITTA DI STATISTICA (COD COD ) 7 luglio 2005 APPROSSIMARE TUTTI I CALCOLI ALLA QUARTA CIFRA DECIMALE SOLUZIONI MODALITÀ A

PROVA SCRITTA DI STATISTICA (COD COD ) 7 luglio 2005 APPROSSIMARE TUTTI I CALCOLI ALLA QUARTA CIFRA DECIMALE SOLUZIONI MODALITÀ A PROVA SCRITTA DI STATISTICA (COD. 047 - COD. 403-37-377) 7 luglio 200 APPROSSIMARE TUTTI I CALCOLI ALLA QUARTA CIFRA DECIMALE SOLUZIONI MODALITÀ A Esercizio (9 punti) Supponiamo di aver osservato la seguente

Dettagli

Richiami di statistica e loro applicazione al trattamento di osservazioni topografiche e geodetiche

Richiami di statistica e loro applicazione al trattamento di osservazioni topografiche e geodetiche Richiami di statistica e loro applicazione al trattamento di osservazioni topografiche e geodetiche Ludovico Biagi Politecnico di Milano, DIIAR ludovico.biagi@polimi.it (materiale didattico preparato in

Dettagli

Programma della parte introduttiva: Lezione 5

Programma della parte introduttiva: Lezione 5 Programma della parte introduttiva: Lezione 5 Cap. 3 Presentazione e confronto tra misure Cap. 4 Propagazione delle incertezze Cap 5 Misure ripetute e stimatori Cap.6 Organizzazione e presentazione dei

Dettagli

Statistica descrittiva I. La frequenza

Statistica descrittiva I. La frequenza Statistica descrittiva I. La frequenza Supponiamo di ripetere n volte un esperimento che può dare esito 0 o 1, il numero di uni su n ripetizioni è detto frequenza di 1: f 1,n = #{esperimenti con esito

Dettagli

Esercitazione: La distribuzione NORMALE

Esercitazione: La distribuzione NORMALE Esercitazione: La distribuzione NORMALE Uno dei più importanti esempi di distribuzione di probabilità continua è dato dalla distribuzione Normale (curva normale o distribuzione Gaussiana); è una delle

Dettagli

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A. 2006-07 Alberto Perotti Esperimento casuale Esperimento suscettibile di più risultati

Dettagli

Statistica inferenziale, Varese, 18 novembre 2009 Prima parte - Modalità D

Statistica inferenziale, Varese, 18 novembre 2009 Prima parte - Modalità D Statistica inferenziale, Varese, 18 novembre 2009 Prima parte - Modalità D Cognome Nome: Part time: Numero di matricola: Diurno: ISTRUZIONI: Il punteggio relativo alla prima parte dell esame viene calcolato

Dettagli

Statistica inferenziale, Varese, 18 novembre 2009 Prima parte - Modalità B

Statistica inferenziale, Varese, 18 novembre 2009 Prima parte - Modalità B Statistica inferenziale, Varese, 18 novembre 2009 Prima parte - Modalità B Cognome Nome: Part time: Numero di matricola: Diurno: ISTRUZIONI: Il punteggio relativo alla prima parte dell esame viene calcolato

Dettagli

Campionamento e stima di parametri

Campionamento e stima di parametri Sia X una variabile aleatoria associata a un dato esperimento. Ripetiamo l esperimento n volte, ottenendo una famiglia di valori sperimentali della v.a. X : X = (X 1, X 2,..., X n ) ogni X i é una v.a.

Dettagli

distribuzione normale

distribuzione normale distribuzione normale Si tratta della più importante distribuzione di variabili continue, in quanto: 1. si può assumere come comportamento di molti fenomeni casuali, tra cui gli errori accidentali; 2.

Dettagli

COGNOME.NOME...MATR..

COGNOME.NOME...MATR.. STATISTICA 29.01.15 - PROVA GENERALE (CHALLENGE) Modalità A (A) ai fini della valutazione verranno considerate solo le risposte riportate dallo studente negli appositi riquadri bianchi: in caso di necessità

Dettagli

Esercizi di Complementi di Matematica (L-Z) a.a. 2015/2016

Esercizi di Complementi di Matematica (L-Z) a.a. 2015/2016 Esercizi di Complementi di Matematica (L-Z) a.a. 2015/2016 Prodotti scalari e forme bilineari simmetriche (1) Sia F : R 2 R 2 R un applicazione definita da F (x, y) = x 1 y 1 + 3x 1 y 2 5x 2 y 1 + 2x 2

Dettagli

Propagazione delle varianze, conosciuta come propagazione degli errori.

Propagazione delle varianze, conosciuta come propagazione degli errori. Propagazione delle varianze, conosciuta come propagazione degli errori. Siano x 1, x 2, x n n variabili casuali e poniamo,, ) = y ( ) Supponiamo inoltre nota la matrice delle covarianze delle x e vogliamo

Dettagli

Nel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0.

Nel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0. Regressione [] el modello di regressione lineare si assume una relazione di tipo lineare tra il valore medio della variabile dipendente Y e quello della variabile indipendente X per cui Il modello si scrive

Dettagli

Test d ipotesi. Monica Musio, Maria Luisa Targhetta

Test d ipotesi. Monica Musio, Maria Luisa Targhetta Test d ipotesi Monica Musio, Maria Luisa Targhetta 0. Introduzione Un ipotesi statistica è un asserzione sui parametri di una popolazione. Siano: H 0 : θ Θ 0 H : θ Θ () L ipotesi nulla e l ipotesi alternativa

Dettagli

Analisi Matematica 2. Michele Campiti. Prove scritte di. Ingegneria Industriale a.a

Analisi Matematica 2. Michele Campiti. Prove scritte di. Ingegneria Industriale a.a Michele Campiti Prove scritte di Analisi Matematica 2 Ingegneria Industriale a.a. 20 202 Grafico della funzione f(x, y) := sin(2x 2 y) cos(x 2y 2 ) in [ π/2, π/2] 2 Raccolta delle tracce di Analisi Matematica

Dettagli