Calcolo delle Probabilità e Statistica Matematica: definizioni prima parte Cap.1: Probabilità 1. Esperimento aleatorio (definizione informale): è un esperimento che a priori può avere diversi esiti possibili e il cui esito effettivo dipende dal caso. 2. Spazio campionario: è l insieme i cui elementi sono gli esiti possibili di un esperimento aleatorio (oppure i cui elementi possono essere messi in corrispondenza biunivoca con gli esiti). Si indica con Ω. 3. Probabilità uniforme (o classica): dato Ω tale che Ω <, la probabilità uniforme su Ω è la funzione P : P(Ω) [0, 1] definita P (A) = A / Ω. 4. Eventi elementari: sono i sottoinsiemi di cardinalità 1 di Ω. 5. Algebra e σ algebra: date le proprietà a. Ω F b. A F = A c F c1. A 1,..., A n F = A 1 A n F c2. {A n } n 1 F = n 1 A n F allora F P(Ω) è un algebra se soddisfa a, b, e c1, una σ algebra se soddisfa a, b, e c2. 6. Spazio degli eventi: in generale lo spazio degli eventi è una (opportuna) σ algebra di sottoinsiemi di Ω. Se Ω è finito o numerabile allora si prende come spazio degli eventi P(Ω). 7. Probabilità (definizione assiomatica): dato uno spazio campionario Ω e lo spazio degli eventi F, una funzione di probabilità è una funzione P : F [0, 1] tale che 1
a. P (Ω) = 1 b. Se {A n } n 1 F è una successione di eventi a due a due disgiunti, allora ( ) P A n = P (A n ) n=1 8. Probabilità condizionata: dato un evento B tale che P (B) > 0, la probabilità di un altro evento A condizionata a B è P (A B) = P (A B)/P (B). 9. Due eventi indipendenti: due eventi A e B sono indipendenti se P (A B) = P (A)P (B). 10. Famiglia di n eventi indipendenti: A 1,..., A n sono una famiglia di eventi indipendenti se ogni volta che ne scegliamo k (k intero fra 2 e n) la probabilità dell intersezione coincide con il prodotto delle probabilità. n=1 Cap.2: Variabili aleatorie 1. Funzione caratteristica (o indicatrice) di un insieme A: è la funzione che vale 1 su A e 0 su A c e si indica con 1l A (x). 2. Variabile aleatoria (definizione generale): una variabile aleatoria X su Ω è una funzione X : Ω R tale che X 1 ((, r]) F per ogni r R. 3. V.a. discreta: una variabile aleatoria è discreta se la sua immagine è finita o numerabile. 4. V.a. continua: una v.a. è continua se ammette densità continua, cioè se esiste f : R R tale che f(x) 0 per ogni x, f(x)dx = 1 e R P (X I) = f(x)dx per ogni intervallo reale I. I 5. Densità discreta di una v.a. X che assume solo i valori {x j } j J (J famiglia al più numerabile di indici):è la funzione f X (x) = P (X = x j ) se x = x j per qualche j J, mentre f X (x) = 0 altrove. 2
6. Densità discreta (in generale): è una funzione f : R [0, 1] tale che f(x) = 0 tranne al più un infinità numerabile di valori {x k } k=1 e k=1 f(x k) = 1. 7. Densità continua (in generale): è una funzione f : R R tale che f(x) 0 per ogni x R e f(x)dx = 1. R 8. Legge (o distribuzione) di una v.a. X: se X : Ω R è una v.a. e su Ω (o meglio, su una famiglia di eventi di Ω) è definita una funzione di probabilità P, la legge di X è la funzione di probabilità P X definita su B(R) (i boreliani di R) da P X (A) := P (X A). 9. Valore atteso di una v.a. discreta: se X una v.a. discreta a valori in {x k } k=1, il suo valore atteso è E(X) = k x k P (X = x k ), purché la serie converga assolutamente, altrimenti si dice che X non ha valore atteso finito. 10. Valore atteso di una v.a. continua: data X v.a. continua con densità f X, il suo valore atteso è E(X) = R xf X(x)dx, purché l integrale R x f X(x)dx esista finito, altrimenti si dice che X non ha valore atteso finito. 11. Varianza di una v.a.: se X una v.a. con valore atteso finito, Var(X) = E[(X E(X)) 2 ], purché questo valore atteso esista finito, altrimenti si dice che X non ha varianza finita. 12. Scarto quadratico medio (o deviazione standard) di una v.a.: è la radice quadrata della varianza, se questa esiste finita. 13. Standardizzata di una v.a.: se X ha valore atteso µ e varianza σ 2 (entrambi finiti), la standardizzata di X è (X µ)/σ. 14. Funzione di ripartizione di una v.a. X: è la funzione F X : R [0, 1] definita da F X (t) = P (X t). 3
Cap.3: Vettori aleatori 1. Vettore aleatorio: date X 1,..., X n v.a.: Ω R, X = (X 1,..., X n ) : Ω R n, è un vettore aleatorio n dimensionale. 2. Funzioni di ripartizione congiunta e marginali di un vettore aleatorio: dato il vettore X = (X 1,..., X n ), F X (t 1,..., t n ) = P (X 1 t 1,..., X n t n ) è la funzione di ripartizione congiunta delle X i, mentre le F Xi (t) = P (X i t i ) sono le marginali delle X i. 3. Vettore aleatorio discreto e continuo: un vettore è discreto se assume un insieme al più numerabile di n ple di valori; è continuo se esiste f X : R n [0, + ) tale che per ogni (t 1,..., t n ) R n, F X (t 1,..., t n ) = t1 tn f X (u 1,..., u n )du 1... du n. (f X è la densità continua congiunta delle X i, mentre le densità delle singole X i sono dette marginali). 4. Densità discrete congiunta e marginali: la funzione f x cha vale f X (x 1,..., x n ) = P (X 1 = x 1,..., X n = x n ) se (x 1,..., x n ) è uno dei valori assunti da X, mentre vale 0 altrove, è la densità discreta congiunta delle X i mentre le densità delle singole X i sono dette marginali. 5. Due v.a. X e Y indipendenti: lo sono se P (X I, Y J) = P (X I)P (Y J) è verificata per ogni coppia di intervalli I e J reali. 6. Famiglia indipendente di n v.a.: X 1,... X n lo sono se P (X 1 I 1,..., X n I n ) = P (X 1 I 1 ) P (X n I n ) è verificata per ogni n pla di intervalli I 1,... I n reali (anche degeneri, cioè I i = R). 7. Valore atteso di funzioni di vettori: sia g : R n R (tale che g(x 1,..., X n ) è una v.a.), allora E(X) = g(x 1,..., x n )P (X 1 = x 1,..., X n = x n ), x 1,...,x n 4
se X = (X 1,..., X n ) è discreto (e la sommatoria è su tutti i valori possibili per X 1,..., X n ), mentre E(X) = g(x 1,..., x n )f X (x 1,..., x n )dx 1... dx n, R n se X è continuo, dove f X è la densità congiunta. 8. Covarianza di due v.a. X e Y : è Cov(X, Y ) = E[(X E(X))(Y E(Y ))] se tale valore atteso esiste finito (altrimenti non esiste finita). 9. V.a. scorrelate: sono due v.a con covarianza pari a zero. 10. Coefficiente di correlazione: è ρ X,Y = Cov(X, Y ) σ X σ Y. 11. Densità normale standard n dimensionale N (0, I): f X (x 1,..., x n ) = 1 exp (2π) n/2 ( 1 2 (x2 1 + + x 2 n) 12. Densità normale n dimensionale multivariata: se µ R n e C è una matrice n n simmetrica e definita positiva, la densità N (µ, C) è f X (x 1,..., x n ) = ). ( 1 (2π) n/2 detc exp 1 ) 2 ((x µ)t C 1 (x µ). Cap.4: Statistica inferenziale stimatori 1. Famiglia (cardinalità qualsiasi) di v.a. indipendenti: una famiglia di v.a. {X α } α A lo è se per ogni scelta di k di esse {X α1,..., X αk } è una famiglia indipendente (definizione vista nella prima parte). 5
2. Popolazione obiettivo: l insieme di tutti gli elementi in esame, riguardo ai quali si vogliono ottenere informazioni. 3. Modello statistico: è una famiglia di leggi di v.a., che dipende da uno o più parametri incogniti, e si indica scrivendo la densità {f(x; θ) : θ Θ}, dove Θ è l insieme dei valori possibili per il parametro. 4. Campione casuale: una n pla di v.a. X 1,..., X n i.i.d., ciascuna con densità f(x; θ) è un campione casuale della densità f. 5. Statistica: è una v.a. composta T = t(x 1,..., X n ) (funzione del campione casuale), dove t : R n R d (dove d è la dimensione di Θ) non dipende da alcun parametro ignoto; stimatore è una statistica usata per stimare una funzione τ(θ) del parametro. 6. Stimatore non distorto: uno stimatore T di τ(θ) è non distorto se E θ (T ) = τ(θ) per ogni θ Θ. 7. Stimatore asintoticamente non distorto: uno stimatore T n di τ(θ) è asintoticamente non distorto se E θ (T n ) τ(θ) per n, per ogni θ Θ. 8. Rischio quadratico di uno stimatore T di τ(θ): R T (θ) := E θ [(T τ(θ)) 2 ]. 9. Stimatore preferibile a un altro: dati T e U stimatori di τ(θ), T è preferibile ad U se R T (θ) R U (θ) per ogni θ Θ. 10. Stimatore consistente in media quadratica: uno stimatore T n di τ(θ) lo è se R Tn (θ) 0 per n, per ogni θ Θ. 11. Momento di ordine r di una v.a. X: è m r (X) := E(X r ). 12. Momento campionario di ordine r: dato un campione casuale il momento suddetto è M r := 1 n n i=1 Xr i. 13. Funzione di verosimiglianza: dato un campione X 1,..., X n della densità f o (x; θ), con densità congiunta quindi f(x 1,..., x n ; θ) = f o (x 1 ; θ) f o (x n ; θ), 6
la funzione di verosimiglianza di X 1,..., X n è L(θ; x 1,..., x n ) = f(x 1,..., x n ; θ). 14. Stimatore di massima verosimiglianza: una statistica T = t(x 1,..., X n ) lo è se per ogni (x 1,..., x n ) nell insieme di definizione della densità congiunta, il punto θ = t(x 1,..., x n ) è un massimo assoluto di L(θ; x 1,..., x n ). Cap.5: Statistica inferenziale intervalli di confidenza 1. Intervallo di confidenza di livello γ: dato un campione casuale X 1,..., X n della densità f(x; θ), due statistiche T 1 = t 1 (X 1,..., X n ) e T 2 = t 2 (X 1,..., X n ) con T 1 T 2 costituiscono un intervallo di confidenza di livello γ per τ(θ) se P θ (T 1 τ(θ) T 2 ) = γ per ogni θ Θ (l intervallo aleatorio! è (T 1, T 2 )). 2. Intervallo di confidenza di livello γ calcolato dal campione: una volta osservati i valori numerici assunti dal campione (in un caso ω Ω) x 1,..., x n, è l intervallo numerico ( T 1, T 2 ) dove T i = t i (x 1,..., x n ). 3. Quantile α esimo di una v.a. X avente funzione di ripartizione F : è il più piccolo x tale che F (x) α. 4. Legge t(n) (Student con n gradi di libertà): date U N (0, 1) e V χ 2 (n) indipendenti, la v.a. Y = U/ V/n ha per definizione legge t(n). 5. Quantità pivotale: dato un campione casuale X 1,..., X n della densità f(x; θ) una v.a. Q = q(x 1,..., X n ; θ) tale che la sua legge non dipende da θ è una quantità pivotale. 7
Cap.6: Statistica inferenziale test d ipotesi 1. Ipotesi statistica: consiste nella scelta di un sottoinsieme (proprio) Θ 0 Θ, la sua alternativa è Θ 1 = Θ \ Θ 0. 2. Ipotesi nulla e alternativa: H 0 : θ Θ 0 (nulla) e H 1 : θ Θ 1 (alternativa). 3. Test statistico: una procedura (che non coinvolge parametri incogniti) che a partire dai valori osservati del campione casuale consente di decidere se accettare o meno H 0. 4. Regione critica di un test: sottoinsieme C delle possibili osservazioni del campione casuale tale che se si osserva (x 1,..., x n ) C il test rifiuta H 0. 5. Errore di I e II specie: rifiutare H 0 quando è vera (I); accettare H 0 quando è falsa (II). 6. Funzione potenza di un test: π : Θ [0, 1] definita da π(θ) = P θ [(X 1,..., X n ) C]. 7. Ampiezza o livello di un test: α = sup θ Θ0 π(θ). 8. p value: dato un test con regione critica C α (la regione dipende in genere dal livello, qui è scritta esplicitamente tale dipendenza) e le osservazioni del campione casuale (x 1,..., x n ), il p value è il minimo livello α per cui (x 1,..., x n ) C α. 8