Variabili casuali multidimensionali
|
|
|
- Ladislao Neri
- 8 anni fa
- Visualizzazioni
Transcript
1 Capitolo 1 Variabili casuali multidimensionali Definizione 1.1 Le variabili casuali multidimensionali sono k-ple ordinate di variabili casuali unidimensionali definite sullo stesso spazio di probabilità. Tali variabili vengono indicate nel modo seguente X = (X 1,..., X k ) dove k rappresenta la dimensione del vettore casuale. Posto che il vettore x = (x 1,..., x k ) corrisponda a una possibile determinazione della variabile aleatoria k-dimensionale X, è possibile definire la funzione di distribuzione congiunta. Definizione 1.2 La funzione di distribuzione (o di ripartizione) congiunta F (x) è data dalla probabilità del verificarsi dell evento (X 1 x 1 ) (X k x k ) F (x) = F (x 1,..., x k ) = Pr(X 1 x 1,..., X k x k ) Analogamente per h < k si definisce la funzione di distribuzione marginale. Definizione 1.3 Se X 1,..., X h sono elementi di un vettore aleatorio k-dimensionale (con h < k), la funzione di distribuzione (o di ripartizione) marginale è data dalla probabilità di verificarsi dell evento (X 1 x 1 ) (X h x h ) F (x 1,..., x h ) = lim F (x 1,..., x k ) = F (x 1,..., x h,,..., ) x h+1,...,x k 1
2 2 A. Pollice - Statistica Multivariata 1.1 Variabili casuali multidimensionali discrete Una variabile aleatoria k-dimensionale si dice discreta se può assumere un numero finito o un infinità numerabile di k-ple di valori. Definizione 1.4 Se X è un vettore aleatorio k-dimensionale discreto, la funzione di probabilità di X è definita da p(x 1,..., x k ) = Pr(X 1 = x 1,..., X k = x k ) Dunque p(x 1,..., x k ) restituisce la probabilità congiunta associata a una determinata k-pla di valori. Definizione 1.5 Per un vettore aleatorio discreto X si dice supporto l insieme definito da X = {(x 1,..., x k ) p(x 1,..., x k ) > 0} Per la definizione di vettore aleatorio discreto, X è un insieme finito o al più infinitamente numerabile. Definizione 1.6 La funzione di probabilità marginale corrisponde alla probabilità associata a un sottoinsieme di h componenti del vettore aleatorio X (con h < k) ed è data dall espressione seguente p(x 1,..., x h ) = x h+1... x k p(x 1,..., x h,..., x k ) (1.1) Dunque la funzione di probabilità marginale di un certo sottoinsieme di h elementi di X fornisce la probabilità della h-pla (x 1,..., x h ) qualunque siano le determinazioni assunte da (X h+1,..., X k ). Definizione 1.7 La funzione di probabilità condizionata restituisce la probabilità associata ad un sottoinsieme di h elementi del vettore aleatorio X dato che i restanti k h elementi assumano un valore noto p(x 1,..., x h x h+1,..., x k ) = = Pr(X 1 = x 1,..., X h = x h X h+1 = x h+1,..., X k = x k ) = = p(x 1,..., x k ) p(x h+1,..., x k ) (1.2) Questa definizione è un ovvia estensione del concetto di probabilità condizionata alla funzione di probabilità. Naturalmente affinchè la (1.2) abbia senso è necessario che p(x h+1,..., x k ) > 0.
3 Cap.1: Variabili casuali multidimensionali Variabili casuali multidimensionali continue Tutte le definizioni contenute nel paragrafo precedente hanno un corrispettivo con riferimento alle variabili aleatorie multidimensionali continue ovvero dotate di funzione di densità congiunta. Definizione 1.8 Dato un vettore aleatorio X associato alla funzione di ripartizione F, se esiste una funzione f : R k R tale che per qualsiasi x in R k valga x1 xk F (x) = F (x 1,..., x k ) =... f(t)dt essa è detta funzione di densità congiunta di X. La funzione di densità congiunta soddisfa le seguenti proprietà: (i) f(x) 0 (1.3) (ii) f(x)dx = 1 (1.4) R k (iii) C R k, Pr(X C) = f(x)dx (1.5) (iv) per qualsiasi x = (x 1,..., x k ) punto di continuità di f C f(x 1,..., x k ) = k F (x 1,..., x k ) x 1... x k (1.6) Definizione 1.9 Il supporto X di un vettore aleatorio continuo X corrisponde al più piccolo insieme a cui la densità assegna probabilità 1. Definizione 1.10 In analogia con il caso di vettori aleatori discreti si dice che la generica h-pla (X 1,..., X h ), con h < k, ha funzione di densità marginale data dall espressione f(x 1,..., x h ) =... f(x 1,..., x h,..., x k )dx h+1... dx k (1.7) Definizione 1.11 La funzione di densità di X 1,..., X h condizionata ad X h+1 = x h+1,..., X k = x k è data dall espressione f(x 1,..., x h x h+1,..., x k ) = f(x 1,..., x k ) f(x h+1,..., x k ) (1.8)
4 4 A. Pollice - Statistica Multivariata 1.3 Indipendenza stocastica Definizione 1.12 Se F (x 1,..., x k ) è la funzione di distribuzione congiunta del vettore casuale (X 1,..., X k ) ed F i (x i ) sono le distribuzioni marginali delle componenti unidimensionali X i (i = 1,..., k), queste ultime sono dette stocasticamente indipendenti se vale F (x) = k F i (x i ) i=1 L indipendenza stocastica di (X 1,..., X k ) implica quella di tutti i possibili accoppiamenti delle sue componenti unidimensionali. Il contrario non è altrettanto vero: se tutte le coppie possibili di componenti unidimensionali di x sono indipendenti non è detto che lo siano simultaneamente tutte le k componenti. 1.4 Valori attesi Definizione 1.13 Il valore atteso del vettore aleatorio k-dimensionale X è dato dal vettore k-dimensionale dei valori attesi dei suoi elementi µ = E(X) = (E(X 1 ),..., E(X k )) = (µ 1,..., µ k ) Naturalmente la definizione precedente ha senso purché esista finito il valore atteso di ogni componente del vettore aleatorio X. Le principali proprietà sono le seguenti (i) Il valore atteso del trasposto di un vettore aleatorio è uguale al trasposto del valore atteso del vettore stesso E(X ) = [E(X)] (1.9) (ii) Linearità. Per X vettore casuale k-dimensionale ed A e b rispettivamente matrice e vettore di costanti in R h k ed R h vale E(A X + b) = A E(X) + b (1.10) (iii) Additività. Per X 1 e X 2 vettori casuali in R k ed A e B matrici di costanti in R h k vale E(A X 1 + B X 2 ) = A E(X 1 ) + B E(X 2 ) (1.11)
5 Cap.1: Variabili casuali multidimensionali 5 Definizione 1.14 La matrice di varianze e covarianze di un vettore aleatorio k- dimensionale X è data dall espressione seguente Cov(X) = E{(X E(X))(X E(X)) } = E(XX ) E(X)E(X) (1.12) La definizione precedente ha senso purché valga E(X 2 j ) < +, j = 1,..., k Il perchè è facilmente intuibile se si considera che gli elementi della matrice di varianze e covarianze Σ = Cov(X) sono dati da σ 2 1 σ σ 1k σ 21 σ σ 2k Σ = σ k1 σ k2... σk 2 Dunque Σ è una matrice quadrata simmetrica in R k k che contiene le varianze σ ii = σ 2 i = E (X i E(X i )) 2 di ciascuna componente X i sulla diagonale principale, mentre al di fuori di questa si trovano tutte le possibili covarianze σ ij = σ ji = E{(X i E(X i ))(X j E(X j ))} (se i j) tra le coppie di componenti (X i, X j ). Proprietà 1.15 Qualsiasi matrice di varianze e covarianze è semidefinita positiva. Affinché Cov(X) sia semidefinita positiva deve valere a Cov(X)a 0 per qualsiasi a nonnullo in R k, e quindi 0 a Cov(X)a = E{a [X E(X)][X E(X)] a} = E{[a (X E(X))] 2 } }{{} 0 Definizione 1.16 La matrice di covarianze tra il vettore aleatorio k- dimensionale X e il vettore aleatorio h-dimensionale Y è data dall espressione seguente: Cov(X, Y ) = E{(X E(X))(Y E(Y )) } = E(XY ) E(X)E(Y ) (1.13) Come nel caso precedente se Σ XY = Cov(X, Y ) σ X1 Y 1 σ X1 Y 2... σ X1 Y h σ X2 Y 1 σ X2 Y 2... σ X2 Y h Σ XY =... σ Xk Y 1 σ Xk Y 2... σ Xk Y h
6 6 A. Pollice - Statistica Multivariata Ne concludiamo che Σ XY è una matrice in R k h il cui generico elemento σ Xi Y j = E{(X i E(X i ))(Y j E(Y j ))} è la covarianza tra la coppia (X i, Y j ). Si osservi che Cov(X, X) = Cov(X): questa seconda definizione è quindi più generale. Tuttavia, a meno che non sia ulteriormente specificato o definito dal contesto, parleremo di matrice di varianze e covarianze nel senso della Def Proprietà 1.17 Se Z = AX + b e K = CY + d, con X ed Y vettori casuali in R k, A e C matrici di costanti in R h k, b e d vettori di costanti in R h, vale Cov(Z, K) = ACov(X, Y )C. Cov(Z, K) = E{[Z E(Z)][K E(K)] } = = E{[AX + b E(AX + b)][cy + d E(CY + d)] } = = E{[AX + b A E(X) b)][cy + d C E(Y ) d] } = = E{A[X E(X)][Y E(Y )] C } = ACov(X, Y )C I casi particolari più importanti di questo risultato sono i seguenti: (i) X = Y Cov(Z, K) = ACov(X)C (1.14) (ii) K = Z = AX + b Cov(Z) = ACov(X)A (1.15) (iii) K = Z = X + b Cov(Z) = Cov(X) (1.16) (iv) K = Z = AX Cov(Z) = ACov(X)A (1.17) Definizione 1.18 Sia t un vettore di R k, la funzione generatrice dei momenti della variabile aleatoria k-dimensionale X è data dal seguente valore atteso M(t) = E[exp(t X)] = E[exp(t 1 X t k X k )] Si noti che M(t) esiste sicuramente per t = o e in particolare M(o) = 1: tuttavia affinchè questa definizione sia ben posta è necessario che M(t) esista almeno su un insieme aperto di R k contenente l origine. Quando questa condizione non è verificata la f. g. m. perde di utilità. Definizione 1.19 Siano X ed Y due vettori aleatori di dimensioni rispettivamente k ed h e sia g una funzione a valori in R l e di argomento in R k+h. Sia inoltre f(x y) la densità di X condizionata a valori di Y. Il valore atteso di g(x, Y ) condizionato a valori di Y è definito dal vettore con elemento generico dato dall espressione seguente per j = 1,..., l E X Y [g j (X, Y )] =... g j (x, y)f(x y)dx (1.18)
7 Cap.1: Variabili casuali multidimensionali 7 Nel caso di vettori aleatori discreti si ottiene una definizione analoga alla precedente sostituendo alle funzioni di densità e agli integrali rispettivamente le funzioni di probabilità e le sommatorie. Proprietà 1.20 Per i valori attesi condizionati vale la seguente relazione Infatti per qualsiasi j con j = 1,..., l E Y {E X Y [g(x, Y )]} = E X,Y [g(x, Y )] (1.19) E Y {E X Y [g j (X, Y )]} = E Y... g j (x, y)f(x y)dx = }{{} =... }{{} = h dim... } {{ } (k+h) dim... } {{ } k dim k dim g j (x, y)f(x y)dxf(y)dy = g j (x, y)f(x, y)dx dy = E X,Y [g j (X, Y )] Con procedimento analogo si può dimostrare lo stesso risultato nel caso discreto. Caso particolare: La media di una variabile aleatoria multidimensionale è uguale alla media dei vettori delle medie condizionate: E Y [E X Y (X)] = E X (X) (1.20) Definizione 1.21 Si definisce matrice di covarianze condizionate il seguente valore atteso condizionato Cov(X, Y Z) = E X,Y Z {[(X E X Z (X))(Y E Y Z (Y )) ]} Proprietà 1.22 La matrice delle covarianze tra gli elementi di X ed Y è uguale alla somma della media delle matrici di covarianze condizionate e della matrice di covarianze tra i vettori delle medie condizionate Cov(X, Y ) = E Z [Cov(X, Y Z)] + Cov[E X Z (X), E Y Z (Y )] (1.21)
8 8 A. Pollice - Statistica Multivariata Cov[E X Z (X), E Y Z (Y )] = = E Z {E X Z (X)[E Y Z (Y )] } E Z E X Z (X) [E Z E Y Z (Y )] = }{{}}{{} E(X) [E(Y )] = E Z [E X,Y Z (XY )] E Z {E X,Y Z (XY ) E X Z (X)[E Y Z (Y )] } E(X)[E(Y )] = }{{} Cov(X,Y Z) = E X,Y (XY ) E(X)[E(Y )] E Z [Cov(X, Y Z)] }{{} Cov(X,Y ) Caso particolare: La matrice di varianze e covarianze del vettore aleatorio X è uguale alla somma della media delle matrici di varianze e covarianze di X condizionate a valori di Y e della matrice di varianze e covarianze tra le medie condizionate Cov(X) = E Y [Cov(X Y )] + Cov[E X Y (X)] (1.22) 1.5 Trasformazioni biunivoche di vettori casuali Sia X un vettore casuale k-dimensionale dotato di densità f X (x) e sia Y ottenuto da X tramite la trasformazione g biunivoca e regolare e tale che Y = g(x). Siano inoltre X R k e g(x ) = Y R k rispettivamente il supporto di X e quello di Y. Allora, posti A X e g(a) = B Y e poiché g è una trasformazione biunivoca vale Pr(X A) = Pr(Y B) Per la (1.5) la relazione precedente espressa tramite le densità congiunte porta all espressione seguente f Y (y)dy = f X (x)dx = f X (g 1 (y))mod J dy B A B=g(A) dove il terzo integrale è stato ottenuto applicando la trasformazione y = g(x) alla variabile di integrazione del secondo integrale e mod J indica il valore assoluto del determinante della matrice jacobiana della trasformazione inversa g 1. Dall espressione precedente si ricava la funzione di densità congiunta della Y f Y (y) = mod J f X (g 1 (y)) (1.23)
Es.: una moneta viene lanciata 3 volte. X = n. di T nei primi 2 lanci Y = n. di T negli ultimi 2 lanci
Es.: una moneta viene lanciata 3 volte. X = n. di T nei primi 2 lanci Y = n. di T negli ultimi 2 lanci X\Y 0 1 2 0 1/8 1/8 0 1/4 1 1/8 1/4 1/8 1/2 2 0 1/8 1/8 1/4 1/4 1/2 1/4 1 X e Y non sono indip. Se
I VETTORI GAUSSIANI E. DI NARDO
I VETTOI GAUSSIANI E. DI NADO. L importanza della distribuzione gaussiana I vettori di v.a. gaussiane sono senza dubbio uno degli strumenti più utili in statistica. Nell analisi multivariata, per esempio,
Calcolo delle Probabilità 2
Prova d esame di Calcolo delle Probabilità 2 Maggio 2006 Sia X una variabile aleatoria distribuita secondo la densità seguente ke x 1 x < 0 f X (x) = 1/2 0 x 1. 1. Determinare il valore del parametro reale
Esercitazioni di Statistica
Esercitazioni di Statistica Variabili casuali Prof. Livia De Giovanni [email protected] Esercizio Determinare se le funzioni seguenti: 0.0 se x < 0. se x = g(x) = 0.5 se x = 0.7 se x = 3 se x =
COPPIE DI VARIABILI ALEATORIE
COPPIE DI VAIABILI ALEATOIE E DI NADO 1 Funzioni di ripartizione congiunte e marginali Definizione 11 Siano X, Y va definite su uno stesso spazio di probabilità (Ω, F, P La coppia (X, Y viene detta va
Variabili casuali. - di Massimo Cristallo -
Università degli Studi di Basilicata Facoltà di Economia Corso di Laurea in Economia Aziendale - a.a. 2012/2013 lezioni di statistica del 16 e 27 maggio 2013 - di Massimo Cristallo - Variabili casuali
CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 3
CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 3 Dott.ssa Antonella Costanzo [email protected] Esercizio 1. La variabile casuale normale Da un analisi di bilancio è emerso che, durante i giorni feriali
Distribuzioni di due variabili aleatorie
Statistica e analisi dei dati Data: 6 Maggio 206 Distribuzioni di due variabili aleatorie Docente: Prof. Giuseppe Boccignone Scriba: Noemi Tentori Distribuzioni congiunte e marginali Consideriamo due variabili
Esercitazione del 06/03/2012 Istituzioni di Calcolo delle Probabilità
Esercitazione del 6/3/ Istituzioni di Calcolo delle Probabilità David Barbato [email protected] Esercizio. E la notte di San Lorenzo, Alessandra decide di andare a vedere le stelle cadenti. Osserverà
Probabilità e Statistica Esercizi
Corso di PIANIFICAZIONE DEI TRASPORTI 1 ing. Antonio Comi Marzo 2006 Probabilità e Statistica Esercizi 1 Variabile aleatoria X(E): funzione che associa ad un evento E dello spazio delle prove un numero
Indici di posizione e dispersione per distribuzioni di variabili aleatorie
Indici di posizione e dispersione per distribuzioni di variabili aleatorie 12 maggio 2017 Consideriamo i principali indici statistici che caratterizzano una distribuzione: indici di posizione, che forniscono
CP110 Probabilità: Esame 13 settembre Testo e soluzione
Dipartimento di Matematica, Roma Tre Pietro Caputo 2011-12, II semestre 13 settembre, 2012 CP110 Probabilità: Esame 13 settembre 2012 Testo e soluzione 1. (6 pts) Una scatola contiene 10 palline, 8 bianche
II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17
II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 6/7 Martedì 4 febbraio 7 Cognome: Nome: Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile
Variabili aleatorie continue
Variabili aleatorie continue Per descrivere la distribuzione di una variabile aleatoria continua, non si può più assegnare una probabilità positiva ad ogni valore possibile. Si assume allora di poter specificare
Variabili aleatorie discrete. Giovanni M. Marchetti Statistica Capitolo 5 Corso di Laurea in Economia
Variabili aleatorie discrete Giovanni M. Marchetti Statistica Capitolo 5 Corso di Laurea in Economia 2015-16 1 / 45 Variabili aleatorie Una variabile aleatoria è simile a una variabile statistica Una variabile
Vettori Aleatori discreti
Vettori Aleatori discreti Un vettore aleatorio X =(X,X 2,...,X n ) si dice discreto se esiste un insieme finito o numerabile C R n tale che P (X = x) >, 8x 2 C, P (X = x) =, 8x /2 C, dove, ponendo x =(x,...,x
Variabili aleatorie. Variabili aleatorie e variabili statistiche
Variabili aleatorie Variabili aleatorie e variabili statistiche Nelle prime lezioni, abbiamo visto il concetto di variabile statistica : Un oggetto o evento del mondo reale veniva associato a una certa
UNIVERSITA` di ROMA TOR VERGATA
UNIVERSITA` di ROMA TOR VERGATA Corso di PS2-Probabilità 2 PBaldi appello, 23 giugno 29 Corso di Laurea in Matematica Esercizio Per α 2 consideriamo la catena di Markov su {, 2, 3} associata alla matrice
Densità di probabilità del prodotto di due variabili casuali distribuite uniformemente
Firenze - Dip. di Fisica 2 agosto 2008 Densità di probabilità del prodotto di due variabili casuali distribuite uniformemente In questa dispensa, che presentiamo a semplice titolo di esercizio e applicazione
Calcolo delle Probabilità e Statistica, Ingegneria Civile e A&T e Informatica I prova finale a.a. 2016/17
Calcolo delle Probabilità e Statistica, Ingegneria Civile e A&T e Informatica I prova finale aa 6/ Punteggi: : 3 + 6; : + + + ; 3: + Una scatola contiene monete; 8 di queste sono equilibrate, mentre le
Note sulle Catene di Markov
Note sulle Catene di Markov ELAUT Prof. Giuseppe C. Calafiore Sommario Queste note contengono un estratto schematico ridotto di parte del materiale relativo alle Catene di Markov a tempo continuo e a tempo
Esercitazione del 16/04/2019 Istituzioni di Calcolo delle Probabilità
Esercitazione del 6/04/09 Istituzioni di Calcolo delle Probabilità David Barbato Nozioni di riepilogo con esercizi Distribuzione di una funzione di una variabile aleatoria discreta. Sia X una variabile
STATISTICA: esercizi svolti sulle VARIABILI CASUALI
STATISTICA: esercizi svolti sulle VARIABILI CASUALI VARIABILI CASUALI 2 VARIABILI CASUALI. Variabili casuali generiche. Si supponga che un dado truccato, formato da sei facce contrassegnate dai numeri
Corso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza
Corso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza CALCOLO DELLE PROBABILITÀ E STATISTICA ESAME DEL 16/06/2016 NOME: COGNOME: MATRICOLA: Esercizio 1 Cinque lettere
STATISTICA DESCRITTIVA BIVARIATA
STATISTICA DESCRITTIVA BIVARIATA Si parla di Analisi Multivariata quando su ogni unità statistica, appartenente ad una determinata popolazione, si rileva un certo numero s di caratteri X, X 2,,X s. Si
Statistica ARGOMENTI. Calcolo combinatorio
Statistica ARGOMENTI Calcolo combinatorio Probabilità Disposizioni semplici Disposizioni con ripetizione Permutazioni semplici Permutazioni con ripetizioni Combinazioni semplici Assiomi di probabilità
