VETTORI DI VARIABILI ALEATORIE

Documenti analoghi
COPPIE DI VARIABILI ALEATORIE

Variabili casuali multidimensionali

Università di Roma Tor Vergata Corso di Teoria dei Fenomeni Aleatori, AA 2012/13. Catene di Markov

Calcolo delle Probabilità 2

I VETTORI GAUSSIANI E. DI NARDO

Note di Teoria della Probabilità.

Variabili aleatorie continue

Note sulle Catene di Markov

19 Marzo Equazioni differenziali.

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:

IDENTIFICAZIONE dei MODELLI e ANALISI dei DATI. Lezione 01 - Variabili aleatorie. Calcolo di densità di probabilità. Operatore di media

Probabilità e Statistica

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:

VIII Indice 2.6 Esperimenti Dicotomici Ripetuti: Binomiale ed Ipergeometrica Processi Stocastici: Bernoul

λ è detto intensità e rappresenta il numero di eventi che si

Statistica ARGOMENTI. Calcolo combinatorio

P ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea)

VARIABILI CASUALI. Fino ad ora abbiamo definito:

Variabili aleatorie parte 2. 1 Definizione di funzione di ripartizione o funzione cumulativa (CDF)

Eventi numerici e variabili aleatorie

Corso di Laurea Triennale in Matematica Calcolo delle Probabilità I (docenti G. Nappo, F. Spizzichino)

Topologia, continuità, limiti in R n

Calcolo delle Probabilità e Statistica Matematica previsioni 2003/04

Foglio di esercizi 4-12 Aprile 2019 Probabilità e statistica Ingegneria Meccanica Alessandro Ciallella

Variabili casuali. - di Massimo Cristallo -

I Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 2012/13 Nome: 30 gennaio

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

0 se y c 1 (y)) se c < y < d. 1 se y d

Nozioni preliminari... 1 Notazioni... 1 Alcunirichiamidianalisimatematica... 3 Sommeinfinite... 3

Due variabili aleatorie X ed Y si dicono indipendenti se comunque dati due numeri reali a e b si ha. P {X = a, Y = b} = P {X = a}p {Y = b}

RETI DI TELECOMUNICAZIONE

Sistemi lineari 1 / 41

Elementi di analisi matematica e complementi di calcolo delle probabilita T

2. I numeri reali e le funzioni di variabile reale

Le derivate parziali

Stazionarietà. IDENTIFICAZIONE dei MODELLI e ANALISI dei DATI. Lezione 3: Processi Stocastici 3-1

Soluzione dei problemi assegnati

Alcune nozioni di calcolo differenziale

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A

AM2: Tracce delle lezioni- IX Settimana INSIEMI DI LIVELLO, MINIMI VINCOLATI PRINCIPIO DEI MOLTIPLICATORI DI LAGRANGE

SISTEMI CASUALI DINAMICI (PROCESSI) ESEMPIO: I GUASTI (Ipotesi Markoviana) Frequenza dei guasti: N Guasti = N/T X X X X X X X

Variabili aleatorie multiple. X = (X 1,..., X n ) vettore aleatorio

Variabili aleatorie: parte 1. 1 Definizione di variabile aleatoria e misurabilitá

I Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

I Appello di Processi Stocastici Cognome: Laurea Magistrale in Matematica 2014/15 Nome: 23 Giugno

Ripasso segnali e processi casuali. Trasmissione dell Informazione

ANALISI 1 1 SEDICESIMA - DICIASETTESIMA LEZIONE Serie

Computazione per l interazione naturale: fondamenti probabilistici (1)

CALCOLO DELLE PROBABILITÀ 2 (Laurea Specialistica) 28 giugno Motivare dettagliatamente le risposte su fogli allegati

Elementi di analisi matematica e complementi di calcolo delle probabilita T

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI

Computazione per l interazione naturale: fondamenti probabilistici (2)

Esonero di Analisi Matematica II (A)

Il teorema di Ascoli-Arzelà

Appunti di Simulazione

Esercitazione del 19/02/2013 Istituzioni di Calcolo delle Probabilità

1 Successioni di funzioni

LE VARIABILI CASUALI A 1, A 2.,..., A k., p 2.,..., p k. generati da una specifica prova sono necessari ed incompatibili:

I appello di CP per Informatica 19/6/2006

Segnali (processi) aleatori (casuali)

Modelli probabilistici variabili casuali

Distribuzioni di due variabili aleatorie

Politecnico di Milano Corso di Analisi e Geometria 1. Federico Lastaria Formule di Taylor Ottobre 2012

Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016

LEZIONE 12. v = α 1 v α n v n =

Esercizi 6 - Variabili aleatorie vettoriali, distribuzioni congiunte

Matematica e Statistica per Scienze Ambientali

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2006/07

Appunti del Corso Analisi 1

CP110 Probabilità: esame del 4 febbraio Testo e soluzione

04 - Numeri Complessi

Programmazione Non Lineare

CP110 Probabilità: Esonero 2. Testo e soluzione

Secondo scritto. 8 luglio 2010

Matematica Applicata L-A Definizioni e teoremi

CP410: Esame 2, 3 febbraio 2015

Un introduzione alla statistica asintotica attraverso una generalizzazione del Teorema Limite Centrale. Università di Pisa 18 Settembre 2015

25 - Funzioni di più Variabili Introduzione

Variabili casuali multidimensionali

DISTRIBUZIONI DI PROBABILITA

! X (92) X n. P ( X n X ) =0 (94)

PROCESSI STOCASTICI 1: ESERCIZI

Matematica. Corso integrato di. per le scienze naturali ed applicate. Materiale integrativo.

Scrivere su ogni foglio NOME e COGNOME. Le risposte devono essere giustificate sui fogli protocollo e riportate nel foglio RISPOSTE.

CP110 Probabilità: Esonero 2

Esame di AM2 & EAP (270/04) a.a. 2009/10

Vettori Aleatori discreti

Campionamento. Una grandezza fisica e' distribuita secondo una certa PDF

Prima prova in Itinere Ist. Mat. 1, Prima parte, Tema ALFA COGNOME: NOME: MATR.:

Esame di Calcolo delle Probabilità del 11 dicembre 2007 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova).

UNIVERSITÀ DEGLI STUDI ROMA TRE Corso di Laurea in Matematica ST410 - Statistica 1 - A.A. 2013/2014. I Esonero - 29 Ottobre Tot.

Lezione 1. 1 Probabilità e statistica. 2 Definizioni di probabilità. Statistica e analisi dei dati Data: 22 Febbraio 2016

φ X (t) = mentre nel caso continuo, indicando con f(x) la densità di X, si ha e itx f(x) dx + e itx e itx f(x)dx. f(x)dx = e itx +

Calcolo delle Probabilità 2017/18 Foglio di esercizi 8

Calcolo della probabilità

Pagine di Algebra lineare. di premessa al testo Pagine di Geometria di Sara Dragotti. Parte terza: SISTEMI LINEARI

0.1 Spazi Euclidei in generale

SERIE NUMERICHE FAUSTO FERRARI

Transcript:

VETTOI DI VAIABILI ALEATOIE E. DI NADO 1. Funzioni di ripartizione congiunte e marginali Definizione 1.1. Siano X 1, X 2,..., X n v.a. definite su uno stesso spazio di probabilità (Ω, F, P ). La n-pla (X 1, X 2,..., X n ) viene detta v.a. n-dimensionale o vettore casuale e verrà indicata con X. Le singole v.a. X i vengono dette componenti. Si osservi che per ogni vettore n-dimensionale di numeri reali x = (x 1, x 2,..., x n ) si ha {ω Ω : X 1 (ω) x 1, X 2 (ω) x 2,..., X n (ω) x n } = n {ω Ω : X i (ω) x i }, tale evento, essendo intersezione di elementi in F, appartiene ancora ad F. Definizione 1.2. Si dice funzione di ripartizione congiunta del vettore casuale X la funzione F X : n [0, 1] così definita F X (x) = F X1,X 2,...,X n (x 1, x 2,..., x n ) = P (X 1 x 1, X 2 x 2,..., X n x n ). Si noti che scegliendo una qualsiasi componente del vettore aleatorio X ed effettuando il limite per x i che tende a si ha ed allo stesso modo lim F X x 1,X 2,...,X n (x 1, x 2,..., x n ) = 0 i lim F X 1,X 2,...,X i 1,X i,x i+1,...,x n (x 1, x 2,..., x i 1, x i, x i+1,..., x n ) x i = F X1,X 2,...,X i 1,X i+1,...,x n (x 1, x 2,..., x i 1, x i+1,..., x n ) mentre lim F X x 1,X 2,...,X n (x 1, x 2,..., x n ) = 1. La funzione di ripartizione F X1,X 2,...,X i 1,X i+1,...,x n (x 1, x 2,..., x i 1, x i+1,..., x n ) viene detta marginale. Procedendo allo stesso modo si può determinare la funzione di ripartizione marginale di m variabili aleatorie scelte tra le n del vettore X. La funzione di ripartizione congiunta è non decrescente, ossia x 1,x 2,...,x n x 1,x 2,...,x n F X1,X 2,...,X n (x 1, x 2,..., x n ) 0, utilizzando la medesima notazione del capitolo precedente. Omettiamo la dimostrazione che segue le stesse linee di quella del caso bidimensionale. Come nel caso bidimensionale, scriveremo P [(X 1, X 2,..., X n ) B] = df X1,X 2,...,X n (x 1, x 2,..., x n ) dove B B( n ). Ad integrazione della Lezione 11 - Calcolo delle Probabilità e Statistica Matematica II. B 1

2 E. DI NADO 1.1. Caso discreto. Dato un vettore aleatorio (X 1, X 2,..., X n ) si definisce p r,s,...,t = P (X 1 = x 1,r, X 2 = x 2,s,..., X n = x n,t ) r = 1, 2,..., s = 1, 2,... massa di probabilità congiunta. Ovviamente risulta p r,s,...,t 0 e r,s,...,t p r,s,...,t = 1. I valori che si ottengono sommando su un indice la massa di probabilità congiunta sono detti probabilità marginali. Un esempio di vettore aleatorio discreto è quello con legge multinomiale. 1.2. Caso assolutamente continue. Diremo assolutamente continua una v.a. n- dimensionale con funzione di ripartizione congiunta F X1,X 2,...,X n (x 1, x 2,..., x n ) se esiste una funzione non negativa f X1,X 2,...,X n (x 1, x 2,..., x n ) : n tale che per ogni n-pla (x 1, x 2,..., x n ) di reali distinti si abbia F X1,X 2,...,X n (x 1, x 2,..., x n ) = x1 dv 1 xn dv n f X1,X 2,...,X n (v 1, v 2,..., v n ). La funzione densità f X1,X 2,...,X n (x 1, x 2,..., x n ) viene detta densità di probabilità congiunta del vettore X. Ovviamente risulta n F X1,X x 1 x 2,...,X n (x 1, x 2,..., x n ) = f(x 1, x 2,..., x n ). n Si ha poi e + + P [(X 1, X 2,..., X n ) B] = f(x 1, x 2,..., x n )dx 1 dx n = 1 B f X1,X 2,...,X n (x 1, x 2,..., x n )dx 1 dx n dove B B( n ). Un cenno a parte meritano le densità marginali che si ottengono integrando la densità congiunta su un certo numero di componenti, ossia f X1,X 2,...,X m (x 1, x 2,..., x m ) = dx m+1 f(x 1, x 2,..., x n )dx n. 2. elazioni tra n variabili aleatorie 2.1. Indipendenza. Per vettori di variabili aleatorie valgono le medesime nozioni di somiglianza e di indipendenza di cui al capitolo precedente. Definizione 2.1. Assegnato un vettore aleatorio (X 1, X 2,..., X n ) esso è costituito da v.a. indipendenti, se (2.1) F X1,X 2,...,X n (x 1, x 2,..., x n ) = F X1 (x 1 )F X2 (x 2 ) F Xn (x n ). Dalla definizione precedente segue che comunque scelte k v.a. k {1, 2,..., n}, si ha k F Xi1,X i2,...,x ik (x i1, x i2,..., x ik ) = F Xij (x ij ). j=1 tra le n, con Infatti è sufficiente effettuare il limite per x i che tende a su quelle componenti del vettore che non appartengono all insieme {X i1, X i2,..., X ik }, in modo da eliminarle dal vettore, affinché al primo membro della (2.1) si riottenga la funzione di ripartizione marginale di X nelle X i1, X i2,..., X ik mentre nel prodotto che figura al secondo membro restino le funzioni di ripartizione delle singole X it.

VETTOI DI VAIABILI ALEATOIE 3 2.1.1. Campione casuale. Una delle più importanti applicazioni dei vettori casuali è quella relativa ad osservazioni ripetute di una qualche v.a. X. Supponiamo che il tempo di vita di una lampadina sia descritto da una v.a. X. Un azienda produce queste lampadine in gran quantità e vogliamo testarne n. Sia X i il tempo di vita della i-esima lampadina testata. Allora il vettore (X 1, X 2,, X n ) è un vettore aleatorio. Se assumiamo che le X i sono simili (sono tutte prodotte dalla stessa azienda e quindi dovrebbero avere medesima legge di probabilità) e sono indipendenti (la produzione di una lampadina non dovrebbe influenzare la produzione delle altre) il vettore X prende il nome di campione casuale. 2.1.2. Minimo e massimo. Siano X 1, X 2,..., X n variabili aleatorie indipendenti e somiglianti. Caratterizziamo la legge di probabilità di isulta Y = max 1 i n X i F Y (y) = P (Y y) = P ( max 1 i n X i y) T = min 1 i n X i. = P (X 1 y, X 2 y,..., X n y) = Se le v.a. X i sono assolutamente continue, allora Invece si ha P (X i y) = [F X (y)] n f Y (y) = n[f X (y)] n 1 f X (y). 1 F T (t) = P (T > t) = P ( min 1 i n X i > t) = P (X 1 > t, X 2 > t,..., X n > t) = Se le v.a. X i sono assolutamente continue, allora P (X i > t) = [1 F X (t)] n f T (t) = n[1 F X (t)] n 1 f X (t). Esercizio Siano X i per i = 1, 2,..., n v.a. indipendenti esponenziali di parametro λ. Studiare le v.a. Y = max 1 i n X i e T = min 1 i n X i. Studiare il caso in cui le v.a. sono esponenziali, ciascuna di parametro λ i. Applicazioni in affidabilità dei sistemi composti. 2.2. Condizionamento. Siano X = (X 1, X 2,, X n ) e Y = (Y 1, Y 2,, Y m ) vettori casuali definiti sullo stesso spazio di probabilità (Ω, F, P ) e siano F X, F Y e F X,Y le funzioni di ripartizioni di X, di Y e di (X, Y). Sia B l evento e B = {ω Ω : Y 1 (ω) y 1,..., Y m (ω) y m } A h,k = {ω Ω : x 1 h 1 < X 1 (ω) x 1 + k 1,..., x n h n < X n (ω) x n + k n } dove h = (h 1,, h n ) e k = (k 1,, k n ) con h i, k i costanti non negative. Si scelgano h, k in modo che P (A h,k ) > 0. Pertanto ha senso definire P (B A h,k ) = P (B A h,k) P (A h,k ) = P {(Y y) (x h < X x + k)} P (x h < X x + k) dove con la scrittura U u si intende U i u i per ogni componente.

4 E. DI NADO Definizione 2.2. Dati i vettori casuali X e Y e i vettori costanti h e k tali che P (A h,k ) > 0 se esiste finito il limite P {(Y y) (x h < X x + k)} lim h,k 0 P (x h < X x + k) esso prende il nome di funzione di ripartizione di Y dato X e viene indicato con F Y X (y x). I risultati ottenuti nel capitolo precedente possono estendersi a questo caso e in particolare si potrà scrivere (2.2) f Y X (y x) = f(x, y) f X (x) Se poi i vettori casuali sono indipendenti allora f Y X (y x) = f Y (y) f X Y (x y) = f(x, y) f Y (y). f X Y (x y) = f Y (y). Una generalizzazione della nozione di vettore aleatorio è costituito dal processo stocastico, nozione che verrà esaminata nel paragrafo successivo. 3. Processo stocastico Un processo stocastico è una famiglia di v.a. dipendenti da un parametro t T, che in genere viene denominato tempo. Pertanto può essere considerato come una funzione X(ω, t) con ω Ω e t T. Per un valore fissato t, la funzione di ω X(ω, t ) è una v.a. Invece fissare ω = ω equivale a fissare una prova, si ottiene allora una funzione del tempo X(ω, t) che viene detta traiettoria o realizzazione del processo. Se T è un sottoinsieme finito di con cardinalità n, allora il processo stocastico è un vettore aleatorio n-dimensionale. Se T è l insieme dei numeri naturali, allora il processo stocastico è una successione di v.a. (esempio: processo di Bernoulli) e viene detto discreto nel tempo. Se T è un sottoinsieme non finito di, il processo è detto continuo nel tempo (esempio: processo di Poisson). L insieme dei valori assunti dalle v.a. che costituiscono il processo prende il nome di spazio degli stati. Anche lo spazio degli stati può essere finito, numerabile o avere la potenza del continuo. Nei primi due casi si dice che il processo stocastico è discreto nello spazio, mentre nell ultimo caso si dice che è continuo nello spazio. Definizione 3.1. Un processo stocastico si dice noto quando, comunque fissata una n-pla di istanti in T, ossia t 1 < t 2 < < t n, si conosce la funzione di ripartizione congiunta delle v.a. X(t 1 ), X(t 2 ),..., X(t n ). Se si assume che il processo è costituito da v.a. assolutamente continue, questo equivale a conoscere la funzione densità congiunta, usualmente indicata con n f(x 1, t 1 ; x 2, t 2 ;..., x n, t n ) = F X(t1),...,X(t x 1 x n)(x 1,..., x n ) n con t 1 < t 2 <... < t n. Vale il seguente teorema. Teorema 3.2. Sia {X(t), t T } un processo stocastico costituito da v.a. assolutamente continue. Si ha f(x 1, t 1 ; x 2, t 2 ;..., x n, t n ) = f(x i, t i x i 1, t i 1 ;... ; x 1, t 1 ) dove il termine per i = 1 corrisponde alla densità unidimensionale f(x 1, t 1 ).

VETTOI DI VAIABILI ALEATOIE 5 Proof. Il risultato segue applicando iterativamente la (2.2) Il risultato del teorema dice che il processo stocastico è noto, se si conoscono le densità condizionate di ordine inferiore. Questo perchè lo stato del processo all istante t n dipende da quello che è accaduto in tutti gli stati precedenti. Ovviamente tale studio presenta grosse difficoltà. Un caso speciale è rappresentato dai processi stocastici di Markov. Definizione 3.3. Un processo stocastico si dice di Markov se comunque fissata una n-pla di istanti in T, ossia t 1 < t 2 < < t n, si ha f(x n, t n x n 1, t n 1 ;... ; x 1, t 1 ) = f(x n, t n x n 1, t n 1 ). La funzione densità f(x, t y, τ) con τ < t prende il nome di funzione densità di transizione. Per i processi di Markov, quando si conosce la densità di transizione e la densità unidimensionale, è possibile determinare la densità congiunta di qualsiasi ordine. Si noti che i processi di Markov sono caratterizzati da limitata memoria, in quanto se indichiamo con t n il generico istante futuro, con t n 1 l istante presente e con t i per i = 1, 2,..., n 2 gli istanti passati, la proprietà di markovianità si può enunciare dicendo che il futuro dipende solo dal presente e non dal passato. Quando lo spazio degli stati è discreto o numerabile, si parla di catena di Markov. Un esempio di catena di Markov è il processo di Poisson. Teorema 3.4. Equazione di Chapman-Kolmogorov La densità di transizione di un processo di Markov soddisfa la seguente relazione f(x, t x 0, t 0 ) = f(x, t y, τ)f(y, τ x 0, t 0 )dy. Proof. Si ha f(x, t; x 0, t 0 ) = f(x, t; y, τ; x 0, t 0 )dy = Trattandosi di un processo di Markov si ha f(x, t; x 0, t 0 ) = f(x, t y, τ)f(y, τ; x 0, t 0 )dy = f(x, t y, τ; x 0, t 0 )f(y, τ; x 0, t 0 )dy. Il primo membro della precedente eguaglianza può scriversi come da cui il risultato. f(x, t; x 0, t 0 ) = f(x, t x 0, t 0 )f(x 0, t 0 ) f(x, t y, τ)f(y, τ x 0, t 0 )f(x 0, t 0 )dy. Si chiamano invece processi stocastici senza memoria quei processi di Markov per i quali la densità di transizione soddisfa la seguente proprietà: f(x, t y, τ) = f(x, t) τ < t. Sono ovviamente processi stocastici le cui variabili aleatorie risultano indipendenti. Esempi sono il rumore bianco ed il rumore termico.