Matematica e Statistica per Scienze Ambientali

Documenti analoghi
Risultati X P(X) TTT 0 1/8 TTC 1 1/8 TCT 1 1/8 CTT 1 1/8 TCC 2 1/8 CTC 2 1/8 CCT 2 1/8 CCC 3 1/8 X P(X) F(X) 0 1/8 1/8 1 3/8 4/8 2 3/8 7/8 3 1/8 1

Richiami di TEORIA DELLE PROBABILITÀ

CP110 Probabilità: Esame 13 settembre Testo e soluzione

Calcolo delle Probabilità e Statistica Matematica Fisciano, 10/1/2012

Statistica. Congiunte. Capitolo 5. Distribuzioni di Probabilità. Chap 5-1. Statistics for Business and Economics, 6e 2007 Pearson Education, Inc.

Richiami di Teoria della probabilità (I)

Modelli probabilistici variabili casuali

Calcolo delle Probabilità e Statistica Matematica: definizioni prima parte. Cap.1: Probabilità

ES.2.2. Consideriamo un esperimento statistico definito da un insieme Ω di risultati possibili. Una partizione finita di Ω è una sequenza di K eventi

Es.: una moneta viene lanciata 3 volte. X = n. di T nei primi 2 lanci Y = n. di T negli ultimi 2 lanci

1 Eventi. Operazioni tra eventi. Insiemi ed eventi. Insieme dei casi elementari. Definizione di probabilità.

Tutorato di Complementi di Analisi Matematica e Statistica 26 maggio 2016

Calcolo delle Probabilità 2

Statistica Corso Base (Serale) Dott.ssa Cristina Mollica

Due variabili aleatorie X ed Y si dicono indipendenti se comunque dati due numeri reali a e b si ha. P {X = a, Y = b} = P {X = a}p {Y = b}

Probabilità e Statistica

Matematica e Statistica per Scienze Ambientali

PROBABILITÀ I. a.a. 2011/2012 DIARIO DELLE LEZIONI

Esercitazioni di Statistica

Matematica con elementi di Informatica

Esercizi: fascicolo 4

Ulteriori Conoscenze di Informatica e Statistica

Statistica. Capitolo 5. Variabili Aleatorie Discrete e Distribuzioni di Probabilità. Chap 5-1

Scrivere su ogni foglio NOME e COGNOME. Le risposte devono essere giustificate sui fogli protocollo e riportate nel foglio RISPOSTE.

II Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 2013/14 Nome: 20 febbraio

P ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea)

Ulteriori Conoscenze di Informatica e Statistica

Esercitazione del 04/06/2015 Probabilità e Statistica Foglio 14

Matematica Applicata L-A Definizioni e teoremi

CP110 Probabilità: Esonero 2. Testo e soluzione

Equidistribuzione su un insieme finito

Appello febbraio. Vero o falso. Es 1 Es 2 Es 3 Es 4 Tot

Il modello di Bernoulli

Esercizi di Probabilità e Statistica

Variabili casuali multidimensionali

Scritto del

Probabilità 1, laurea triennale in Matematica II prova di valutazione in itinere a.a. 2008/09

Alcune v.a. discrete notevoli

Probabilità classica. Distribuzioni e leggi di probabilità. Probabilità frequentista. Probabilità soggettiva

2. Introduzione alla probabilità

Il valore atteso del prodotto di v.a.i. Valore atteso (8)

ESERCITAZIONE N. 5 corso di statistica

Corsi di Laurea in Ingegneria Civile e Edile Analisi Matematica II e Probabilita Lezioni A.A. 2000/01, prof. G. Stefani 9 Ottobre Gennaio 2001

CALCOLO DELLE PROBABILITÀ I. a.a. 2016/2017. Informatica. Leggere attentamente le seguenti note

Variabili aleatorie. Variabili aleatorie e variabili statistiche

CP210 Introduzione alla Probabilità: Esame 2

Presentazione dell edizione italiana

Corso di probabilità e statistica

Variabili casuali. - di Massimo Cristallo -

) la sua densità discreta sarà della forma. p X (0) = 1 2, p X(1) = 1 2,

Tutorato di Complementi di Analisi Matematica e Statistica 30 maggio 2016

I Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

Statistica descrittiva I. La frequenza

Studente: Matricola: Soluzione. V usando la disuguaglianza di Chebyschev, per n sucientemente grande segue,

Distribuzioni di probabilità discrete. Prof.ssa Fabbri Francesca Classe 5C

Lezione 12. Statistica. Alfonso Iodice D Enza Università degli studi di Cassino. Lezione 12. A. Iodice.

Esercizi 6 - Variabili aleatorie vettoriali, distribuzioni congiunte

STATISTICA (modulo II - Inferenza Statistica) Soluzione Esercitazione I

LEZIONE 2.5. corso di statistica. Francesco Lagona Università Roma Tre. LEZIONE 2.5 p. 1/12

(a) Qual è la probabilità che un neonato sopravviva al primo anno?

CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 3

5. Distribuzioni. Corso di Simulazione. Anno accademico 2009/10

STATISTICA A K (60 ore)

Compiti tematici capp. 5,6

3. Distribuzioni. Corso di Simulazione. Anno accademico 2006/07

CP110 Probabilità: Esonero 2. Testo e soluzione

UNIVERSITÀ di ROMA TOR VERGATA

CP210 Introduzione alla Probabilità: Esonero 2

Calcolo delle Probabilità e Statistica Matematica previsioni 2003/04

Calcolo delle probabilità (3/7/2001) (Ing. Elettronica, Informatica, Telecomunicazioni - Latina)

Esercizi settimana 5. Esercizi applicati. Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 2 3

Una variabile casuale è una variabile che assume determinati valori in modo casuale (non deterministico).

Registro dell'insegnamento

Probabilità. Introduzione. Esperimento casuale (o aleatorio): Può venir riproposto infinite volte.

Vettori Aleatori discreti

Foglio di Esercizi 10 con Risoluzione 18 dicembre 2017

Esercitazione del 21/10/2011 Calcolo delle probabilità

Prove di Statistica e Analisi Numerica

Corso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza

Computazione per l interazione naturale: fondamenti probabilistici (1)

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

III Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2018/19

STATISTICA: esercizi svolti sulle VARIABILI CASUALI

Modelli descrittivi, statistica e simulazione

Costruzione di macchine. Modulo di: Progettazione probabilistica e affidabilità. Marco Beghini. Lezione 3: Variabili aleatorie discrete notevoli

VARIABILI CASUALI CONTINUE

Nozioni preliminari... 1 Notazioni... 1 Alcunirichiamidianalisimatematica... 3 Sommeinfinite... 3

CP110 Probabilità: Esame del 6 giugno Testo e soluzione

Esercizi di Calcolo delle Probabilità

CALCOLO DELLE PROBABILITA - 24 Giugno 2015 CdL in STAD, SIGAD Compito intero Seconda prova in itinere: esercizi 4,5,6.

V Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 2012/13 Nome: 18 ottobre

Richiami di probabilità e statistica

Statistica Sociale e Criminale (12 CFU) A.A. 2015/2016

Primi elementi di Probabilità

Sessione Live 4 V.a. n-dimensionali. Funzioni di variabili aleatorie.

Nome e cognome:... Matricola...

! X (92) X n. P ( X n X ) =0 (94)

Variabili aleatorie discrete. Giovanni M. Marchetti Statistica Capitolo 5 Corso di Laurea in Economia

Transcript:

per Scienze Ambientali Variabili aleatorie - Appunti 1 1 Dipartimento di Matematica Sapienza, Università di Roma Roma, Gennaio 2013

Variabili aleatorie Un numero aleatorio è un esempio di variabile aleatoria. Un altro esempio di variabile aleatoria è il risultato del lancio di una moneta cioè un simbolo aleatorio tra Testa e Croce. In generale, una variabile aletoria è un valore aleatorio elementare o indivisibile che può presentarsi come esito di un esperimento, di una misura o di una osservazione. Di una variabile aleatoria si conoscono i valori possibili e la probabilità di osservare tali valori (nel caso discreto) o la probabilità di osservare valori appartenenti a un dato intervallo (nel caso continuo). Più precisamente: Variabile aleatoria discreta; i possibili valori sono un sottoinsieme di un insieme numerabile; la distribuzione di probabilità o funzione frequenza di una variabile aletoria discreta X è definita da una doppia lista dove p i = P(X = ω i ). ω 1 ω 2 p 1 p 2 Variabile aleatoria continue; quando i possibili valori sono un numero reale (o più in generale) un elemento di uno spazio vettoriale; la distribuzione di probabilità di una variabile aleatoria reale X è definita da una funzione g(x) densità di probabilità, tale che P(a X b) = R b a g.

Variabili aleatorie discrete Una variabile aleatoria finita X a valori in {1, 2,..., n} è completamente definita da un vettore (distribuzione di probabilità o funzione frequenza ) π = (p 1,..., p n ) con p i 0 per ogni i e p 1 + + p n = 1. Una variabile aleatoria discreta X a valori in N = {1, 2,... } è completamente definita da una successione (distribuzione di probabilità o funzione frequenza ) π = (p 1, p 2,... ) con p i 0 per ogni i e i=1 p i = 1. Esempi 1 Variabile dicotomica di parametro p: P(X = k) = p k (1 p) 1 k (k = 0, 1). 2 Variabile binomiale di parametri p, n: P(X = k) = p k (1 p) n k( n k),... (k = 0,..., n). 3 Variabile geometrica di parametro p: P(X = k) = p(1 p) k (k = 0, 1,... ). 4 Variabile ipergeometrica di parametri n, k ed r, P(X = m) = (rk m)( r m) n k ( n r) k

Media e varianza di una variabile aleatoria discreta Se X è una variabile aletoria che assume i valori ω 1,..., ω n con probabilità p 1,..., p n rispettivamente, il valor medio di X, indicato E(X) è E(X) = p 1 ω 1 + + ω n x n. La varianza di X è Var(X) = E((X E(X)) 2 ) = p 1 (ω 1 E(X)) 2 + + p n (ω n E(X)) 2. Per esempio, per una variabile dicotomica X tale che P(X = 1) = p, P(X = 0) = 1 p, E(X) = p 1+(1 p) 0 = p Var(X) = (1 p) 2 p+(0 p) 2 (1 p) = p(1 p).

Media e varianza di una variabile aleatoria continua Se X è una variabile aleatoria a valori reali, la cui distribuzione di probabilità è descritta dalla densità g(x) (e quindi P(a X b) = b a g), allora e Var(X) = + E(X) = + x g(x) dx (x E(X)) 2 g(x) dx = E(X 2 ) (E(X)) 2

Proprietà di media e varianza Variabili aleatorie si possono sommare e moltiplicare tra loro per ottenere nuove variabili aleatorie. Se X e Y sono due variabili aleatorie di distribuzione p X (x) e p Y (y) rispettivamente, e se i valori di aspettazione di entrambe le variabili sono finiti, E(X + Y ) = E(X) + E(Y ). Più in generale, se a, b 1,..., b n sono costanti e X 1,..., X n sono variabili aleatorie, allora E(a + b 1 X 1 + + b n X n ) = a + b 1 E(X 1 ) + + b n E(X n ) Se X è una variabile con varianza finita, e se a e b sono due costanti, allora Var(a + bx) = b 2 Var(X). inoltre, DISUGUAGLIANZA DI CHEBYSHEV Var(X) = E(X 2 ) (E(X)) 2 P( X E(X) > t) Var(X) t 2

Distribuzione binomiale Descrive la probabilità di osservare k teste in n lanci di una moneta: Ω sia l insieme di tutte le sequenze di lunghezza n di teste e croci. Nell ipotesi che l evento esce testa all i-esimo lancio sia indipendente da quello che esce agli altri lanci, la probabilità di ogni sequenza è p k (1 p) n k dove p è la probabilità che esca testa in un lancio. L evento E k escono k teste in n lanci è costituito da tutte le sequenze con k teste. Queste sono tante quanti i sottoinsiemi di k elementi che posso estrarre dall insieme {1, 2,..., n} (ogni sottoinseme specifica la posizione delle teste nella sequenza). Quindi ( ) n p(e k ) = p k (1 p) n k k

Distribuzione binomiale (II) p(x = k) = ( n k) p k (1 p) n k, E(X) = np, Var(X) = np(1 p). Distribuzione binomiale: p=0.3 n=7 probabilita' 0.00 0.05 0.10 0.15 0.20 0.25 0.30 0 1 2 3 4 5 6 7 numero delle teste

Distribuzione geometrica P(X = k) = p(1 p) k, E(p) = 1 p p, Var(X) = 1 p p 2. Distribuzione geometrica: p=0.3 probabilita' 0.00 0.05 0.10 0.15 0.20 0.25 0.30 0 2 4 6 8 10 numero di lanci prima di osservare testa

Distribuzione ipergeometrica Descrive la probabilità di m successi in r estrazioni senza reimbussolamento da una popolazione di n individui di cui k sono da considerarsi come successi. P(X = m) = ( m)( k r m) n k, E(X) = ( n r) r k n, Var(X) = rk(n k)(n r) n n(n 1). Distribuzione ipergeometrica: bianche=8 nere=24 estrazioni=7 probabilita' 0.00 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0 1 2 3 4 5 6 7 numero delle palline bianche estratte

Distribuzione di Poisson P(X = k) = λk k! e λ, E(X) = λ, Var(X) = λ. Distribuzione di Poisson: lambda=1.3 probabilita' 0.00 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0 2 4 6 8 10 numero di particelle alpha emesse in un intervallo di tempo

Variabile aleatoria uniforme X è una variabile aleatoria uniforme sull intervallo [a, b] se la sua densità di probabilità è 0 x < a 1 g(x) = b a 0 x 1 0 x > b Abbiamo E(X) = + x g(x) = b a x = x 2 2 b a a 2 b 2 2 Var(X) = E(X 2 ) (E(X)) 2 = b a x 2 (E(X)) 2 = 4(b3 a 3 ) 3(b 2 a 2 ) 2 12

Variabile aleatoria normale Densità di probabilità g(x) = 1 σ (x µ) 2 2π e 2σ 2 Distribuzione normale: media=0,sd=1 Distribuzione normale 0.0 0.1 0.2 0.3 0.4-4 -2 0 2 4 x E(X) = µ e Var(X) = σ 2. µ+σ g(x, µ, σ) = 0.683, µ σ µ+2 σ µ 2 σ g(x, µ, σ) = 0.955, µ+3σ g(x, µ, σ) = 0.997 µ 3σ

Variabile aleatoria normale: applicazioni Supponiamo che una variabile statistica abbia distribuzione approssimativamente normale di parametri µ = 165 e λ = 4. Determinare approssimativamente la probabilità che tale variabile assuma valori nell intervallo [161, 169]. Poiché 161 = µ σ e 169 = µ + σ, la probabilità richiesta è approssimativamente 169 161 g(x) = µ+σ µ σ g(x) = 0.683.

Distribuzione congiunta: un esempio Consderiamo lo spazio campionario relativo al lancio ripetuto tre volte di una moneta non truccata, Ω = {ccc, tcc, ctc, cct, ttc, tct, ctt, ttt} e consideriamo le variabili aleatorie X, che conta il il numero delle teste al primo lancio e Y che conta il numero delle teste nei tre lanci. Le corrispondenti tabelle di probabilità sono X 0 1 1/2 1/2 Y 0 1 2 3 1/8 3/8 3/8 1/8 Possiamo considerare, per ogni possibile esito i per X e ogni possibile esito j per Y la probabilità di osservare contemporaneamente l esito i per X e l esito j per Y, cioè P(X = i, Y = j). Abbiamo quindi la seguente distribuzione congiunta 0 1 2 3 0 1/8 2/8 1/8 0 1 0 1/8 2/8 1/8

Variabili aleatorie - definizione formale Per definire la distribuzione congiunta di due variabili aleatorie nell esempio precedente, abbiamo sfruttato il fatto che fossero entrambe definite sullo stesso spazio campionario. Questa non è un limitazione in quanto ogni variabili aleatoria si può pensare definita su un opportuno spazio campionario, e in effetti è possibile definire formalmente una variabile aleatoria nel modo seguente. Una variabile aleatoria è una qualsiasi funzione f misurabile, definita da uno spazio di probabilità (Ω, P, p) a valori in uno spazio di misura (X, Q) (f 1 (Q) P per ogni Q Q). Nel caso di variabile leatoria a valori in uno spazio finito la condizione di misurabilità è automaticamente soddisfatta. Per variabili aleatorie reali è sufficiente, per garantire la misurabilità nei contesti che ci interessano, richiedere che la controimmagine di ogni intervallo aperto appartenga alla sigma-algebra degli eventi aleatori.

Distribuzione congiunta di una coppia di variabili aleatorie finite Siano X e Y due variabili aleatorie definite sullo stesso spazio di probabilità, le cui distribuzioni di probabilità o funzioni frequenza siano e x 1 x 2 x n p X (x 1 ) = P(X = x 1 ) p X (x 2 ) = P(X = x 2 ) p X (x n ) = P(X = x n ) y 1 y 2 y m p Y (y 1 ) = P(Y = y 1 ) p Y (y 2 ) = P(Y = y 2 ) p Y (y m ) = P(Y = y m ) La distribuzione congiunta di X e Y è definita da p XY (x i, y j ) = P(X = x i, Y = y j ). p X e p Y si dicono le marginali di p XY e sono legate ad essa dalle formule m n p X (x) = p XY (x, y j ) p Y (y) = p XY (x i, y) j=1 i=1

Covarianza La covarianza di due variabili aleatorie X e Y è Cov(X, Y ) = E((X E(X))(Y E(Y )). Si noti che Cov(X, X) = Var(X). Cov(X, Y ) = E(XY ) E(X)E(Y ). Cov(a + X, Y ) = Cov(X, Y ). Vale infine Var(X + Y ) = Var(X) + Var(Y ) + 2Cov(X, Y ) Il coefficiente di correlazione si definisce ponendo ρ = Cov(X, Y ) Var(X)Var(Y ) Si ha che 1 ρ 1 e ρ = 1 se e solo se Y = ax + b.

Variabili aleatorie discrete indipendenti Due variabili aleatorie discrete si dicono indipendenti se e solo se per ogni i, j gli eventi X = i e Y = j sono indipendenti, ovvero P(X = i, Y = j) = P(X = i) P(Y = j), ovvero, se e solo se p XY (x, y) = p X (x) p Y (y) In generale abbiamo la formula P(X = i, Y = j) = P(X = i Y = j) P(Y = j), ovvero, introducendo la distribuzione condizionata possiamo scrivere p X Y (x i, y j ) = p XY (x i, y j ) p Y (y j ) p XY (x i, y j ) = p X Y (x i, y j ) p Y (y j ) Se X e Y sono indipendenti, allore E(XY ) = E(X)E(Y ) e quindi Cov(X, Y ) = 0 e Var(X + Y ) = Var(X) + Var(Y ).

Somma di variabili aleatorie indipendenti Siano X 1,..., X n n variabili aleatorie dicotomiche tali che P(X i = 1) = p e P(X i = 0) = 1 p. Allora, la variabile aleatoria B(n, p) = X 1 + + X n ha distribuzione binomiale di parametri n e p in quanto conta il numero di successi nel lancio ripetuto n volte di una moneta. Poiché per ipotesi, le X i sono indipendenti, allora E(B(n, p)) = n E(X i ) = np Var(B(n, p)) = i=1 n Var(X i ) = np(1 p) i=1

Teorema di convergenza di una successione di variabili aleatorie binomiali a una variabile di Poisson La distribuzione di Poisson si può ottenere come limite di distribuzioni binomiali al tendere all infinito del numero n delle prove e al tendere a zero della probabilità p di successo di una singola prova in modo tale che np = λ. La distribuzione binomiale è ponendo np = λ nella distribuzione binomiale abbiamo p(k) = n! k!(n k)! ( ) k ( λ 1 λ ) n k = n n λ k n! 1 k! k!(n k)! n k Al tendere di n all infinito, λ/n tende a zero, n! = (n k)! n(n 1) (n k+1) (n k)!n k (n k)! ( 1 λ n ( 1 λ ) n ( 1 λ ) k n n n k tende a 1, ( 1 λ n ) n tende a e λ e ) k tende a 1 e quindi p(k) tende a λ k e λ k!.

Legge dei grandi numeri Legge dei grandi numeri per una variabile dicotomica X per cui P(X = T ) = p: ( lim P nt ) n n (p ɛ, p + ɛ) = 1.

Realizzazione o valore osservato di una variabile aleatoria In statistica una realizzazione di una variabile aleatoria è il valore effettivamente osservato quando viene fatto l esperimento. Gli indici statistici calcolati da realizzazioni di una variabile aleatoria senza far uso di un modello probabilistico sono detti empirici. Convenzionalmente, lettere maiuscole denotano variabili aleatorie; le corrispondenti lettere minuscole denotano le loro realizzazioni. Un modello probabilistico per un insieme di dati empirici è una collezione di distribuzioni di probabilità. Si dice parametrico se ogni distribuzione del modello è indicata da un vettore di parametri ristretti ad una determinata regione dello spazio dei parametri. Dai dati empirici la statistica descrittiva calcola la distribuzione empirica e numerosi indici riassuntivi quali media, deviazione standard, correlazione, retta di regressione. A partire da un modello probabilistico dei dati si possono calcolare la distribuzione teorica e i corrispondenti indici teorici. È possibile misurare la adeguatezza del modello probabilistico misurando la significatività statistica della deviazione tra grandezze aspettate e grandezze osservate. Un modello teorico serve a ripulire i dati, stimare parametri nascosti, simulare dati omogenei.