5. Distribuzioni. Corso di Simulazione. Anno accademico 2009/10

Documenti analoghi
3. Distribuzioni. Corso di Simulazione. Anno accademico 2006/07

Matematica Applicata L-A Definizioni e teoremi

Due variabili aleatorie X ed Y si dicono indipendenti se comunque dati due numeri reali a e b si ha. P {X = a, Y = b} = P {X = a}p {Y = b}

Statistica, a.a. 2010/2011 Docente: D. Dabergami Lezione 4

Statistica Applicata all edilizia: alcune distribuzioni di probabilità

CALCOLO DELLE PROBABILITÀ - 9 giugno 1998 Scrivere le risposte negli appositi spazi Motivare dettagliatamente le risposte su fogli allegati

Modelli descrittivi, statistica e simulazione

Calcolo delle Probabilità 2

1 Eventi. Operazioni tra eventi. Insiemi ed eventi. Insieme dei casi elementari. Definizione di probabilità.

Metodi Matematici Probabilità e Statistica. Correzione Compitino del

Variabili casuali. - di Massimo Cristallo -

Variabili aleatorie discrete. Giovanni M. Marchetti Statistica Capitolo 5 Corso di Laurea in Economia

un elemento scelto a caso dello spazio degli esiti di un fenomeno aleatorio;

Indici di posizione e dispersione per distribuzioni di variabili aleatorie

Variabile casuale E 6 E 5 E 4. R S x1 E 2

TEST n La funzione di ripartizione di una variabile aleatoria:

L assegnazione è coerente? SÌ NO. A e B sono stocasticamente indipendenti? SÌ NO

Alcune v.a. discrete notevoli

Corso di Fondamenti di Telecomunicazioni

X (o equivalentemente rispetto a X n ) è la

X Vincita (in euro) Tabella 1: Vincite

Modelli probabilistici variabili casuali

Lezione 12. Statistica. Alfonso Iodice D Enza Università degli studi di Cassino. Lezione 12. A. Iodice.

RETI DI TELECOMUNICAZIONE

Statistica ARGOMENTI. Calcolo combinatorio

Lezione n. 1 (a cura di Irene Tibidò)

) la sua densità discreta sarà della forma. p X (0) = 1 2, p X(1) = 1 2,

Stima puntuale di parametri

Ulteriori Conoscenze di Informatica e Statistica

VARIABILI CASUALI CONTINUE

Disuguaglianza di Cramér-Rao

Compiti tematici capp. 5,6

ES.2.3. è pari ad 1. Una variabile aleatoria X che assume valori su tutta la retta si dice distribuita

Statistica. Capitolo 6. Variabili Aleatorie Continue e Distribuzioni di Probabilità. Cap. 6-1

ESERCIZI DI CALCOLO PROBABILITÀ DISTRIBUZIONI DOPPIE E NOTEVOLI

Corso di Statistica. Distribuzioni di probabilità per variabili casuali discrete. Prof.ssa T. Laureti a.a

Esercizi svolti di statistica. Gianpaolo Gabutti

Variabili aleatorie. Variabili aleatorie e variabili statistiche

Esempi di distribuzioni teoriche

Statistica descrittiva I. La frequenza

TECNICHE DI SIMULAZIONE

Le variabili casuali o aleatorie

esperimento casuale: è un esperimento condotto sotto l effetto del caso; evento elementare: ciascuno dei possibili esiti di un esperimento casuale;

Variabili casuali ad una dimensione Testi degli esercizi. Variabili casuali ad una dimensione a.a. 2012/2013 1

Variabili aleatorie continue

LE VARIABILI CASUALI A 1, A 2.,..., A k., p 2.,..., p k. generati da una specifica prova sono necessari ed incompatibili:

Esercizi di Calcolo delle Probabilità

0 z < z < 2. 0 z < z 3

Variabili casuali multidimensionali

0 se y c 1 (y)) se c < y < d. 1 se y d

4. Si supponga che il tempo impiegato da una lettera spedita dall Italia per arrivare a destinazione segua una distribuzione normale con media

Statistica Metodologica

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

λ è detto intensità e rappresenta il numero di eventi che si

I appello di calcolo delle probabilità e statistica

PROBABILITA. Distribuzione di probabilità

Teoria dei Segnali Trasmissione binaria casuale; somma di processi stocastici

UNIVERSITÀ DEGLI STUDI ROMA TRE Corso di Laurea in Matematica ST410 - Statistica 1 - A.A. 2013/2014. I Esonero - 29 Ottobre Tot.

Esercitazione del 06/03/2012 Istituzioni di Calcolo delle Probabilità

Probabilità classica. Distribuzioni e leggi di probabilità. Probabilità frequentista. Probabilità soggettiva

Statistica 1 A.A. 2015/2016

b = 1 2σ 3. La lunghezza di una barra è un numero aleatorio X con densità della forma 0, x 0, 0 < x 1 a = 1 F (x) = 2 2x 1 x2

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2006/07

SESSIONE SUPPLETIVA QUESTIONARIO QUESITO 1

4.1 Variabili casuali discrete e continue, e loro distribuzioni

STATISTICA (2) ESERCITAZIONE 1. Dott.ssa Antonella Costanzo

Presentazione dell edizione italiana

1 Modelli di variabili aleatorie continue

Prova Scritta di Probabilità e Statistica Cognome: Laurea in Matematica. 10 settembre 2012 Matricola: Nome:

Probabilità e Statistica per l Informatica Esercitazione 4

7.6. Distribuzione Esponenziale. Un n.a. continuo X con densità di probabilità

Probabilita' mediante l'analisi combinatoria D n,k =Disposizioni di n oggetti a k a k (o di classe k)

Esercitazioni di Statistica

Esercitazioni di Statistica Matematica A Lezione 2. Variabili con distribuzione gaussiana

UNIVERSITÀ DEGLI STUDI DI PERUGIA

Introduzione all inferenza statistica, II lezione

P ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea)

STATISTICA: esercizi svolti sulle VARIABILI CASUALI

Calcolo delle Probabilità

LEZIONE 2.5. corso di statistica. Francesco Lagona Università Roma Tre. LEZIONE 2.5 p. 1/12

Teoria della probabilità Variabili casuali

Esercizi su formula di Itô

Principi di Statistica a.a

Statistica inferenziale

Variabili aleatorie continue: la normale. Giovanni M. Marchetti Statistica Capitolo 6 Corso di Laurea in Economia

Calcolo delle Probabilità Esercizi

Esercitazioni di Statistica

DISTRIBUZIONE NORMALE (1)

PROBABILITÀ I. a.a. 2011/2012 DIARIO DELLE LEZIONI

DISTRIBUZIONI DI PROBABILITA

PROBABILITÀ SCHEDA N. 5 SOMMA E DIFFERENZA DI DUE VARIABILI ALEATORIE DISCRETE

< x F Y (y) = 3. < x 2. 0 altrove

Lezioni da Matematica I Calcolo differenziale, Algebra lineare, Probabilità e statistica G. Aletti & G. Naldi & L. Pareschi

Teoria dei Segnali 1

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2010/11

CAPITOLO QUINTO DISTRIBUZIONE NORMALE

x 1 x 2 x 3 y y y

Variabili aleatorie discrete

Prova di AUTOVALUTAZIONE (novembre 2009). nota: l esame ha validità solo se incluso nel piano degli studi per l anno accademico corrente.

CP110 Probabilità: Esonero 1. Testo e soluzione

Transcript:

Anno accademico 2009/10

Spazio di probabilità Ω spazio campione F 2 Ω spazio degli eventi: (i) Ω F (ii) A F = Ω \ A F (iii) A, B F = A B F P: F [0, 1] funzione di probabilità: (i) P(A) 0 (ii) P(Ω) = 1 (iii) A B = = P(A B) = P(A) + P(B)

Proprietà Eventi A, B F = A B F e B \ A F Probabilità P(Ω \ A) = 1 P(A) A B = P(B \ A) = P(B) P(A) P(A B) = P(A) + P(B) P(A B)

Variabili casuali X : Ω R variabile casuale se {ω Ω : X (ω) r} F Funzione di distribuzione di X F X (r) := P(X r) = P({ω Ω : X (ω) r})

Esempio I Arrivo di 100 pazienti urgenti, gravi o non gravi al pronto soccorso X u = numero pazienti urgenti (analogamente X g, X ng ) Ω = {u, g, ng} 100, F = 2 Ω, P =? X u (w) = card({i {1,..., 100} : w i = u}) nessun paziente è urgente: {X u = 0} almeno tre pazienti sono gravi: {X g 3}

Esempio II Tempo di interarrivo dei 100 pazienti Ω = N 100 (oppure Ω = R 100 + ), F = 2 Ω, P =? w i = tempo tra l arrivo del paziente i 1 e l arrivo del paziente i X k = tempo necessario per l arrivo dei primi k pazienti X k (ω) = w 1 +... + w k k pazienti arrivati in 60 minuti: {X k 60} dopo 10 minuti non è arrivato nessun paziente: {X 1 > 10}

Esempio III Ad uno sportello di banca si possono fare solamente tre operazioni: a incasso di un assegno b bonifico c versamento Assumiamo che un singolo cliente faccia una sola di esse. Consideriamo come esperimento l arrivo del prossimo cliente, come esito dell esperimento la richiesta di una delle operazioni, a, b e v, e come evento il fatto che il cliente chieda una in un sottoinsieme delle operazioni (ad esempio la a o la v).

Esempio III (cont.) Poniamo allora Ω = {a, b, v}, F = 2 Ω. Sia poi X la funzione così definita: X (a) = 0, X (b) = 1, X (v) = 2.

Esempio III (cont.) La funzione X è una variabile casuale, infatti si ha: r < 0 {ω : X (ω) r} =, 0 r < 1 {ω : X (ω) r} = {a}, 1 r < 2 {ω : X (ω) r} = {a, b}, 2 r {ω : X (ω) r} = Ω.

Distribuzioni discrete X è una variabile casuale discreta se l insieme dei valori che può assumere è numerabile: X (Ω) = {x 1, x 2,...} { P(X = x), se x = xi, per qualche i = 1, 2,..., f X (x) = 0, altrimenti.

Distribuzioni discrete X è una variabile casuale discreta se l insieme dei valori che può assumere è numerabile: X (Ω) = {x 1, x 2,...} { P(X = x), se x = xi, per qualche i = 1, 2,..., f X (x) = 0, altrimenti. f X (x) è una Funzione di densità discreta

Distribuzioni discrete X è una variabile casuale discreta se l insieme dei valori che può assumere è numerabile: X (Ω) = {x 1, x 2,...} { P(X = x), se x = xi, per qualche i = 1, 2,..., f X (x) = 0, altrimenti. f X (x) è una Funzione di densità discreta F X (x) = f X (x i ) x i x è la corrispondente funzione di distribuzione f X (x i ) = F X (x i ) lim h 0 +F X (x i h)

Media e varianza Media di X µ X = E[X ] := i x i f X (x i )

Media e varianza Media di X µ X = E[X ] := i x i f X (x i ) Varianza di X σ 2 X = Var[X ] := E[(X µ X ) 2 ] = i (x i µ X ) 2 f X (x i )

Media e varianza Media di X µ X = E[X ] := i x i f X (x i ) Varianza di X σ 2 X = Var[X ] := E[(X µ X ) 2 ] = i (x i µ X ) 2 f X (x i ) Deviazione standard di X σ X := Var[X ]

Proprietà della media X, Y variabili aleatorie, α R E[α] = α E[αX ] = αe[x ] E[X + Y ] = E[X ] + E[Y ]

Proprietà della varianza (1) Var[X ] = E[(X µ X ) 2 ] = E[X 2 ] + µ 2 X 2µ X E[X ] = E[X 2 ] + µ 2 X 2µ2 X = E[X 2 ] (E[X ]) 2

Proprietà della varianza (2) Var[α] = 0 Var[αX ] = α 2 Var[X ] Var[X + Y ] = E[(X + Y E[X + Y ]) 2 ] = E[(X + Y µ X µ Y ) 2 ] = E[(X µ X ) 2 + (Y µ Y ) 2 + 2(X µ X )(Y µ Y )] = σx 2 + σ2 Y + 2Cov[X, Y ], Cov[X, Y ] = E[(X E[X ])(Y E[Y ])] = Covarianza di X e Y.

Proprietà della varianza (3) Se X ed Y sono indipendenti, allora la loro covarianza è nulla e si ha: Var[X + Y ] = Var[X ] + Var[Y ].

Proprietà della varianza (3) Se X ed Y sono indipendenti, allora la loro covarianza è nulla e si ha: Var[X + Y ] = Var[X ] + Var[Y ]. P( X µ X > rσ X ) 1/r 2 Disuguaglianza di Chebyshef P( X µ X < rσ X ) 1 1/r 2

Funzione generatrice dei momenti m X (t) = E[e tx ] = E[1 + Xt + 1 2! (Xt)2 + 1 3! (Xt)3 +...] = 1 + µ 1X t + 1 2! µ 2X t 2 +... = i=0 1 i! µ i X t i. µ r X, il momento r esimo di X, è la media della variabile casuale X r. È immediato verificare che risulta: d r dt r m X (0) = µ r X.

Distribuzione uniforme X : Ω {1,..., n} Tutti i possibili valori sono equiprobabili 1 n x {1,..., n} f X (x) := = 1 n I {1,2,...,n}(x) 0 x / {1,..., n} E[X ] = 1 n n i = i=1 (n + 1)n 2n Var[X ] = E[X 2 ] (E[X ]) 2 = 1 n = n(n + 1)(2n + 1) 6n = n + 1 2 n i 2 i=1 (n + 1)2 4 (n + 1)2 4 = n2 1 12

Distribuzione binomiale X : Ω {0, 1,..., n} Numero di successi in un esperimento ripetuto n volte p [0, 1] probabilità di successo in un singolo esperimento f X (k) := ( n k ) p k (1 p) n k I {0,1,2,...,n} (k)

Distribuzione binomiale X : Ω {0, 1,..., n} Numero di successi in un esperimento ripetuto n volte p [0, 1] probabilità di successo in un singolo esperimento f X (k) := ( n k ) p k (1 p) n k I {0,1,2,...,n} (k)

Distribuzione binomiale (2) m X (t) = n ( n e ti i i=0 ) p i q n i = n i=0 ( ) n (pe t ) i q n i = (q + pe t ) n i dm X (t) dt = pe t n(pe t + q) n 1 d 2 m X (t) dt 2 = pe t n(pe t + q) n 1 + pe t n(n 1)pe t (pe t + q) n 2 = pe t n(pe t + q) n 2 (npe t + q)

Distribuzione binomiale (3) E[X ] = dm X (0) dt = pn, E[X 2 ] = d 2 m X (0) dt 2 = np(np + q) Var[X ] = E[X 2 ] (E[X ]) 2 = np(np + q) (np) 2 = npq

Esempi Numero di viaggiatori prenotati che non si presentano alla partenza di un volo. Numero di pezzi difettosi in un lotto di n pezzi prodotti. Numero di clienti che richiedono un particolare servizio.

Distribuzione geometrica X : Ω N Numero di fallimenti prima di un successo f X (k) = P(X = k) := (1 p) k p

Distribuzione geometrica X : Ω N Numero di fallimenti prima di un successo f X (k) = P(X = k) := (1 p) k p

Distribuzione geometrica (2) m X (t) = e it p(1 p) i = p [e t (1 p)] i. i=0 e se assumiamo che essa sia definita in un intorno sufficientemente piccolo dello 0 per cui risulti e t (1 p) < 1, allora è m X (t) = i=0 p 1 e t (1 p)

Distribuzione geometrica (2) m X (t) = e it p(1 p) i = p [e t (1 p)] i. i=0 e se assumiamo che essa sia definita in un intorno sufficientemente piccolo dello 0 per cui risulti e t (1 p) < 1, allora è m X (t) = m X (t) = i=0 p 1 e t (1 p) pe t (1 p) (1 e t (1 p)) 2

Distribuzione geometrica (2) m X (t) = e it p(1 p) i = p [e t (1 p)] i. i=0 e se assumiamo che essa sia definita in un intorno sufficientemente piccolo dello 0 per cui risulti e t (1 p) < 1, allora è m X (t) = m X (t) = i=0 p 1 e t (1 p) pe t (1 p) (1 e t (1 p)) 2 m X (t) = pet (1 p)(1 e t (1 p)) 2 + 2(1 e t (1 p))e t (1 p)pe t (1 p) (1 e t (1 p)) 4

Distribuzione geometrica (3) E[X ] = m X (0) = 1 p p ; Var[X ] = E[X 2 ] E[X ] 2 = m X (0) E[X ]2 (1 p)(2 p) (1 p)2 = p 2 p 2 = 1 p p 2.

Evento ripetuto nel tempo: ipotesi numeri di occorrenze in intervalli disgiunti sono indipendenti Se h << 1, allora P(X [τ,τ+h] = 1) = νh + o(h) P(X [τ,τ+h] > 1) = o(h) dove o(h) indica un infinitesimo di ordine superiore al primo: lim o(h)/h = 0 h 0

Evento ripetuto nel tempo: discretizzazione Dividere [0, t] in n intervalli di ampiezza t/n Al più una singola occorrenza in ciascun intervallo [t k, t k+1 ] successo = occorrenza nell intervallo [t k, t k+1 ] considerato X (n) [0,t] ha distribuzione binomiale di parametro p = νt/n ) (νt ) k ( P[X = k] = = ( n k 1 νt n n n(n 1)...(n k + 1) k!n k (νt) k e νt. n k! ) n k ( (νt) k 1 νt ) n ( n 1 νt n ) k

( lim 1 νt ) n = lim n + n ( lim 1 + 1 ) n = e n + n m + = lim m + = lim m + = lim m + = e νt ) (m+1)νt ( 1 1 m + 1 ( ) m mνt+νt m + 1 ( 1 + 1 ) mνt ( m m m + 1 ((1 + 1m ) νt )m ) νt m = n νt 1

P[X = k] = (νt)k e νt k! E[X ] = νt ν è il numero medio di arrivi per unità di tempo

Distribuzione di Poisson (1) Numero di occorrenze di un evento in [0,t] f X (k) := λk e λ k! λ := νt (ν numero medio di occorrenze nell unità di tempo)

Distribuzione di Poisson (2) λ k e λ k! m X (t) = e λ (e t λ) i i=0 i! = e λ(et 1) dm X (t) dt = λe λ(et 1)+t, d 2 m X (t) dt 2 = λe λ(et 1)+t (λe t + 1) E[X ] = dm X (0) dt = λ, E[X 2 ] = d 2 m X (0) dt 2 = λ(λ + 1) Var[X ] = E[X 2 ] E[X ] 2 = λ(λ + 1) λ 2 = λ

Distribuzioni continue X è una variabile casuale continua se X (Ω) R, ed esiste una funzione reale f X per cui : F X (x) = x f X (u)du, (f X è la funzione di densità) x R F X (x) differenziabile f X (x) = df X (x). dx

Media e varianza E[X ] = µ X = xf X (x)dx. Var[X ] = E[(X µ X ) 2 ] = E[X 2 ] (E[X ]) 2 m X (t) = E[e tx ]

Distribuzione uniforme X è una variabile casuale uniformemente distribuita nell intervallo reale [a, b] se f X (x) = f X (x; a, b) = 1 b a I [a,b](x) ( ) x a F X (x) = I b a [a,b] (x) + I (b, ) (x)

Distribuzione uniforme X è una variabile casuale uniformemente distribuita nell intervallo reale [a, b] se f X (x) = f X (x; a, b) = 1 b a I [a,b](x) ( ) x a F X (x) = I b a [a,b] (x) + I (b, ) (x) f(x) 1/(b-a) F(x) 1 a b a b

Media e Varianza E[X ] = b Var[X ] = E[X 2 ] (E[X ]) 2 = = b3 a 3 (a + b)2 3(b a) 4 m X (t) = b a a x b a dx = b + a 2 b a = x 2 b a dx (b a)2 12 e tx 1 b a dx = ebt e at (b a)t ( a + b 2 ) 2

Distribuzione normale f X (x) = f X (x; µ, σ) = 1 e (x µ)2 2σ 2 2πσ µ e σ sono rispettivamente la media e la deviazione standard

Media e Varianza m X (t) = E[e tx ] = e tµ E[e t(x µ) ] = e µt 1 e t(x µ) e (x µ)2 2σ 2 dx 2πσ = e µt = e µt+ σ2 t 2 2 1 e (x µ)2 2σ 2 t(x µ) 2σ 2 dx 2πσ 1 e (x µ σ2 t) 2 2σ 2 dx = e µt+ σ2 t 2 2 2πσ E[X ] = d dt m X (0) = µ Var[X ] = E[X 2 ] (E[X ]) 2 = µ 2 + σ 2 µ 2 = σ 2

Distribuzione esponenziale Variabile casuale definita nello spazio dei reali non negativi, con λ > 0 f X (x; λ) = λe λx, F X (x) = 1 e λx,

Media e Varianza m X (t) = E[e tx ] = = λ 0 0 e (λ t)x dx = e tx λe λx dx λ λ t. E[X ] = 1 λ, Var[X ] = 1 λ 2.

Esponenziale e Poisson Consideriamo un evento le cui occorrenze nel tempo hanno una distribuzione di Poisson. Supponendo che si sia appena verificata un occorrenza, chiamiamo con X la variabile casuale tempo da attendere prima della occorrenza successiva. Ricordando che, se Y è una v.c. Poisson, è P[Y = k] = (νt)k e νt k!, si ha allora P[X > t] = P[nessuna occorrenza fino al tempo t] = e νt e di conseguenza F X (t) = P[X t] = 1 e νt, t 0 f X (t) = df X (t) dt = νe νt

Proprietà dell esponenziale Per ogni coppia (s, t) di reali positivi, vale la Infatti è P[X > s + t X > s] = P[X > t]. P[X > s+t X > s] = P[X > s + t] P[X > s] = e λ(s+t) e λs = e λt = P[X > t]. Si parla in questo caso di proprietà di assenza di memoria. Inoltre: P[cX x] = P[X x c ] = 1 e λ c x X esponenziale con parametro λ cx esponenziale con parametro λ c

Distribuzione Gamma con parametri n e λ X 1, X 2,..., X n variabili casuali indipendenti con distribuzione esponenziale e parametro λ. n Y n = X i. i=1 La probabilità che Y n sia minore o uguale a t è pari alla probabilità che nel tempo t si verifichino almeno n eventi. (λt) j e λt F Yn (t) = P[Y n t] =. j! f Yn (t) = F Y n (t) = j=n λj(λt) j 1 e λt λ(λt) j e λt j=n = λe λt (λt) j 1 ( (j 1)! j=n j=n (λt) j j! j! λt (λt)n 1 ) = λe (n 1)!.

Gamma: media e varianza E[Y n ] = n λ, Var[Y n] = n λ 2. k = n, θ = 1 λ