3. Distribuzioni. Corso di Simulazione. Anno accademico 2006/07

Documenti analoghi
5. Distribuzioni. Corso di Simulazione. Anno accademico 2009/10

Esercizi 6 - Variabili aleatorie vettoriali, distribuzioni congiunte

Es.: una moneta viene lanciata 3 volte. X = n. di T nei primi 2 lanci Y = n. di T negli ultimi 2 lanci

VARIABILI CASUALI. Fino ad ora abbiamo definito:

II Esonero - Testo B

Matematica Applicata L-A Definizioni e teoremi

Matematica e Statistica per Scienze Ambientali

Statistica, a.a. 2010/2011 Docente: D. Dabergami Lezione 4

Due variabili aleatorie X ed Y si dicono indipendenti se comunque dati due numeri reali a e b si ha. P {X = a, Y = b} = P {X = a}p {Y = b}

Statistica Applicata all edilizia: alcune distribuzioni di probabilità

Variabili aleatorie multiple. X = (X 1,..., X n ) vettore aleatorio

4. Stime & Test. Corso di Simulazione. Anno accademico 2008/09

Introduzione al modello Uniforme

Modelli descrittivi, statistica e simulazione

CP110 Probabilità: Esonero 2

Calcolo delle Probabilità 2

CALCOLO DELLE PROBABILITÀ 2 (Laurea Specialistica) 28 giugno Motivare dettagliatamente le risposte su fogli allegati

CP110 Probabilità: Esame del 6 giugno Testo e soluzione

Variabili casuali. - di Massimo Cristallo -

CALCOLO DELLE PROBABILITÀ - 9 giugno 1998 Scrivere le risposte negli appositi spazi Motivare dettagliatamente le risposte su fogli allegati

2. Introduzione alla probabilità

CP110 Probabilità: Esonero 2. Testo e soluzione

CP110 Probabilità: Esonero 2. Testo e soluzione

1 Eventi. Operazioni tra eventi. Insiemi ed eventi. Insieme dei casi elementari. Definizione di probabilità.

Matematica con elementi di Informatica

Calcolo delle probabilità (3/7/2001) (Ing. Elettronica, Informatica, Telecomunicazioni - Latina)

CALCOLO DELLE PROBABILITÀ

TEST n La funzione di ripartizione di una variabile aleatoria:

φ X (t) = mentre nel caso continuo, indicando con f(x) la densità di X, si ha e itx f(x) dx + e itx e itx f(x)dx. f(x)dx = e itx +

Esercitazione del 16/04/2019 Istituzioni di Calcolo delle Probabilità

Corso di Laurea in Ingegneria Informatica Anno Accademico 2013/2014 Calcolo delle Probabilità e Statistica Matematica

MODELLI STATISTICI, RICHIAMI

Modelli a code d attesa dei sistemi operativi

CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 3

MODELLI STATISTICI, RICHIAMI

Indici di posizione e dispersione per distribuzioni di variabili aleatorie

Esercitazione del 28/10/2011 Calcolo delle probabilità

CP110 Probabilità: Esame 4 luglio Testo e soluzione

Alcune v.a. discrete notevoli

Statistica Corso Base (Serale) Dott.ssa Cristina Mollica

Calcolo delle Probabilità e Statistica Matematica Fisciano, 10/1/2012

Esercizi di Calcolo delle Probabilità

5. Analisi dei dati di input

un elemento scelto a caso dello spazio degli esiti di un fenomeno aleatorio;

Esercitazione del 28/02/2012 Istituzioni di Calcolo delle Probabilità

UNIVERSITÀ DEGLI STUDI ROMA TRE Corso di Laurea in Matematica ST410 - Statistica 1 - A.A. 2014/2015 II Esonero - 15 Gennaio 2015

Il valore atteso del prodotto di v.a.i. Valore atteso (8)

Variabile casuale E 6 E 5 E 4. R S x1 E 2

Teoria dei Fenomeni Aleatori AA 2012/13. Il Modello Lognormale La funzione di densità di probabilità lognormale è data:

Variabili aleatorie discrete. Giovanni M. Marchetti Statistica Capitolo 5 Corso di Laurea in Economia

L assegnazione è coerente? SÌ NO. A e B sono stocasticamente indipendenti? SÌ NO

Modelli probabilistici variabili casuali

X (o equivalentemente rispetto a X n ) è la

Esercitazione del 19/02/2013 Istituzioni di Calcolo delle Probabilità

Richiami di probabilità e statistica

Computazione per l interazione naturale: fondamenti probabilistici (1)

RETI DI TELECOMUNICAZIONE

X Vincita (in euro) Tabella 1: Vincite

Statistica ARGOMENTI. Calcolo combinatorio

Ulteriori Conoscenze di Informatica e Statistica

Capitolo 1. Elementi di Statistica Descrittiva. 1.5 Esercizi proposti

Esercitazione del 04/06/2015 Probabilità e Statistica Foglio 14

Lezione 12. Statistica. Alfonso Iodice D Enza Università degli studi di Cassino. Lezione 12. A. Iodice.

Distribuzione esponenziale e distribuzione di Poisson

Esercizi: fascicolo 4

Corso di Fondamenti di Telecomunicazioni

Calcolo delle Probabilità 16 Giugno 2016, C.d.L. STAD, UNIPA

Scritto del

Teorema del limite centrale TCL Questo importante teorema della statistica inferenziale si applica a qualsiasi variabile aleatoria che sia combinazion

I Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

PROBABILITA E STATISTICA Docente: Bruno Gobbi

TECNICHE DI SIMULAZIONE

Variabili aleatorie unidimensionali: v.a. non notevoli discrete e continue indici, momenti e funzione generatrice dei momenti

ES.2.2. Consideriamo un esperimento statistico definito da un insieme Ω di risultati possibili. Una partizione finita di Ω è una sequenza di K eventi

con distribuzione gaussiana standard e si ponga

) la sua densità discreta sarà della forma. p X (0) = 1 2, p X(1) = 1 2,

Scritto del

1. Siano A, E eventi incompatibili, e sia B E, con P (A) = 1 5, P (B) = 3 10, P (E) = 1 2.

UNIVERSITÀ DEGLI STUDI ROMA TRE Corso di Laurea in Matematica ST410 - Statistica 1 - A.A. 2014/2015 Appello B - 5 Febbraio 2015

Ulteriori Conoscenze di Informatica e Statistica

Nome e cognome:... Matricola...

Metodi Statistici per il Management

Esercitazioni di Statistica Matematica A Lezione 7. Variabili aleatorie continue

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A

Vettore (o matrice) casuale (o aleatorio): vettore (o matrice) i cui elementi sono variabili aleatorie

Metodi Matematici Probabilità e Statistica. Correzione Compitino del

ln x a 2 f x exp x 0

Variabili aleatorie. Variabili aleatorie e variabili statistiche

CP110 Probabilità: Esame 27 gennaio Testo e soluzione

CP410: Esame 2, 3 febbraio 2015

λ è detto intensità e rappresenta il numero di eventi che si

C = {C 1 = A B c H, C 2 = A c B H, C 3 = A B c H c, C 4 = A c B H c } ; P (C 1 ) = 21/100, P (C 2 ) = 9/100, P (C 3 ) = 49/100, P (C 4 ) = 21/100.

Compiti tematici capp. 5,6

STATISTICA (2) ESERCITAZIONE 1. Dott.ssa Antonella Costanzo

0 se y c 1 (y)) se c < y < d. 1 se y d

TECNICHE DI SIMULAZIONE

LE VARIABILI CASUALI A 1, A 2.,..., A k., p 2.,..., p k. generati da una specifica prova sono necessari ed incompatibili:

Transcript:

Anno accademico 2006/07

Spazio di probabilità Ω spazio campione F 2 Ω spazio degli eventi: (i) Ω F (ii) A F = Ω \ A F (iii) A, B F = A B F P: F [0, 1] funzione di probabilità: (i) P(A) 0 (ii) P(Ω) = 1 (iii) A B = = P(A B) = P(A) + P(B)

Proprietà Eventi A, B F = A B F e B \ A F Probabilità P(Ω \ A) = 1 P(A) A B = P(B \ A) = P(B) P(A) P(A B) = P(A) + P(B) P(A B)

Variabili casuali X : Ω R variabile casuale se {ω Ω : X (ω) r} F Funzione di distribuzione di X F X (r) := P(X r) = P({ω Ω : X (ω) r})

Esempio I Arrivo di 100 pazienti urgenti, gravi o non gravi al pronto soccorso X u = numero pazienti urgenti (analogamente X g, X ng ) Ω = {u, g, ng} 100, F = 2 Ω, P =? X u (w) = card({i {1,..., 100} : w i = u}) nessun paziente è urgente: {X u = 0} almeno tre pazienti sono gravi: {X g 3}

Esempio II Tempo di interarrivo dei 100 pazienti Ω = N 100 (oppure Ω = R 100 + ), F = 2 Ω, P =? w i = tempo tra l arrivo dei pazienti i 1 e i X k = tempo necessario per l arrivo dei primi k pazienti X k (ω) = w 1 +... + w k k pazienti arrivati in 60 minuti: {X k 60} dopo 10 minuti non è arrivato nessun paziente: {X 1 > 10}

Esempio III Ad uno sportello di banca si possono fare solamente tre operazioni: a incasso di un assegno b bonifico c versamento Il singolo cliente faccia una sola di esse. Consideriamo come esperimento l arrivo del prossimo cliente, come esito dell esperimento la richiesta di una delle operazioni, a, b e v, e come evento il fatto che il cliente chieda una in un sottoinsieme delle operazioni (ad esempio la a o la v).

Esempio III (cont.) Poniamo allora Ω = {a, b, v}, F = 2 Ω. Sia poi X la funzione così definita: X (a) = 0, X (b) = 1, X (v) = 2.

Esempio III (cont.) La funzione X è una variabile casuale, infatti si ha: r < 0 {ω : X (ω) r} =, 0 r < 1 {ω : X (ω) r} = {a}, 1 r < 2 {ω : X (ω) r} = {a, b}, 2 r {ω : X (ω) r} = Ω.

Distribuzioni discrete X è una variabile casuale discreta se l insieme dei valori che può assumere è numerabile: X (Ω) = {x 1, x 2,...} { P(X = x), se x = xi, per qualche i = 1, 2,..., f X (x) = 0, altrimenti. Funzione di densità discreta f X (x) := P(X = x) x / {x 1, x 2,...} f X (x) = 0. Legame con la funzione di distribuzione F X (x) = f X (x i ) x i x f X (x i ) = F X (x i ) lim h 0 +F X (x i h)

Media e varianza Media di X µ X = E[X ] := i x i f X (x i ) Varianza di X σ 2 X = Var[X ] := E[(X µ X ) 2 ] = i (x i µ X ) 2 f X (x i ) Deviazione standard di X σ X := Var[X ]

Proprietà della media X, Y variabili aleatorie, α R E[α] = α E[αX ] = αe[x ] E[X + Y ] = E[X ] + E[Y ]

Proprietà della varianza (1) Var[X ] = E[(X µ X ) 2 ] = E[X 2 + µ 2 X 2µ X E[X ]] = E[X 2 ] + µ 2 X 2µ2 X ] = E[X 2 ] (E[X ]) 2

Proprietà della varianza (2) Var[α] = 0 Var[αX ] = α 2 Var[X ] Var[X + Y ] = E[(X + Y E[X + Y ]) 2 ] = E[(X + Y µ X µ Y ) 2 ] = E[(X µ X ) 2 + (Y µ Y ) 2 + 2(X µ X )(Y µ Y )] = σx 2 + σ2 Y + 2Cov[X, Y ], Cov[X, Y ] = E[(X E[X ])(Y E[Y ])] = Covarianza di X e Y.

Proprietà della varianza (3) Se X ed Y sono indipendenti, allora la loro covarianza è nulla e si ha: Var[X + Y ] = Var[X ] + Var[Y ]. P( X µ X > rσ X ) 1/r 2 Disuguaglianza di Chebyshef P( X µ X < rσ X ) 1 1/r 2

Funzione generatrice dei momenti m X (t) = E[e tx ] = E[1 + Xt + 1 2! (Xt)2 + 1 3! (Xt)3 +...] = 1 + µ 1X t + 1 2! µ 2X t 2 +... = i=0 1 i! µ i X t i. µ r X, il momento r esimo di X, è la media della variabile casuale X r. È immediato verificare che risulta: d r dt r m X (0) = µ r X.

Distribuzione uniforme X : Ω {1,..., n} Tutti i possibili valori sono equiprobabili 1 n x {1,..., n} f X (x) := = 1 n I {1,2,...,n}(x) 0 x / {1,..., n} E[X ] = 1 n n i = i=1 (n + 1)n 2n Var[X ] = E[X 2 ] (E[X ]) 2 = 1 n = n(n + 1)(2n + 1) 6n = n + 1 2 n i 2 i=1 (n + 1)2 4 (n + 1)2 4 = n2 1 12

Distribuzione binomiale X : Ω {0, 1,..., n} Numero di successi in un esperimento ripetuto n volte p [0, 1] probabilità di successo in un singolo esperimento ( ) n f X (k) := p k (1 p) n k I k {0,1,2,...,n} (k)

Distribuzione binomiale (2) m X (t) = n ( n e ti i i=0 ) p i q n i = n i=0 ( ) n (pe t ) i q n i = (q + pe t ) n i dm X (t) dt = pe t n(pe t + q) n 1 d 2 m X (t) dt 2 = pe t n(pe t + q) n 1 + pe t n(n 1)pe t (pe t + q) n 2 = pe t n(pe t + q) n 2 (npe t + q)

Distribuzione binomiale (3) E[X ] = dm X (0) dt = pn, E[X 2 ] = d 2 m X (0) dt 2 = np(np + q) Var[X ] = E[X 2 ] (E[X ]) 2 = np(np + q) (np) 2 = npq

Esempi Numero di viaggiatori prenotati che non si presentano alla partenza di un volo. Numero di pezzi difettosi in un lotto di n pezzi prodotti. Numero di clienti che richiedono un particolare servizio.

Distribuzione geometrica X : Ω N Numero di fallimenti prima di un successo f X (k) = P(X = k) := (1 p) k p

Distribuzione geometrica (2) m X (t) = e it p(1 p) i = p [e t (1 p)] i. i=0 e se assumiamo che essa sia definita in un intorno sufficientemente piccolo dello 0 per cui risulti e t (1 p) < 1, allora è m X (t) = m X (t) = i=0 p 1 e t (1 p) pe t (1 p) (1 e t (1 p)) 2 m X (t) = pet (1 p)(1 e t (1 p)) 2 + 2(1 e t (1 p))e t (1 p)pe t (1 p) (1 e t (1 p)) 4

Distribuzione geometrica (3) E[X ] = m X (0) = 1 p p ; Var[X ] = E[X 2 ] E[X ] 2 = m X (0) E[X ]2 (1 p)(2 p) (1 p)2 = p 2 p 2 = 1 p p 2.

Distribuzione di Poisson (1) Numero di occorrenze di un evento in [0,t] f X (k) := λk e λ k! λ := νt (ν numero medio di occorrenze nell unità di tempo)

Distribuzione di Poisson (2) λ k e λ k! m X (t) = e λ (e t λ) i i=0 i! = e λ(et 1) dm X (t) dt = λe λ(et 1)+t, d 2 m X (t) dt 2 = λe λ(et 1)+t (λe t + 1) E[X ] = dm X (0) dt = λ, E[X 2 ] = d 2 m X (0) dt 2 = λ(λ + 1) Var[X ] = E[X 2 ] E[X ] 2 = λ(λ + 1) λ 2 = λ

Evento ripetuto nel tempo: ipotesi numeri di occorrenze in intervalli disgiunti sono indipendenti Se h << 1, allora P(X [τ,τ+h] = 1) = νh + o(h) P(X [τ,τ+h] > 1) = o(h) dove o(h) indica un infinitesimo di ordine superiore al primo: lim o(h)/h = 0 h 0

Evento ripetuto nel tempo: discretizzazione Dividere [0, t] in n intervalli di ampiezza t/n Al più una singola occorrenza in ciascun intervallo [t k, t k+1 ] successo = occorrenza nell intervallo [t k, t k+1 ] considerato X (n) [0,t] ha distribuzione binomiale di parametro p = νt/n ) (νt ) k ( P[X = k] = = ( n k 1 νt n n n(n 1)...(n k + 1) k!n k (νt) k e νt. n k! ) n k ( (νt) k 1 νt ) n ( n 1 νt n ) k

( lim 1 νt ) n = lim n + n ( lim 1 + 1 ) n = e n + n m + = lim m + = lim m + = lim m + = e νt ) (m+1)νt ( 1 1 m + 1 ( ) m mνt+νt m + 1 ( 1 + 1 ) mνt ( m m m + 1 ((1 + 1m ) νt )m ) νt m = n νt 1

Distribuzioni continue X è una variabile casuale continua se X (Ω) R, ed esiste una funzione reale f X per cui : F X (x) = x f X (u)du, (f X è la funzione di densità) x R F X (x) differenziabile f X (x) = df X (x). dx

Media e varianza E[X ] = µ X = xf X (x)dx. Var[X ] = E[(X µ X ) 2 ] = E[X 2 ] (E[X ]) 2 m X (t) = E[e tx ]

Distribuzione uniforme X è una variabile casuale uniformemente distribuita nell intervallo reale [a, b] se f X (x) = f X (x; a, b) = 1 b a I [a,b](x) ( ) x a F X (x) = I b a [a,b] (x) + I (b, ) (x) f(x) 1/(b-a) F(x) 1 a b a b

Media e Varianza E[X ] = b Var[X ] = E[X 2 ] (E[X ]) 2 = = b3 a 3 (a + b)2 3(b a) 4 m X (t) = b a a x b a dx = b + a 2 b a = x 2 b a dx (b a)2 12 e tx 1 b a dx = ebt e at (b a)t ( a + b 2 ) 2

Distribuzione normale f X (x) = f X (x; µ, σ) = 1 e (x µ)2 2σ 2 2πσ µ e σ sono rispettivamente la media e la deviazione standard

Media e Varianza m X (t) = E[e tx ] = e tµ E[e t(x µ) ] = e µt 1 e t(x µ) e (x µ)2 2σ 2 dx 2πσ = e µt = e µt+ σ2 t 2 2 1 e (x µ)2 2σ 2 t(x µ) 2σ 2 dx 2πσ 1 e (x µ σ2 t) 2 2σ 2 dx = e µt+ σ2 t 2 2 2πσ E[X ] = d dt m X (0) = µ Var[X ] = E[X 2 ] (E[X ]) 2 = µ 2 + σ 2 µ 2 = σ 2

Distribuzione esponenziale Variabile casuale definita nello spazio dei reali non negativi, con λ > 0 f X (x; λ) = λe λx, F X (x) = 1 e λx,

Media e Varianza m X (t) = E[e tx ] = = λ 0 0 e (λ t)x dx = e tx λe λx dx λ λ t. E[X ] = 1 λ, Var[X ] = 1 λ 2.

Esponenziale e Poisson Consideriamo un evento le cui occorrenze nel tempo hanno una distribuzione di Poisson. Supponendo che si sia appena verificata un occorrenza, chiamiamo con X la variabile casuale tempo da attendere prima della occorrenza successiva. Ricordando che, se Y è una v.c. Poisson, è P[Y = k] = (νt)k e νt k!, si ha allora P[X > t] = P[nessuna occorrenza fino al tempo t] = e νt e di conseguenza F X (t) = P[X t] = 1 e νt, t 0 f X (t) = df X (t) dt = νe νt

Proprietà dell esponenziale Per ogni coppia (s, t) di reali positivi, vale la Infatti è P[X > s + t X > s] = P[X > t]. P[X > s+t X > s] = P[X > s + t] P[X > s] = e λ(s+t) e λs = e λt = P[X > t]. Si parla in questo caso di proprietà di assenza di memoria. Inoltre: P[cX x] = P[X x c ] = 1 e λ c x X esponenziale con parametro λ cx esponenziale con parametro λ c

Distribuzione Gamma con parametri n e λ X 1, X 2,..., X n variabili casuali indipendenti con distribuzione esponenziale e parametro λ. n Y n = X i. i=1 La probabilità che Y n sia minore o uguale a t è pari alla probabilità che nel tempo t si verifichino almeno n eventi. (λt) j e λt F Yn (t) = P[Y n t] =. j! f Yn (t) = F Y n (t) = j=n λj(λt) j 1 e λt λ(λt) j e λt j=n = λe λt (λt) j 1 ( (j 1)! j=n j=n (λt) j j! j! λt (λt)n 1 ) = λe (n 1)!.

Gamma: media e varianza λ = 1 E[Y n ] = n λ, Var[Y n] = n λ 2.