Università di Siena. Corso di STATISTICA. Parte prima: Probabilità e variabili aleatorie. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti

Documenti analoghi
Università di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti

Matematica Applicata L-A Definizioni e teoremi

VIII Indice 2.6 Esperimenti Dicotomici Ripetuti: Binomiale ed Ipergeometrica Processi Stocastici: Bernoul

Calcolo delle Probabilità 2

Distribuzioni di Probabilità

Variabili aleatorie continue

Variabili aleatorie. continue. Discreto continuo

Variabili casuali. - di Massimo Cristallo -

Statistica ARGOMENTI. Calcolo combinatorio

5. Distribuzioni. Corso di Simulazione. Anno accademico 2009/10

UNIVERSITÀ DEGLI STUDI ROMA TRE Corso di Laurea in Matematica ST410 - Statistica 1 - A.A. 2013/2014. I Esonero - 29 Ottobre Tot.

3. Distribuzioni. Corso di Simulazione. Anno accademico 2006/07

λ è detto intensità e rappresenta il numero di eventi che si

Generazione di Numeri Casuali- Parte 2

Variabili aleatorie. Variabili aleatorie e variabili statistiche

Computazione per l interazione naturale: fondamenti probabilistici

Modelli probabilistici variabili casuali

Statistica Applicata all edilizia: alcune distribuzioni di probabilità

Teoria dei Fenomeni Aleatori AA 2012/13

Probabilità classica. Distribuzioni e leggi di probabilità. Probabilità frequentista. Probabilità soggettiva

Corso di Fondamenti di Telecomunicazioni

Due variabili aleatorie X ed Y si dicono indipendenti se comunque dati due numeri reali a e b si ha. P {X = a, Y = b} = P {X = a}p {Y = b}

Presentazione dell edizione italiana

Variabili casuali multidimensionali

Elementi di Probabilità e Statistica

I appello di calcolo delle probabilità e statistica

Dispensa di Statistica

Esplorazione dei dati. Lucidi e dataset tratti da Turini - Analisi dei Dati, Dip. Inf. Unipi

Variabili aleatorie: parte 1. 1 Definizione di variabile aleatoria e misurabilitá

Statistica, a.a. 2010/2011 Docente: D. Dabergami Lezione 4

Variabili aleatorie Parte I

Ripasso segnali e processi casuali. Trasmissione dell Informazione

Variabili aleatorie scalari

Probabilità e Statistica Esercizi

Introduzione all inferenza statistica, II lezione

Statistica Metodologica Avanzato Test 1: Concetti base di inferenza

Modelli descrittivi, statistica e simulazione

Statistica Inferenziale

Variabili aleatorie. 13 aprile Definizione di variabile aleatoria e misurabilitá. (R, B) é una funzione aleatoria se

ANALISI DELLE SERIE STORICHE

I VETTORI GAUSSIANI E. DI NARDO

Università degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1

Esercitazione 4 Distribuzioni campionarie e introduzione ai metodi Monte Carlo

MEDIA aritmetica semplice (Gli indicatori di posizione)

Esercizi di Calcolo delle Probabilità

Matematica e Statistica per Scienze Ambientali

Lezione 12. Statistica. Alfonso Iodice D Enza Università degli studi di Cassino. Lezione 12. A. Iodice.

Sommario. Capitolo 1 I dati e la statistica 1. Capitolo 2 Statistica descrittiva: tabelle e rappresentazioni grafiche 25

Ulteriori Conoscenze di Informatica e Statistica

DISTRIBUZIONI DI PROBABILITA

Sommario. 2 I grafici Il sistema di coordinate cartesiane Gli istogrammi I diagrammi a torta...51

Note introduttive alla probabilitá e alla statistica

Distribuzioni e inferenza statistica

Alcune v.a. discrete notevoli

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano

Statistica di base per l analisi socio-economica

X (o equivalentemente rispetto a X n ) è la

Funzioni di probabilità con Matlab

Modelli lineari generalizzati

UNIVERSITA DEGLI STUDI DI BRESCIA-FACOLTA DI MEDICINA E CHIRURGIA CORSO DI LAUREA IN INFERMIERISTICA SEDE DI DESENZANO dg STATISTICA MEDICA.

Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2016/2017. Giovanni Lafratta

Richiami di Probabilità e Statistica

Modulo di Statistica e Tecnologia (Dott. Giorgio Poletti

ELEMENTI DI STATISTICA

Laboratorio di Calcolo B 68

Le variabili casuali o aleatorie

Vedi: Probabilità e cenni di statistica

Distribuzione esponenziale. f(x) = 0 x < 0

Teoria dei Segnali Un esempio di processo stocastico: il rumore termico

DISTRIBUZIONE NORMALE (1)

Lezione n. 1 (a cura di Irene Tibidò)

Distribuzioni di due variabili aleatorie

CENNI SULLE VARIABILI ALEATORIE INTRODUZIONE ALLA TEORIA DELLE PROBABILITÀ APPROFONDIMENTO SULLA TEORIA DELLE PROBABILITÀ

Laboratorio di Statistica 1 con R Esercizi per la Relazione. I testi e/o i dati degli esercizi contassegnati da sono tratti dai libri consigliati

Variabili aleatorie discrete. Giovanni M. Marchetti Statistica Capitolo 5 Corso di Laurea in Economia

LE VARIABILI CASUALI A 1, A 2.,..., A k., p 2.,..., p k. generati da una specifica prova sono necessari ed incompatibili:

Diario delle lezioni di Calcolo e Biostatistica (O-Z) - a.a. 2013/14 A. Teta

Analisi della disponibilità d acqua. Valutazione dell impianto attraverso il calcolo di un indice economico (criterio)

Corso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza

tabelle grafici misure di

STATISTICA DESCRITTIVA (variabili quantitative)

VARIABILI ALEATORIE CONTINUE

DI IDROLOGIA TECNICA PARTE III

Il campionamento e l inferenza. Il campionamento e l inferenza

UNIVERSITÀ DEGLI STUDI DI PERUGIA

Esplorazione dei dati

LEZIONI DI STATISTICA MEDICA

Teoria della probabilità Variabili casuali

LEZIONI IN LABORATORIO Corso di MARKETING L. Baldi Università degli Studi di Milano. Strumenti statistici in Excell

COPPIE DI VARIABILI ALEATORIE

PROBABILITÀ ELEMENTARE

Tipi di variabili. Indici di tendenza centrale e di dispersione

Note sulla probabilità

P ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea)

Esercitazione del 06/03/2012 Istituzioni di Calcolo delle Probabilità

Capitolo 6. La distribuzione normale

Variabile casuale E 6 E 5 E 4. R S x1 E 2

Distribuzioni campionarie. Antonello Maruotti

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2006/07

Transcript:

Università di Siena Corso di STATISTICA Parte prima: Probabilità e variabili aleatorie Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Master E 2 C Centro per lo Studio dei Sistemi Complessi Università di Siena email: statistica@csc.unisi.it

Università di Siena 1 Lezione # 1 Teoria della probabilità Variabili aleatorie Distribuzioni di probabilità Distribuzioni bivariate e multivariate Media e varianza Funzioni di variabili aleatorie Distribuzioni condizionate Variabili aleatorie Gaussiane

Università di Siena 2 Teoria della probabilità La teoria della probabilità studia le proprietà globali (o di insieme) di fenomeni che si verificano sequenzialmente o contemporaneamente Esempi: produzione di manufatti, chiamate telefoniche, traffico automobilistico, popolazioni, guasti, emissioni di elettroni, ecc. Un esperimento probabilistico ha le seguenti caratteristiche: - tutte i possibili risultati dell esperimento sono noti a priori (eventi elementari) - ogni esperimento produce un risultato che non è noto a priori - l esperimento può essere ripetuto nelle stesse condizioni Un evento E è una collezione di eventi elementari

Università di Siena 3 Classe degli eventi Ω: insieme di tutti gli eventi elementari S: insieme di tutti i possibili sottoinsiemi di Ω (classe degli eventi) S ha le seguenti proprietà S è un evento se E i S, allora Ēi = S E i S E i, E j S, si ha E i E j S e E i E j S Gli elementi di S sono tutti gli eventi di cui è interessante studiare le proprietà di insieme (medie su esperimenti ripetuti, dispersione dei risultati, probabilità degli eventi, ecc.)

Università di Siena 4 Legge di probabilità Sulla classe degli eventi S è definita la legge di probabilità P { }, tale che P {E} 0 per ogni evento E P {S} = 1 se E 1 E 2 =, allora P {E 1 E 2 } = P {E 1 } + P {E 2 } La terna (Ω, S, P ) individua un esperimento probabilistico Valgono le seguenti proprietà: P { } = 0 P {E} = 1 P {Ē} 1 P {E 1 E 2 } = P {E 1 } + P {E 2 } P {E 1 E 2 }

Università di Siena 5 Variabili aleatorie Si dice variabile aleatoria una funzione dalla classe degli eventi allo spazio dei reali X : S R Il valore assunto da X in corrispondenza di un evento si dice realizzazione Alla variaile aleatoria è associata la funzione di distribuzione della probabilità F X (x) = P {X x} Proprietà: - P {x 1 < x x 2 } = F X (x 2 ) F X (x 1 ) - 0 F X (x) 1 - lim x + F X (x) = 1, lim F X (x) = 0 x - F X (x) è monotona non decrescente: F X (x 1 ) F X (x 2 ) x 1 x 2

Università di Siena 6 Variabili aleatorie discrete e continue Una variabile aleatoria X si dice discreta se esiste un insieme numerabile E R tale che P {X E} = 1 La funzione di distribuzione della probabilità è costante a tratti, con discontinuità in corrispondenza degli elementi di E Per una v.a. discreta si può definire la funzione massa di probabilità come p i = P {x = x i } con p i 0 e i p i = 1. Si ha così: F X (x) = x i x p i Una variabile aleatoria X si dice continua se la funzione di distribuzione della probabilità F X (x) è continua per ogni x R Una generica v.a. X può avere sia una componente discreta che una componente continua. In tal caso: F X (x) = F X,d (x) + F X,c (x)

Università di Siena 7 Funzione densità della probabilità Si definisce funzione di densità della probabilità (pdf) Proprietà: - f X (x) 0 - + - F X (x) = f X (x) dx = 1 x - P {a X b} = Osservazioni: f X (σ) dσ b a f X (x) = d dx F X(x) f X (x) dx se X ha una componente discreta, f X (x) è definita nello spazio delle distribuzioni (contiene una delta di Dirac δ(x x i ), per ogni x i E) se X è puramente discreta, f X (x) = i p iδ(x x i )

Università di Siena 8 Esempi di distribuzioni notevoli (continue) Distribuzione Gaussiana (o normale) f X (x) = 1 2π σ e (x m)2 /2σ 2 Distribuzione uniforme f X (x) = 1 b a x [a, b] 0 altrimenti Distribuzione esponenziale f X (x) = 1 λ e x/λ x 0 0 altrimenti

Università di Siena 9 Esempi di distribuzioni notevoli (discrete) Distribuzione uniforme p k = P {X = k} = 1 n k = 1,..., n Distribuzione binomiale ( ) n p k = P {X = k} = p k (1 p) n k k = 0, 1,..., n 0 p 1 k Distribuzione geometrica p k = P {X = k} = p(1 p) k k = 0, 1,... 0 p 1 Distribuzione di Poisson p k = P {X = k} = e λ λ k k! k = 0, 1,... λ > 0

Università di Siena 10 Distribuzioni bivariate X, Y : variabili aleatorie F X,Y (x, y) = P {X x; Y y} distribuzione bivariata f X,Y (x, y) = Proprietà: d2 dx dy F X,Y (x, y) densità di probabilità bivariata - F X,Y (x, y) monotona non decrescente in x e y - lim x,y + F X,Y (x, y) = 1, - P {(X, Y ) A} = A lim F X,Y (x, y) = 0 x,y f X,Y (x, y) dx dy X e Y sono variabili aleatorie indipendenti se f X,Y (x, y) = f X (x) f Y (y)

Università di Siena 11 Distribuzioni multivariate X R n : vettore di n variabili aleatorie X = [X 1 X 2... X n ] f X (x) : densità di probabilità multivariata Proprietà: - + +... + f X (x) dx n dx n 1... dx 1 = 1 - f Xi (x i ) = + +... + f X (x) dx n... dx i+1 dx i 1... dx 1 X 1, X 2,..., X n sono variabili aleatorie indipendenti se f X (x) = f X1 (x 1 ) f X2 (x 2 )... f Xn (x n )

Università di Siena 12 Operatore di media Si definisce media (o valore atteso) di una variabile aleatoria X E[X] = + x f X (x) dx m X e di una generica funzione g(x) E[g(X)] = + g(x) f X (x) dx Ponendo g(x) = X p si ottengono i momenti di ordine p. Proprietà: l operatore di media è lineare E[αX + βy ] = αe[x] + βe[y ]

Università di Siena 13 Varianza e covarianza Si definisce varianza di una variabile aleatoria X Var(X) = E[(X m X ) 2 ] = σ X : deviazione standard di X + (x m X ) 2 f X (x) dx σ X 2 Si definisce covarianza di due variabili aleatorie X, Y E[(X m X )(Y m Y )] = + + (x m X )(y m Y ) f X,Y (x, y) dydx P XY Caso vettoriale (X R n, Y R m ) - P X = E[(X m X )(X m X ) ] R n n - P XY = E[(X m X )(Y m Y ) ] R n m - X e Y si dicono scorrelate se P XY = 0 - X e Y indipendenti X e Y scorrelate

Università di Siena 14 Variabili aleatorie Gaussiane X R n sono variabili aleatorie congiuntamente Gaussiane se la loro pdf è f X (x) = con P X = P X > 0. Notazione: X N (m X, P X ) 1 1 (2π)n det(p X ) e 2 (x m X) P 1 X (x m X ) Proprietà: - E[X] = m X - E[(X m X )(X m X ) ] = P X - X cong. Gaussiane Y = AX + b cong. Gaussiane, con m Y = Am X + b, P Y = AP X A - X e Y v.a. scorrelate e cong. Gaussiane X e Y indipendenti

Università di Siena 15 Teorema del limite centrale Siano X j R, j = 1, 2,..., variabili aleatorie indipendenti e identicamente distribuite, tali che E[X j ] = m X lim n P e Var(X j ) = σ 2 X. Allora, per ogni x R { } X mx σ X / n x = 1 x e u2 /2 du 2π La media campionaria X di variabili aleatorie equidistribuite, con media m X con media m X e varianza σ X 2, è asintoticamente normalmente distribuita, e varianza σ 2 X /n, ovvero ( lim X N m X, σ ) 2 X n n

Università di Siena 16 Funzioni di variabili aleatorie Sia X R v.a. con pdf f X (x). Sia Y R v.a., definita da Y = g(x). Si ha dove g (x) = dg(x) dx Caso vettoriale (X, Y R n ): f Y (y) = m i=1 f X (x i ) g (x i ) e g(x 1 ) = g(x 2 ) = = g(x m ) = y. f Y (y) = m i=1 f X (x i ) J(x i ) ( ) g(x) dove J(x i ) = det e g(x 1 ) = g(x 2 ) = = g(x m ) = y. x x=x i

Università di Siena 17 Probabilità condizionata Dati due eventi A e B, la probabilità dell evento A condizionata all evento B è data da P {A B} = P {A B} P {B} La funzione di distribuzione della probabilità di una v.a. X, condizionata all evento Y = y, è definita da F X Y (x y) = lim P {X x y ε Y y + ε} ε 0+ La funzione di densità di probabilita condizionata di X rispetto a Y è f X Y (x y) = d dx F X Y (x y)

Università di Siena 18 Distribuzioni condizionate Formula di Bayes f X Y (x y) = f X,Y (x, y) f Y (y) Conseguenze: f X (x) = + f X Y (x y) f Y (y) dy Se X e Y sono indipendenti: f X Y (x y) = f X (x) Definizioni: - media condizionata: E[X Y ] = + x f X Y (x y) dx - varianza condizionata: P X Y = + (x E[X Y ]) 2 f X Y (x y) dx

Università di Siena 19 Distribuzione Gaussiana condizionata Siano X e Y v.a. congiuntamente Gaussiane tali che: E[X] = m X E[Y ] = m Y E X m X Y m Y X m X Y m Y = R X R XY R XY R Y Risultato: E[X Y ] = m X + R XY R 1 Y (Y m Y ) P X Y = R X R XY R 1 Y R XY

Università di Siena 20 Processi stocastici Si dice processo stocastico (p.s.), una sequenza temporale di variabili aleatorie x(t), con t T, dove T rappresenta l asse dei tempi. - se T è un insieme numerabile {t 1, t 2,..., t k,... }, il processo stocastico è detto tempo-discreto - se T = {t R, t 0}, il processo stocastico è detto tempo-continuo Dalla definizione di variabile aleatoria, un p.s. è una funzione x(t, ω): x : T Ω R. fissato un istante temporale t T, x( t) è una variabile aleatoria fissato l evento ω, x(t) è una funzione deterministica di t (detta realizzazione del processo stocastico)

Università di Siena 21 Statistiche di un processo stocastico Un processo stocastico è completamente caratterizzato in senso statistico se è nota la probabilità: P {x(t 1 ) x 1, x(t 2 ) x 2,..., x(t k ) x k }, t 1,..., t k x 1,..., x k k. Analogamente alle variabili aleatorie, è possibile definire le funzioni di distribuzione e di densità della probabilità per ogni k = 1, 2,... (statistiche di ordine k): - distribuzione - densità F x (x 1,..., x k ; t 1,..., t k ) f x (x 1,..., x k ; t 1,..., t k )

Università di Siena 22 Esempi: - statistiche del primo ordine F x (x; t) = P {x(t) x} f x (x; t) = x F x(x; t) - statistiche del secondo ordine F x1,x 2 (x 1, x 2 ; t 1, t 2 ) = P {x(t 1 ) x 1, x(t 2 ) x 2 } f x1,x 2 (x 1, x 2 ; t 1, t 2 ) = 2 x 1 x 2 F x1,x 2 (x 1, x 2 ; t 1, t 2 )

Università di Siena 23 Media e covarianza di processi stocastici Si definisce media (o valore atteso) m x (t) del p.s. x(t) m x (t) = E[x(t)] = + x f x (x; t) dx Si definisce funzione di covarianza (o autocovarianza) R mx (t, s) di un p.s. x(t) R x (t, s) = E[(x(t) m x (t))(x(s) m x (s)) ] = + + (x 1 m x (t))(x 2 m x (s)) f x1,x 2 (x 1, x 2 ; t, s) dx 1 dx 2 Si definisce funzione di covarianza incrociata (o cross-covarianza) R x,y (t, s) di due p.s. x(t), y(t) R x,y (t, s) = E[(x(t) m x (t))(y(s) m y (s)) ] = + + (x m x (t))(y m y (s)) f x,y (x, y; t, s) dxdy

Università di Siena 24 Caso scalare: x, y R - m x (t) : R R - R x (t, s) : R R R - R x,y (t, s) : R R R Caso vettoriale: x R n, y R m - m x (t) : R R n, m y (t) : R R m - R x (t, s) : R R R n n, R y (t, s) : R R R m m - R x,y (t, s) : R R R n m

Università di Siena 25 Stazionarietà Un processo stocastico x(t) si dice stazionario in senso forte se le statistiche di ogni ordine di x(t) e x(t + τ) sono identiche, ovvero se: P {x(t 1 + τ) x 1,..., x(t k + τ) x k } non dipende da τ, t 1,..., t k, x 1,..., x k e k. Un processo stocastico x(t) si dice stazionario in senso debole se i momenti del primo e del secondo ordine di x(t) e x(t + τ) sono identici, ovvero se per ogni τ m x (t) = m x (t + τ) R x (t, s) = R x (t + τ, s + τ) un p.s. x(t) stazionario in senso debole se e solo se m x (t) = m x R x (t, s) = R x (t s) la stazionarietà forte implica quella debole (ma non viceversa)

Università di Siena 26 Processi gaussiani, processi bianchi Un processo stocastico si dice gaussiano se le sue statistiche: F x (x 1,..., x k ; t 1,..., t k ) sono gaussiane, per ogni k. Proprietà: - un p.s. gaussiano è caratterizzato completamente da un punto di vista statistico qualora siano note la media e la funzione di covarianza - per i p.s. gaussiani la stazionarietà forte e quella debole coincidono Un processo stocastico x(t) si dice bianco se x(t 1 ) e x(t 2 ) sono variabili aleatorie indipendenti, per ogni coppia t 1 t 2. Se le variabili aleatorie sono anche identicamente distribuite, si parla di processo a variabili i.i.d. (indipendenti e identicamente distribuite).

Università di Siena 20 Lezione # 2 MATLAB Statistics Toolbox Generazione di numeri casuali Caratteristiche delle principali distribuzioni Statistiche descrittive Plot statistici

Università di Siena 21 MATLAB Statistics Toolbox - Version 3.0 Un insieme di strumenti di calcolo per problemi di statistica e calcolo delle probabilità Oltre 200 funzioni, divise in vari gruppi Probability density functions (pdf) Cumulative Distribution functions (cdf) Random Number Generators Statistics Linear and Nonlinear Models Parameter estimation Multivariate Statistics Hypothesis Tests Statistical Plotting etc... Elenco completo >> help stats

Università di Siena 22 Comandi pdf e cdf >> x=[-5:0.1:5]; >> f=normpdf(x,0,1); % pdf Gaussiana, media=0, varianza=1 >> F=normcdf(x,0,1); % cdf Gaussiana, media=0, varianza=1 >> figure, plot(x,f) >> figure, plot(x,f) 0.4 Normal pdf 1 Normal cdf 0.35 0.9 0.8 0.3 0.7 0.25 0.6 f X (x) 0.2 F X (x) 0.5 0.15 0.4 0.3 0.1 0.2 0.05 0.1 0 5 4 3 2 1 0 1 2 3 4 5 x 0 5 4 3 2 1 0 1 2 3 4 5 x f X (x) Gaussiana F X (x) Gaussiana

Università di Siena 23 Generatori di numeri casuali uso dei comandi rnd (20 distribuzioni predefinite) >> y=normrnd(0,1,1000,1); >> % vettore 1000 1 di v.a. Gaussiane (media=0, varianza=1) metodo di inversione Se u è una v.a. distribuita uniformemente tra 0 e 1, F 1 (u) è una v.a. con distribuzione F >> u=rand(1000,1); >> y=-log(1-u); >> % vettore 1000 1 di v.a. con distribuzione esponenziale (λ = 1) Esercizio: Generare 1000 v.a. distribuite con pdf 1.5x 2 x [ 1, 1] f X (x) = 0 altrimenti

Università di Siena 24 Media e varianza Per distribuzioni assegnate, media e varianza si ottengono utilizzando i comandi stat >> [M,V]=expstat(1); % pdf esponenziale (lambda=1) >> [M,V]=unifstat(-1,1); % pdf uniforme in [-1,1] Media e varianza campionaria di un campione di dimensione n si ottengono tramite i comandi mean e cov >> y=exprnd(1,1000,1); >> Mc=mean(y); % media campionaria >> Vc=cov(y); % varianza campionaria

Università di Siena 25 Statistiche campionarie Siano X 1, X 2,..., X n, n osservazioni indipendenti di una variabile aleatoria X, con distribuzione F X. L insieme X i, i = 1,..., n, è un campione di dimensione n della distribuzione F X. Una funzione h(x 1, X 2,..., X n ) è una statistica campionaria della v.a. X Media campionaria n X = 1 n i=1 X i Proprietà: E[ X] = m X, Var( X) = E[( X m X ) 2 ] = σ 2 X n Varianza campionaria S 2 X = 1 n 1 n (X i X) 2 i=1 Proprietà: E[S 2 X] = σ X 2

Università di Siena 26 Esempi di distribuzioni Distribuzioni discrete Distribuzione binomiale Distribuzione geometrica Distribuzione di Poisson Distribuzioni continue Distribuzione uniforme (continua) Distribuzione log-normale Distribuzione Gamma Distribuzione esponenziale Distribuzione χ 2

Università di Siena 27 Distribuzione binomiale Modella il numero di esiti positivi su n prove nelle ipotesi seguenti: - solo due risultati possibili per ogni prova (positivo o negativo) - la probabilità di esito positivo per ogni prova è p, 0 p 1 - le prove sono indipendenti La probabilità di avere k esiti positivi è pari a p k = P {X = k} = ( n k) p k (1 p) n k k = 0, 1,..., n Proprietà: E[X] = np; Var(X) = np(1 p) 0.18 0.16 0.14 0.12 Binomial pdf (n=20, p=1/2) >> n=20; >> p=1/2; >> x=0:n; >> y=binopdf(x,n,p); >> plot(x,y, + ) p k 0.1 0.08 0.06 0.04 0.02 0 0 2 4 6 8 10 12 14 16 18 20 k

Università di Siena 28 Distribuzione geometrica Modella il numero di esiti negativi consecutivi, prima che si verifichi un esito positivo (stesse ipotesi viste per la distribuzione binomiale) La probabilità di avere k esiti negativi consecutivi prima di un esito positivo è pari a p k = P {X = k} = p(1 p) k k = 0, 1,... 0.8 Geometric distribution (p=0.05) Proprietà: E[X] = 1 p 1 p ; Var(X) = p p 2 0.7 0.6 >> n=30; >> p=0.05; >> x=0:n; >> y=geocdf(x,p); >> stairs(x,y) F(k) 0.5 0.4 0.3 0.2 0.1 0 0 5 10 15 20 25 30 k

Università di Siena 29 Distribuzione di Poisson Modella il numero di volte che un certo evento si verifica in una unità di tempo o di spazio Esempi: numero di clienti di un negozio in un giorno; numero di auto che transitano in un ora; ecc. La probabilità di ottenere k eventi è pari a λ λk p k = P {X = k} = e k = 0, 1,... con λ > 0 k! 0.18 Poisson distribution (λ=5) Proprietà: E[X] = Var(X) = λ 0.16 0.14 0.12 >> n=20; >> lambda=5; >> x=0:n; >> y=poisspdf(x,lambda); >> plot(x,y, + ) p k 0.1 0.08 0.06 0.04 0.02 0 0 2 4 6 8 10 12 14 16 18 20 k

Università di Siena 30 Distribuzione uniforme (continua) f X (x; a, b) = 1 b a x [a, b] 0 altrimenti Nel caso a = 0, b = 1: distribuzione uniforme standard (comandi MATLAB: rand, unifrnd(a,b)) Esempi di applicazioni: distribuzione degli errori di arrotondamento; generazione di numeri casuali da distribuzioni assegnate (inversione) Proprietà: E[X] = a+b (b a)2 ; Var(X) = 2 12 >> u=rand(10000,1); >> x=norminv(u,0,1); >> y=expinv(u,1); >> subplot(121), hist(x,100); >> subplot(122), hist(y,100); 350 300 250 200 150 100 50 Histogram normal sample 0 5 0 5 900 800 700 600 500 400 300 200 100 Histogram exponential sample 0 0 2 4 6 8 10

Università di Siena 31 Distribuzione log-normale f X (x; m, σ) = 1 2π σ x e (ln x m)2 /2σ 2 x > 0 Se X è una v.a. con distribuzione log-normale con parametri m e σ, allora ln X ha distribuzione normale con media m e varianza σ 2 Applicazioni in campo economico (distribuzione del reddito, ecc.) Proprietà: ) E[X] = exp (m + σ2 ; 2 Var(X) = exp(2m + 2σ 2 ) exp(2m + σ 2 ) 3.5 x 10 5 Income distribution 3 2.5 2 >> x=[0:1000:125000]; >> y=lognpdf(x,log(20000),1); >> plot(x,y) >> title( Income distribution ) 1.5 1 0.5 0 0 30k 60k 90k 120k $

Università di Siena 32 Distribuzione Gamma f X (x; a, b) = 1 b a Γ(a) xa 1 e x/b x > 0 0 altrimenti dove Γ(a) = 0 y a 1 e y dy è la funzione Gamma Distribuzione Gamma a due parametri a e b (gampdf(x,a,b)) Applicazioni: modella la vita media dei componenti elettronici, la durata media del funzionamento corretto di dispositivi, ecc. Casi particolari: a = 1, b = λ: distribuzione esponenziale con parametro λ b = 2, a = n/2, n intero positivo: distribuzione χ 2 a n gradi di libertà (χ 2 (n))

Università di Siena 33 Distribuzione esponenziale f X (x; λ) = 1 λ e x/λ x 0 0 altrimenti Proprietà: - E[X] = λ; Var(X) = λ 2 - F X (x 2 ) F X (x 1 ) 1 F X (x 1 ) = F X (x 2 x 1 ) (probabilità di sopravvivenza per una ulteriore unità di tempo) >> life=10:10:60; >> lifeplus1=l+1; >> deltap=(expcdf(lifeplus1,10)-expcdf(life,10))./(1-expcdf(life,10)) deltap = 0.0952 0.0952 0.0952 0.0952 0.0952 0.0952

Università di Siena 34 Distribuzione χ 2 f X (x; n) = 1 Γ(n/2)2 n/2 e x/2 x n/2 1 x > 0 0 altrimenti Proprietà: - E[X] = n; Var(X) = 2n - Date n variabili aleatorie X i N (m X, σ X 2 ), allora n i=1 (X i m X ) 2 σ X 2 χ 2 (n) - Date n osservazioni indipendenti di una variabile aleatoria X N (m X, σ X 2 ), la varianza campionaria S 2 X è tale che (n 1)S 2 X σ X 2 χ 2 (n 1)

Università di Siena 35 Distribuzione esponenziale e distribuzione χ 2 0.5 Distribuzione esponenziale (λ=2) 0.1 Distribuzione χ 2 (10) 0.45 0.09 0.4 0.08 0.35 0.07 0.3 0.06 f X (x) 0.25 f X (x) 0.05 0.2 0.04 0.15 0.03 0.1 0.02 0.05 0.01 0 0 2 4 6 8 10 12 14 16 18 20 x 0 0 5 10 15 20 25 30 35 40 x f X (x) esponenziale (λ = 2) f X (x) χ 2 (10)

Università di Siena 36 Statistiche descrittive Le statistiche descrittive forniscono indicatori numerici che riassumono le caratteristiche di un campione di dati Sono utili specialmente per campioni molto numerosi Esempi: Statistiche campionarie Misure di locazione Misure di dispersione Percentili

Università di Siena 37 Percentili Sia X una variabile aleatoria. Un numero x che soddisfa P {X x} p P {X x} 1 p 0 < p < 1 si dice quantile di ordine p, o percentile al 100p % della v.a. X. Per una v.a. continua, il quantile di ordine p si ottiene risolvendo l equazione F X (x) = p Se la v.a. contiene una componente discreta per X = x, si ha: p F X (x) p + P {X = x} Il percentile al 50 % si dice mediana di X

Università di Siena 38 Statistiche descrittive: misure di locazione X i, i = 1,..., n : campione Media campionaria X (mean) Mediana campionaria (median) X med : #{X i X med } = #{X i X med } Media geometrica (geomean) X geom = n n Media armonica (harmmean) i=1 X i X arm = 1 n 1 n i=1 1 X i

Università di Siena 39 Statistiche descrittive: misure di dispersione X i, i = 1,..., n : campione Varianza campionaria S 2 X (var, cov), Deviazione standard S X (std) Range (range) Range = max i Deviazione media in modulo (mad) X i min i X i MAD = 1 n n X i X i=1 Range tra percentili fissati (iqr) IQR = X p,75% X p,25% dove X p,r% è tale che #{X i X p,r% } n (percentile a r %, prctile) 100 = r

Università di Siena 40 Plot statistici Rappresentazione grafica di campioni di dati (boxplot) >> y=randn(200,1); >> boxplot(y,1) 3 boxplot((randn(200,1)) outlier 2 1 Values 0 percentile 75% mediana 1 percentile 25% 2 1 Column Number

Università di Siena 41 Distribuzione empirica Dato un campione X i, i = 1,..., n, la sua distribuzione empirica è definita da FX(x) = 1 n ε(x X j ) n dove ε(x) = 1 x 0 0 x < 0. j=1 1 Empirical CDF 0.9 0.8 >> y=randn(100,1); >> cdfplot(y) >> x=[-3:0.1:3]; >> yt=normcdf(x,0,1); >> hold on; plot(x,yt, r-- ) F(x) 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 3 2 1 0 1 2 3 x

Università di Siena 42 Distribution plots Sono utili per stabilire se un campione può essere stato generato secondo una certa distribuzione o per confrontare tra loro campioni diversi Esempi: normal probability plot, quantile-quantile plot, etc. >> y=normrnd(10,1,25,1); normplot(y) >> z=exprnd(10,100,1); normplot(z) 0.99 y=normrnd(10,1,25,1); normplot(y) 0.997 y=exprnd(10,100,1); normplot(y) 0.98 0.99 0.95 0.98 0.90 0.95 0.90 0.75 0.75 Probability 0.50 Probability 0.50 0.25 0.25 0.10 0.10 0.05 0.05 0.02 0.02 0.01 8.5 9 9.5 10 10.5 11 11.5 12 12.5 Data 0.01 0.003 0 5 10 15 20 25 30 35 40 45 50 Data

Università di Siena 43 Scatter plots Sono grafici che rappresentano un campione in funzione di un altro, con la possibilità di raggruppare i campioni in funzione di una terza variabile >> load carsmall >> gscatter(weight,mpg,model Year,, xos ) >> xvars=[weight Horsepower]; yvars=[mpg Acceleration]; >> gplotmatrix(xvars,yvars,model Year,, xos ) 45 40 gscatter plot (by Model Year) 70 76 82 45 40 35 70 76 82 MPG 35 30 25 20 15 Accelerazione Miglia / Gallone 30 25 20 15 10 24 22 20 18 16 14 10 12 10 8 5 1500 2000 2500 3000 3500 4000 4500 5000 Weight 2000 2500 3000 3500 4000 4500 Peso 50 100 150 200 Potenza