Statistica 1 A.A. 2015/2016

Documenti analoghi
Statistica 1 A.A. 2015/2016

Variabili casuali. - di Massimo Cristallo -

DISTRIBUZIONI DI PROBABILITA

Probabilità classica. Distribuzioni e leggi di probabilità. Probabilità frequentista. Probabilità soggettiva

STATISTICA: esercizi svolti sulle VARIABILI CASUALI

esperimento casuale: è un esperimento condotto sotto l effetto del caso; evento elementare: ciascuno dei possibili esiti di un esperimento casuale;

STATISTICA ESERCITAZIONE 9

PROBABILITA. Distribuzione di probabilità

Lezione 12. Statistica. Alfonso Iodice D Enza Università degli studi di Cassino. Lezione 12. A. Iodice.

DISTRIBUZIONE NORMALE (1)

Esercizi su variabili aleatorie discrete

P(X > 0) = P(X 1 = 1) + P(X 1 = 1, X 2 = 1, X 3 = 1) =

DISTRIBUZIONI DI PROBABILITA

Capitolo 5 Variabili aleatorie discrete notevoli Insegnamento: Statistica Applicata Corso di Laurea in "Scienze e Tecnologie Alimentari"

SCHEDA DIDATTICA N 7

Esercitazione: La distribuzione NORMALE

Corso di Laurea: Diritto per le Imprese e le istituzioni a.a Statistica. Probabilità. Lezioni : 11, 12. Docente: Alessandra Durio

Indici di posizione e dispersione per distribuzioni di variabili aleatorie

FENOMENI CASUALI. fenomeni casuali

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2006/07

Esercizi di Calcolo delle Probabilità

Due variabili aleatorie X ed Y si dicono indipendenti se comunque dati due numeri reali a e b si ha. P {X = a, Y = b} = P {X = a}p {Y = b}

Variabili aleatorie discrete. Giovanni M. Marchetti Statistica Capitolo 5 Corso di Laurea in Economia

Statistica ARGOMENTI. Calcolo combinatorio

1. Descrivere gli spazi campionari dei seguenti esperimenti casuali: 1. lancio di un dado 2. lancio di due dadi 3.

ESERCIZI SU EVENTI E VARIABILI ALEATORIE DISCRETE

Università degli studi della Tuscia. Principi di Statistica dr. Luca Secondi A.A. 2014/2015. Esercitazione di riepilogo Variabili casuali

Variabile casuale Normale

Variabili aleatorie. Variabili aleatorie e variabili statistiche

LE DISTRIBUZIONI CAMPIONARIE

Statistica 2. Esercitazioni. Dott. Luigi Augugliaro 1. Università di Palermo

Lezioni da Matematica I Calcolo differenziale, Algebra lineare, Probabilità e statistica G. Aletti & G. Naldi & L. Pareschi

INDICI DI FORMA: L ASIMMETRIA

CALCOLO DELLE PROBABILITA - 24 Giugno 2015 CdL in STAD, SIGAD Compito intero Seconda prova in itinere: esercizi 4,5,6.

Esercitazioni di Statistica

tabelle grafici misure di

LA DISTRIBUZIONE NORMALE (Vittorio Colagrande)

Il campionamento e l inferenza. Il campionamento e l inferenza

e n n xn ( 1) n ( 1) n n + 1 2e n x n 3n [ln x]n 1 n + 1 2e n 1

STATISTICA A K (63 ore) Marco Riani

Esercizi settimana 5. Esercizi applicati. Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 2 3

Statistica Inferenziale

V.C. RETTANGOLARE o UNIFORME

Modelli descrittivi, statistica e simulazione

Statistica. Alfonso Iodice D Enza

Il Corso di Fisica per Scienze Biologiche

Probabilità e Statistica per l Informatica Esercitazione 4

A1. La curva normale (o di Gauss)

Calcolo delle Probabilità e Statistica, Ingegneria Civile e A&T e Informatica I prova finale a.a. 2016/17

Capitolo 6. La distribuzione normale

Esame di AM2 & EAP (270/04) a.a. 2009/10

Variabili aleatorie continue

Capitolo 6 La distribuzione normale

Ψ PSICOMETRIA. Corso di laurea triennale (classe 34) STATISTICA INFERENZIALE

3.1 La probabilità: eventi e variabili casuali

Scopo del Corso: Lezione 1. La Probabilità. Organizzazione del Corso e argomenti trattati: Prerequisiti:

La variabilità. Dott. Cazzaniga Paolo. Dip. di Scienze Umane e Sociali

Lezione n. 1 (a cura di Irene Tibidò)

UNIVERSITÀ di ROMA TOR VERGATA

Calcolo della probabilità

Introduzione alla statistica 2/ed. Marilyn K. Pelosi, Theresa M. Sandifer, Paola Cerchiello, Paolo Giudici

distribuzione normale

Statistica. Lezione 4

Probabilità 1, laurea triennale in Matematica I prova scritta sessione estiva a.a. 2008/09

Corso di Fondamenti di TLC Esercizi di Probabilitá

(5 sin x + 4 cos x)dx [9]

Prova d'esame di Statistica I - Corso Prof.ssa S. Terzi

Distribuzione Gaussiana o Normale. 1 Distribuzione Normale come limite della Binomiale

Distribuzioni e inferenza statistica

p k q n k = p n (k) = n 12 = 1 = ,1208. q = 1 2 e si ha: p 12 (8) =

ISTOGRAMMI E DISTRIBUZIONI:

Tipi di variabili. Indici di tendenza centrale e di dispersione

Esercitazioni di Statistica

Esercitazione del 31/01/2012 Istituzioni di Calcolo delle Probabilità

Soluzione esercizi (quarta settimana)

MEDIA aritmetica semplice (Gli indicatori di posizione)

Esercizi svolti di statistica. Gianpaolo Gabutti

Transcript:

Corso di Laurea in Economia e Finanza Statistica 1 A.A. 2015/2016 (8 CFU, corrispondenti a 48 ore di lezione frontale e 24 ore di esercitazione) Prof. Luigi Augugliaro 1 / 88

La variabile aleatoria Nello studio degli esperimenti casuali, spesso oggetto di interesse è una funzione degli eventi aleatori. Ad esempio, nell esperimento casuale lancio di due dadi possiamo essere interessati alla funzione somma dei valori ottenuti, piuttosto che sapere quale sequenza si sia realizzata. Le funzioni definite sullo spazio campionario a valori reali sono note come variabili aleatorie o casuali. Definizione Si definisce variabile aleatoria, denotata con X, una qualsiasi funzione definita sullo spazio campionario Ω a valori reali, formalmente X : Ω R. 2 / 88

Rappresentazione grafica 3 / 88

Se indichiamo con E i un generico evento dello spazio campionario, la variabile aleatoria X assumerà il valore X (E i ) = x i. La relazione precedente consente di definire la probabilità sui valori assunti dalla variabile aleatoria X, più formalmente, la probabilità che la variabile aleatoria X assuma il valore x i è definita nel seguente modo: P(X (E i ) = x i ) = P(E i ). Notazione: Nel seguito verrà omessa la dipendenza della variabile aleatoria dall evento aleatorio E i ; in questo caso la definizione precedente può essere scritta come P(X = x i ) = p(x i ) = P(E i ). 4 / 88

Esempio: si consideri l esperimento casuale consistente nel lancio di tre monete equilibrate. Se indichiamo con X il numero di teste che si ottengono, allora X è una variabile aleatoria che può assumere i valori 0,1,2 e 3 (dominio della variabile aleatoria). Le probabilità associate ai valori del dominio di X sono le seguenti: P(X = 0) = P({C, C, C}) = 1/8 P(X = 1) = P({T, C, C} {C, T, C} {C, C, T }) = 3/8 P(X = 2) = P({T, T, C} {T, C, T } {C, T, T }) = 3/8 P(X = 3) = P({T, T, T }) = 1/8 5 / 88

Esempio: consideriamo il seguente esempio. Supponiamo di lanciare ripetutamente una moneta fino a quando non appare per la prima volta la faccia testa. Se denotiamo con X il numero di lanci necessari affinché appaia per la prima volta la faccia testa, si deduce che X è una variabile aleatoria che assume i valori 1, 2,... (variabile aleatoria discreta) con probabilità P(X = 1) = P(T ) = 0.5 P(X = 2) = P({C, T }) = 0.5 0.5 = 0.5 2 P(X = 3) = P({C, C, T }) = 0.5 0.5 0.5 = 0.5 3 P(X = 4) = P({C, C, C, T }) = 0.5 0.5 0.5 0.5 = 0.5 4 P(X = 5) = P({C, C, C, C, T }) = 0.5 0.5 0.5 0.5 0.5 = 0.5 5. 6 / 88

Variabili aleatorie discrete Definizione Sia X una variabile aleatoria e si indichi con D il suo dominio (insieme di valori che X può assumere). Diremo che X è una variabile aleatoria discreta se D è un insieme discreto, ovvero contiene al più un infinità numerabile di valori. Definizione Si definisce funzione di distribuzione di probabilità (denotata con p( )) la funzione che associa ad ogni x appartenete al dominio di X la corrispondente probabilità ovvero: p(x) = P(X = x). Si dimostra che ogni funzione di distribuzione di probabilità soddisfa le seguenti proprietà: p(x) 0 x D; p(x) = 1 x D 7 / 88

Esempio: si consideri l esperimento casuale consistente nel lancio di tre monete equilibrate. Se indichiamo con X il numero di teste che si ottengono, allora X è una variabile aleatoria discreta che può assumere i valori 0,1,2 e 3 (dominio della variabile aleatoria). La funzione di distribuzione di probabilità è la seguente: X p(x) 1 0 8 3 1 8 3 2 8 1 3 8 Tot. 1 8 / 88

Funzione di distribuzione di probabilità p(x) 0.0 0.2 0.4 0.6 0.8 1.0 0 1 2 3 X 9 / 88

In alcune situazioni, oggetto di interessa non è il calcolo della probabilità che la variabile aleatoria X assuma uno specifico valore x, bensì la probabilità che X assuma un valore minore o uguale ad x. In altri termini siamo interessati al calcolo di P(X x) (probabilità cumulata). Definizione Sia X una variabile aleatoria discreta. La funzione che associa ad ogni x R la corrispondente probabilità cumulata P(X x) viene definita funzione di ripartizione ed indicata con F (x) = P(X x). 10 / 88

Esempio: si consideri l esperimento casuale consistente nel lancio di tre monete equilibrate. Se indichiamo con X il numero di teste che si ottengono, allora X è una variabile aleatoria che può assumere i valori 0,1,2 e 3 (dominio della variabile aleatoria). La funzione di distribuzione e di ripartizione della variabile aleatoria X sono le seguenti: X p(x) F (x) 1 0 8 3 1 8 3 2 8 1 3 8 1 8 4 8 7 8 8 8 11 / 88

Funzione di ripartizione F(x) 0.0 0.2 0.4 0.6 0.8 1.0 0 1 2 3 X 12 / 88

Proprietà della funzione di ripartizione Si dimostra che qualsiasi funzione di ripartizione soddisfa le seguenti proprietà i. F (x) è una funzione non decrescente, ovvero se x 1 < x 2 allora F (x 1 ) F (x 2 ) ii. lim x + F (x) = 1 iii. lim x F (x) = 0 vi. La funzione di ripartizione è continua a destra, ovvero lim F (x) = F (x 0 ). x x + 0 13 / 88

Momenti teorici Analogamente a quanto fatto per le distribuzioni dei frequenza, anche per le distribuzioni di probabilità è possibile definire degli indici di sintesi. Definizione Sia X una variabile aleatoria discreta con dominio D. Si definisce valore atteso di X, la quantità E(X ) = µ = x D x p(x) Osservazione: il valore atteso può essere visto come una media aritmetica ponderata con pesi dati dalla funzione di distribuzione di probabilità. Esempio X p(x) 1 0 8 3 1 8 3 2 8 1 3 8 E(X ) = µ = 0 1 8 +1 3 8 +2 3 8 +3 1 8 = 1.5 14 / 88

Esercizio. Si consideri l esperimento casuale lancio di un dado e si indichi con X la variabile aleatoria che associa ad ogni faccia il valore riportato. Calcolare il valore atteso. Soluzione. In questo caso il dominio di X è definito come D = {1, 2, 3, 4, 5, 6} e la funzione di distribuzione di probabilità è definita come p(x) = 1/6, ovvero probabilità costante per ogni possibile valore di X. Si ricava che E(X ) = µ = 1 1 6 + 2 1 6 + 3 1 6 + 4 1 6 + 5 1 6 + 6 1 6 = (1 + 2 + 3 + 4 + 5 + 6) 1 6 = 3.5 Note: gli esempi precedenti mostrano una proprietà importante del valore atteso: in generale µ non è un elemento del dominio di X. 15 / 88

Il valore atteso costituisce un caso particolare di quelli che sono noti in letteratura come momenti di una variabile aleatoria. Definizione Sia X una variabile aleatoria discreta con dominio D. Si definisce momento teorico di ordine r ed origine m la quantità µ m,r = E[(X m) r ] = x D(x m) r p(x). Quando m = E(X ) = µ, allora parleremo di momento teorico centrato di ordine r e semplificheremo la notazione con la seguente µ r = E[(X µ) r ] = x D(x µ) r p(x). Quando m = 0, allora parleremo di momento teorico di ordine r e semplificheremo la notazione con la seguente µ r = E(X r ) = x D x r p(x). 16 / 88

Dalla definizione si ricava che, se m = 0 ed r = 1 allora µ 1 = E[(X 0) 1 ] = x D x p(x) = E(X ) = µ, ovvero il valore atteso di X può essere definito come il momento teorico di ordine 1. Fra i vari momenti centrati di una variabile aleatoria, quello che utilizzeremo per la costruzione di un indice mediante il quale misurare la variabilità di X è il momento teorico centrale di ordine 2, chiamato anche varianza e denotato con il simbolo σ 2 : µ 2 = σ 2 = E[(X µ) 2 ] = x D(x µ) 2 p(x). La radice quadrata della varianza è chiamata deviazione standard ed è denotata con il simbolo σ. Note: in alcuni testi la varianza è denotata con i simboli V (X ) o var(x ) 17 / 88

I momenti teorici centrati di ordine 3 e 4, ovvero µ 3 = x D(x µ) 3 p(x) µ 4 = x D(x µ) 4 p(x) svolgono un ruolo centrale per l analisi della forma della distribuzione di probabilità. L analisi della forma di una distribuzione di probabilità si sullo studio di due aspetti: (a) asimmetria; (b) curtosi. Di seguito introdurremo la definizione di distribuzione di probabilità asimmetrica e il corrispondente indice. La curiosi verrà definita e studiata dopo la definizione della variabile aleatoria di Gauss. 18 / 88

Definizione Sia X una variabile aleatoria discreta con dominio D X = {x 1, x 2,..., x n }. Diremo che la funzione di distribuzione di probabilità è simmetrica quando p(x 1 ) = p(x n ) p(x 2 ) = p(x n 1 ) p(x 3 ) = p(x n 2 ). Diremo che la funzione di distribuzione di probabilità è asimmetrica positiva quando i valori più elevati di p(x) corrispondono ai valori più bassi della variabile aleatoria X. Diremo che la funzione di distribuzione di probabilità è asimmetrica negativa quando i valori più elevati di p(x) corrispondono ai valori più alti della variabile aleatoria X. 19 / 88

0 2 4 6 8 10 simmetrica p(x) 0.00 0.05 0.10 0.15 0.20 0.25 X asimmetria positiva asimmetria negativa p(x) 0.00 0.05 0.10 0.15 0.20 0.25 p(x) 0.00 0.05 0.10 0.15 0.20 0.25 0 2 4 6 8 10 X 0 2 4 6 8 10 X 20 / 88

Il grado di asimmetria può essere misurato attraverso l indice di Fisher β 1 = µ 3 µ 3/2 2 il quale si fonda sulla proprietà teorica che una generica variabile aleatoria con funzione di distribuzione di probabilità simmetrica ha tutti i momenti teorici centrati di ordine dispari nulli. L indice di asimmetria di Fisher fornisce informazioni sull asimmetria nel seguente modo: i. se β 1 = 0 allora la distribuzione di probabilità è perfettamente simmetrica; ii. se β 1 > 0 allora la distribuzione di probabilità è asimmetrica positiva e il grado di asimmetria positiva cresce al crescere di β 1 ; iii. se β 1 < 0 allora la distribuzione di probabilità è asimmetrica negativa e il grado di asimmetria negativa cresce al ridursi di β 1 ;, 20 / 88

Famiglie parametriche di variabili aleatorie discrete Variabile aleatoria binomiale All interno della classe delle variabili casuali discrete, la variabile casuale binomiale è fra quelle che più frequentemente si incontrano nella statistica applicata. Questa variabile casuale trae origine da quello che è noto in letteratura come esperimento o prova bernoulliana, così chiamata in onore del matematico svizzero James Bernoulli (1654-1705). Si definisce prova Bernoulliana, un esperimento casuale i cui possibili esiti sono costituiti da due eventi mutuamente esclusivi, ad esempio testa o croce, sano o malato, maschio o femmina. 21 / 88

Si consideri una sequenza di prove bernoulliane che soddisfa le seguenti condizioni: i. ogni prova può avere come possibile esito solo uno dei due eventi mutuamente esclusivi, uno dei quali verrà (arbitrariamente) definito successo e l altro insuccesso; ii. le prove sono indipendenti, ovvero il risultato di una prova non modifica il risultato di una qualsiasi altra prova; iii. la probabilità dell evento successo, denotata con π, rimane costante di prova in prova (conseguenza dell indipendenza delle prove). 22 / 88

Usualmente la variabile Binomiale viene legata a quello che è noto come esperimento dell urna. Supponiamo di disporre di un urna costituita da palline di due possibili colori, bianco e nero rispettivamente. Supponiamo che vi siano B palline bianche e N palline nere. Indichiamo con T = B + N il totale di palline contenute nell urna. Supponiamo di estrarre una sequenza con reinserimento di n palline dall urna. L esperimento che abbiamo descritto, costituisce una sequenza di n prove di Bernoulli dato che: i. ogni prova può avere come possibile esito solo uno dei due eventi, uscita pallina bianca (successo) o uscita pallina nera (insuccesso); ii. le prove sono stocasticamente indipendenti dato che la probabilità di successo, π = B/T (definizione classica di probabilità), non varia al variare delle prove (conseguenza del reinserimento della pallina estratta); 23 / 88

La variabile aleatoria Binomiale fa riferimento al numero di volte che si ripete l evento successo nelle n prove di Bernoulli (prove che soddisfano le condizioni descritte in precedenza). Esempio Al fine di semplificare l introduzione della funzione di distribuzione di probabilità della variabile aleatoria Binomiale, consideriamo l esperimento casuale consistente nell estrazione con reinserimento di 3 palline da un urna contente palline di due possibili colori (bianco o nero). Supponiamo di essere interessati al calcolo della probabilità di estrarre 2 palline bianche (evento successo) su 3 palline estratte. Per poter calcolare la probabilità richiesta, è necessario calcolare inizialmente tutte le possibili sequenze di estrazioni di 3 palline caratterizzate dal fatto che esattamente 2 palline sono bianche, ovvero {B, B, N}; {B, N, B}; {N, B, B}. 24 / 88

In altri termini, se indichiamo con X la variabile aleatoria che conta il numero di volte che si ripete l evento successo nelle n prove di Bernoulli, si ricava che siamo interessati al calcolo della probabilità che P(X = 2) = P({B, B, N} {B, N, B} {N, B, B}) La precedente uguaglianza deriva dal modo in cui è stata definita la probabilità di una generica variabile aleatoria. Notando che i tre eventi {B, B, N}, {B, N, B} e {N, B, B} sono mutuamente esclusivi, dal teorema delle probabilità totali si ricava che P(X = 2) = P({B, B, N} {B, N, B} {N, B, B}) = P({B, B, N}) + P({B, N, B}) + P({N, B, B}), Il risultato precedente mostra che per calcolare la probabilità richiesta è necessario calcolare la probabilità delle tre sequence caratterizzate dal fatto che vi sono due possibili eventi successi. 25 / 88

Consideriamo la prima sequenza, ovvero {B, B, N}, e notiamo che questa sequenza è equivalente al prodotto logico di tre singoli eventi aleatori: {B, B, N} = {pallina bianca alla 1 estrazione} {pallina bianca alla 2 estrazione} {pallina nera alla 3 estrazione}. Dato che i tre eventi definiti in precedenza sono stocasticamente indipendenti, per il teorema delle probabilità si ricava che P({B, B, N}) = P({pallina bianca alla 1 estrazione}) P({pallina bianca alla 2 estrazione}) P({pallina nera alla 3 estrazione}) = π π (1 π) = π 2 (1 π) 26 / 88

Consideriamo la seconda sequenza, ovvero {B, N, B}, e notiamo che questa sequenza è equivalente al prodotto logico di tre singoli eventi aleatori: {B, N, B} = {pallina bianca alla 1 estrazione} {pallina nera alla 2 estrazione} {pallina bianca alla 3 estrazione}. Dato che i tre eventi definiti in precedenza sono stocasticamente indipendenti, per il teorema delle probabilità si ricava che P({B, N, B}) = P({pallina bianca alla 1 estrazione}) P({pallina nera alla 2 estrazione}) P({pallina bianca alla 3 estrazione}) = π (1 π) π = π 2 (1 π) 27 / 88

Consideriamo la terza sequenza, ovvero {B, N, B}, e notiamo che questa sequenza è equivalente al prodotto logico di tre singoli eventi aleatori: {N, B, B} = {pallina nera alla 1 estrazione} {pallina bianca alla 2 estrazione} {pallina bianca alla 3 estrazione}. Dato che i tre eventi definiti in precedenza sono stocasticamente indipendenti, per il teorema delle probabilità si ricava che P({N, N, B}) = P({pallina nera alla 1 estrazione}) P({pallina bianca alla 2 estrazione}) P({pallina bianca alla 3 estrazione}) = π (1 π) π = π 2 (1 π) 28 / 88

In conclusione, la probabilità richiesta può essere calcolata nel seguente modo: P(X = 2) = P({B, B, N} {B, N, B} {N, B, B}) = P({B, B, N}) + P({B, N, B}) + P({N, B, B}) = π 2 (1 π) + π 2 (1 π) + π 2 (1 π) = 3 π 2 (1 π) In generale, se indichiamo con x il numero di volte che si presenta l evento successo nelle n prove di Bernoulli (n x è il numero di volte che si verifica l evento insuccesso) e con k il numero di sequenze di lunghezza n caratterizzate dal fatto che l evento successo è presente esattamente x volte, possiamo scrivere che P(X = x) = k π x (1 π) n x. 29 / 88

Quando il numero di prove di Bernoulli è elevato, la quantità k non può essere calcolata tramite una semplice enumerazione di tutte le possibili sequenze di interesse. Quello che occorre è un metodo semplice per il calcolo del numero di sequenze di lunghezza n in cui si verificano esattamente x successi. La risposta a questo problema è ottenuta attraverso il coefficiente binomiale ( ) n x = n! x!(n x)! dove x!, letto x fattoriale, è il prodotto dei primi x numeri interi, ovvero x! = x(x 1)(x 2)... 1. (1) 30 / 88

In conclusione, possiamo calcolare la probabilità che su n prove di Bernoulli vi siano esattamente x successi mediante la formula ( ) n P(X = x) = π x (1 π) n x (2) x dove π è la probabilità di ottenere un successo in una prova bernoulliana. La variabile casuale X, numero di successi in n prove, prende il nome di variabile binomiale e la (2) prende il nome di funzione di distribuzione di probabilità della variabile casuale binomiale. La variabile binomiale assumerà tutti i valori compresi nell insieme {0, 1,..., n}. 31 / 88

Si dimostra facilmente che la funzione (2) è un modello probabilistico, ovvero ( n ) x π x (1 π) n x > 0, in quanto prodotto di tre quantità strettamente positive; n x=0 P(X = x) = n x=0 ( n x) π x (1 π) n x = 1. La dimostrazione della condizione definita nel secondo punto è ottenuta attraverso quello che è noto come sviluppo del binomio di Newton, infatti n x=0 n! x!(n x)! πx (1 π) n x = π 0 (1 π) n 0 + nπ 1 (1 π) n 1 +... n! + x!(n x)! πx (1 π) n x +... +nπ n 1 (1 π) 1 + π n (1 π) 0 = = [π + (1 π)] n = 1. 32 / 88

Si dimostra che i momenti teorici di una variabile aleatoria binomiale sono: µ 0,1 = E(X ) = nπ; µ 2 = Var(X ) = nπ(1 π) = nπ(1 π); µ 3 = nπ(1 π)(1 2π). Utilizzando la definizione dell indice di asimmetria di Fisher si ricava che β 1 = µ 3 nπ(1 π)(1 2π) (1 2π) = = µ 3/2 [nπ(1 pi)] 3/2 [nπ(1 π)]. 1/2 2 Dall espressione precedente si ricava che la funzione di distribuzione è simmetrica (β 1 = 0) quando i. 1 2π = 0 ovvero π = 1/2 ii. quando il numero di prove n tende ad infinito l indice β 1 tende a 0. Si dimostra che quando n tende ad infinito la distribuzione binomiale tende alla distribuzione normale. 33 / 88

La distribuzione binomiale è indicizzata da due parametri, ovvero n e p. Vengono definiti parametri dato che consentono di specificare completamente la distribuzione di probabilità. P(X=x) 0.00 0.05 0.10 0.15 0.20 0.25 0.30 n = 10 p = 0.2 P(X=x) 0.00 0.02 0.04 0.06 0.08 0.10 n = 100 p = 0.2 0 2 4 6 8 10 0 10 20 30 40 x x P(X=x) 0.00 0.05 0.10 0.15 0.20 0.25 n = 10 p = 0.5 P(X=x) 0.00 0.05 0.10 0.15 0.20 0.25 n = 10 p = 0.7 0 2 4 6 8 10 0 2 4 6 8 10 x x 34 / 88

Caratteristiche della variabile aleatoria binomiale: X = Numero di successi su n prove di Bernoulli stocasticamente indipendenti Dominio: D = {0, 1,..., n} parametri: n = numero di prove (n {1, 2,...}) π = probabilità di successo (π [0, 1]) Simbologia: X Bin(n, π) funzione di distribuzione di probabilità: P(X = x) = ( n) πx (1 π) x n x funzione di ripartizione: F (x i ) = x i x=0 P(X = x) = x i ( n x=0 x valore atteso: E(X ) = n π varianza: Var(X ) = nπ(1 π) indice di asimmetria di Fisher: β 1 = (1 2π) [nπ(1 π)] 1/2 ) πx (1 π) n x 35 / 88

Esercizio Sia X una variabile aleatoria binomiale di parametri n = 6 e π = 0.4. Calcolare la distribuzione di probabilità e i valori della funzione di ripartizione. Soluzione Sulla base dei valore dei parametri definiti in precedenza si ricava che la funzione di distribuzione di probabilità della variabile aleatoria binomiale in esame può essere scritta nel seguente modo: ( 6 P(X = x) = 0.4 x) x 0.6 6 x Osservando che ( 6 0) ( 6 1) ( 6 2) ( 6 3) ( 6 = 1 = 6) = = = 6! 5! 1! = 6 5! ( 6 ) 5! 1! = 6 = 5 6! 4! 2! = 6 5 4! ( 6 = 15 = 4! 2! 4) 6! 3! 3! = 6 5 4 3! = 6 5 4 = 20 3! 3! 2 3 36 / 88

Sulla base dei risultati precedenti si ricava x p(x) F(x) 0 0, 6 6 0, 047 0.047 1 6 0, 4 1 0, 6 5 0.187 0.234 2 15 0, 4 2 0, 6 4 0.311 0.545 3 20 0, 4 3 0, 6 3 0.276 0.821 4 15 0, 4 4 0, 6 2 0.138 0.959 5 6 0, 4 5 0, 6 1 0.037 0.996 6 1 P(X 5) = 0, 004 1 37 / 88

Esercizio Si considerino 10 dipendenti estratti a caso e con reinserimento tra quelli che lavorano in una data azienda. Si indichi con X il numero di uomini presenti nel campione. Assumendo che il numero di uomini presenti in azienda è pari al 40% del totale dei dipendenti, determinare: (a) la probabilità che 3 dei dipendenti, tra i 10 considerati, siano uomini; (b) la probabilità che il numero di uomini estratti sia inferiore o uguale a 3, tra i 10 dipendenti scelti a caso; (c) la probabilità che vi siano almeno 5 uomini, tra i 10 dipendenti scelti a caso; (d) la probabilità che tra i 10 dipendenti estratti vi sia un numero di uomini compreso tra 3 e 5. 38 / 88

Soluzione Sulla base della descrizione precedente di ricava che la variabile aleatoria X si distribuisce come una binomiale con parametri n = 10 e π = 0.4 quindi ( 10 ) P(X = x) = 0.4 x 0.6 10 x. x (a) P(X = 3) = ( 10) 3 0.43 0.6 7 = 10 9 8 7! 0.4 3! 7! 3 0, 6 7 0.215 (b) P(X 3) = F (3) = P(X = 0) + P(X = 1) + P(X = 2) + P(X = 3) quindi ( 10 ) P(X = 0) = 0.4 0 0.6 10 = 0.6 10 0.006 0 P(X = 1) = P(X = 2) = P(X = 3) = ( 10 1 ) 0.4 1 0.6 9 = 10 0.4 0.6 9 0.040 ( 10 ) 0.4 2 0.6 8 10 9 8! = 0.4 2 0.6 8 0.121 2 2! 8! ( 10 ) 0.4 3 0.6 7 0.215 3 da cui si ricava che P(X 3) = F (3) 0.006 + 0.040 + 0.121 + 0.215 = 0.382. 39 / 88

(c) utilizzando la probabilità degli eventi complementari, la probabilità richiesta può essere espressa come P(X 5) = 1 P(X 4) = 1 F (4). Utilizzando i risultati precedenti ed osservando che ( 10 ) P(X = 4) = 0.4 4 0.6 10 10 9 8 7 6! = 0.4 4 0.6 6 0.251 4 4! 6! si ricava la probabilità richiesta ovvero P(X 5) = 1 F (4) 1 (0, 006 + 0, 040 + 0, 121 + 0, 215 + 0, 251) = 0, 373. (d) utilizzando il teorema delle probabilità totali per eventi incompatibili si ricava che la probabilità richiesta può essere espressa nel seguente modo: P(3 X 5) = P(X = 3) + P(X = 4) + P(X = 5). Utilizzando i risultati precedenti e calcolando ( 10 ) P(X = 5) = 0.4 5 0.6 5 10 9 8 7 6 5! = 0.4 5 0.6 5 0.201 5 5! 5! si ricava P(3 X 5) 0.215 + 0.251 + 0.201 = 0.667 40 / 88

Esercizio La roulette è un gioco d azzardo di origine italiana introdotto in Francia nel XVIII secolo consistente in un disco diviso in 37 settori numerati da 0 a 36. Supponendo che il croupier lanci 10 palline consecutivamente, calcolare: i. la probabilità che 3 palline cadano in un settore riportante un valore compreso tra 0 e 10, estremi compresi; ii. la probabilità che al più 2 palline cadano in un settore riportante un valore compreso tra 10 e 20, estremi compresi; 41 / 88

Soluzione Sulla base della descrizione precedente di ricava che la variabile aleatoria X si distribuisce come una binomiale con parametro n = 10, ovvero il numero di lanci. i) Dalla descrizione dell esperimento casuale si ricava che il parametro π della distribuzione di probabilità della variabile aleatoria binomiale è uguale alla probabilità che una pallina cadano in un settore riportante un valore compreso tra 0 e 10, estremi compresi, quindi, utilizzando la definizione classica di probabilità, si ricava da cui si ricava che π = 11 37 0.30, ( 10 ) P(X = x) = 0.3 x 0.7 10 x. x Sulla base del risultato precedente si ricava che ( 10 ) P(X = 3) = 0.3 3 0.7 7 = 10! 3 3!7! 0.33 0.7 7 = 10 9 8 7! 3!7! 0.3 3 0.7 7 = 120 0.3 3 0.7 7 = 0.27 42 / 88

ii) Dalla descrizione dell esperimento casuale si ricava che siamo interessati al calcolo della seguente probabilità P(X 2) = P(X = 0) + P(X = 1) + P(X = 2). In questo caso il parametro π è uguale alla probabilità che una pallina cada in un settore riportante un valore compreso tra 10 e 20, estremi compresi, quindi, mediante la definizione classica di probabilità si ricava π = 11 37 0.30, da cui si ricava che ( 10 ) P(X = 0) = 0.3 0 0.7 10 = 0.7 10 0.03; 0 P(X = 1) = P(X = 2) = Sulla base dei risultati precedenti si ricava che ( 10 1 ) 0.3 1 0.7 9 = 10 0.3 1 0.7 9 0.12; ( 10 2 ) 0.3 2 0.7 8 = 45 0.3 2 0.7 8 0.23; P(X 2) = 0.03 + 0.12 + 0.27 = 0.38. 43 / 88

Esercizio Si consideri un mazzo di 52 carte e l esperimento casuale consistente nell estrarre con reinserimento 10 carte. Sulla base della descrizione dell esperimento il candidato calcoli la probabilità che: (a) delle 10 carte estratte 2 siano di cuori; (b) delle 10 carte estratte almeno 2 siano di cuori; (c) delle 10 carte estratte al più 2 siano di cuori. 44 / 88

Soluzione Sulla base della descrizione precedente di ricava che la variabile aleatoria X si distribuisce come una binomiale con parametri n = 10, ovvero il numero di carte estratte con reinserimento, e π = 1/4, ovvero la probabilità di estrarre una carta di cuori. Quindi ( 10 ) P(X = x) = 0.25 x 0.75 10 x. x (a) (b) P(X = 2) = = ( 10 ) 0.25 2 0.75 8 = 10! 2 2!8! 0.252 0.75 8 10 9 8! 0.25 2 0.75 8 = 45 0.25 2 0.75 8 = 0.28 2!8! P(X 2) = 1 P(X 1) = 1 [P(X = 0) + P(X = 1)] 45 / 88

Dato che P(X = 0) = ( 10 0 ) 0.25 0 0.75 10 = 0.75 10 0.06 P(X = 1) = ( 10 ) 0.25 1 0.75 9 10 9! = 1 1! 9! 0.251 0.75 9 = 10 0.25 1 0.75 9 0.19 si ricava che P(X 2) 1 P(X 1) = 1 (0.06 + 0.19) = 0.75. (c) P(X 2) = P(X = 0) + P(X = 1) + P(X = 2) 0.06 + 0.19 + 0.28 = 0.53 46 / 88

Esercizio Si consideri una slot-machine costituita da cinque rulli i quali forniscono risultati stocasticamente indipendenti tra loro. Ogni rullo è costituito da dieci settori raffiguranti gli interi da uno a dieci. Utilizzando un volta soltanto la slot-machine, il candidato calcoli la probabilità che: i. la slot-machine visualizzi tre volte un valore minore o uguale a 2; ii. la slot-machine visualizzi due volte un valore compreso tra sei ed otto, estremi compresi. 47 / 88

Variabile aleatoria di Poisson La variabile aleatoria binomiale è legata ad una seconda variabile aleatoria discreta nota come variabile aleatoria di Poisson. Sia X una variabile aleatori binomiale di parametri n e π. Supponiamo che il parametro n tenda a + ed il parametro π tenda a 0 con la stessa velocità, ovvero il valore atteso E(X ) = n π = λ resta costante. Consideriamo la probabilità che P(X = x), ovvero P(X = x) = = = n! x!(n x)! πx (1 π) n x = n(n 1)... (n x + 1)(n x)! x!(n x)! n(n 1)... (n x + 1) λ x n x x! n! x!(n x)! λ x n x ( 1 λ n ( ) x ( λ 1 λ ) n x = n n ( 1 λ n ) n ( 1 λ n ) x = ) n ( 1 λ n ) x (3) 48 / 88

Passando al limite per n che tende ad infinito si ricava poiché lim n + n(n 1)... (n x + 1) λ x ( n x 1 λ ) n ( 1 λ ) x = λx e λ x! n n x! n(n 1)... (n x + 1) lim n + n x = 1 lim n + lim n + ( 1 λ n ) n = lim n + ( 1 λ n ) x = 1 Quindi, utilizzando la (3) si ricava ( ( 1 λ n ) n ) λ λ = e λ lim P(X = x) = λx e λ n + x! (4) 49 / 88

Una variabile aleatoria X è detta una variabile aleatoria di Poisson di parametro λ quando la funzione di distribuzione di probabilità assume la seguente forma funzionale p(x) = λx e λ. (5) x! Il dominio della variabile aleatoria di Poisson è costituito dai valori, D = 0, 1,... ed il parametro λ assume valori strettamente positivi, ovvero λ R +. La funzione (5) è una funzione di distribuzione di probabilità poiché i. p(x) è sempre positiva poiché è definita tramite prodotto e rapporto di quantità positive ii. + x=0 p(x) = 1 poiché + p(x) = + x=0 x=0 λ x e λ x! = e λ + x=0 λ x x! = e λ e λ = 1 50 / 88

Esempi di variabili aleatorie che possono essere descritte attraverso il modello probabilistico di Poisson sono: numero di errori di stampa in una pagina numero di persono ultracentenarie di una comunità numero di clienti che entrano in un ufficio in una giornata 51 / 88

Si dimostra che i momenti teorici di una variabile aleatoria di Poisson sono µ 0,1 = E(X ) = λ µ 2 = Var(X ) = λ µ 3 = λ Utilizzando la definizione dell indice di asimmetria di Fisher si ricava che β 1 = λ λ = 1 3/2 λ > 0 1/2 quindi la funzione di distribuzione di probabilità di una variabile aleatoria di Poisson è sempre asimmetrica positiva. 52 / 88

2 4 6 8 10 λ= 2 λ= 5 p(x) 0.00 0.05 0.10 0.15 0.20 0.25 p(x) 0.00 0.05 0.10 0.15 X 5 10 15 20 X λ= 50 p(x) 0.00 0.01 0.02 0.03 0.04 0.05 0 20 40 60 80 100 X 53 / 88

Caratteristiche della variabile aleatoria di Poisson: Dominio: D = 0, 1, 2,... parametro: λ R + simbologia: X P(λ) funzione di distribuzione di probabilità: p(x) = λx e λ x! funzione di ripartizione: F (x i ) = x i x=0 p(x) = x i x=0 λx e λ x! valore atteso: E(X ) = λ varianza: Var(X ) = λ indice di asimmetria di Fisher: β 1 = 1 λ 1/2 > 0 53 / 88

Esercizio Consideriamo un esperimento che consiste nel contare il numero di particelle α emesse da un grammo di materiale radiattivo in un secondo di osservazione. Noto che in media vengono emesse 3.2 particelle α, calcolare la probabilità che: (a) non siano emesse più di 2 particelle α; (b) che vengano emesse più di 2 particelle α; (c) che vengano emesse da 2 a 5 particelle α. Soluzione (a) Poiché un grammo di materiale radiattivo è composto da un elevato numero n di atomi che disintegrandosi emettono particelle α in un secondo di osservazione, si deduce che il modello di Poisson può essere utilizzato per il calcolo della probabilità richiesta. Dalla descrizione dell esperimento si deduce che λ = 3.2. Quindi la probabilità richiesta sarà P(X 2) = F (2) = P(X = 0) + P(X = 1) + P(X = 2) = + 3.21 e 3.2 1! = e 3.2 + 3.2e 3.2 + 3.22 e 3.2 = 3.20 e 3.2 0! + 3.22 e 3.2 2! 2 = 0.3799 54 / 88

(b) per il calcolo della probabilità richiesta, ovvero P(X > 2), si utilizza il teorema per il calcolo delle probabilità degli eventi negati P(X > 2) = 1 P(x 2) 1 0.3799 = 0.6201 (c) utilizzando il teorema della probabilità totale per eventi incompatibili si ricava P(2 X 5) = P(X = 2) + P(X = 3) + P(X = 4) + P(X = 5). Poiché si ricava P(X = 2) = 3.22 e 3.2 2! 0.209 P(X = 3) = 3.23 e 3.2 3! 0.223 P(X = 4) = 3.24 e 3.2 4! 0.178 P(X = 5) = 3.25 e 3.2 5! 0.114 P(2 X 5) 0.209 + 0.223 + 0.178 + 0.114 = 0.724 55 / 88

Famiglie parametriche di variabili aleatorie continue Variabili aleatorie continue Sia X una variabile aleatoria continua. Poiché X assume infiniti valori, si ricava che P(X = x) = 0. Per tale motivo, quando lavoriamo con variabili aleatorie continue, ha senso calcolare la seguente probabilità intervallare P(x 0 X < x 1 ). Il calcolo della probabilità richiesta si fonda sull utilizzo di quella che è nota in letteratura come funzione di densità di una variabile aleatoria continua X. Senza perdita di generalità, assumeremo che il dominio della variabile aleatoria continua X sia R. 56 / 88

Sia X una variabile aleatoria continua con funzione di densità f (x). Si dimostra che la funzione di densità e la probabilità intervallare P(x 0 X < x 1 ) sono legate dalla seguente relazione: P(x 0 X < x 1 ) = x1 x 0 f (x)dx. Note: Geometricamente, la probabilità P(x 0 X < x 1 ) è uguale all area sottesa alla funzione di densità definita nell intervallo di estremi x 0 e x 1, quindi, applicando le proprietà degli integrali si ricava Si dimostra che una qualsiasi funzione di densità soddisfa le seguenti proprietà: f (x) > 0, x R + f (x)dx = 1. 57 / 88

Dalle proprietà dell integrale si ricava che: P(x 0 X < x 1 ) = x1 x 0 f (x)dx = x1 x0 f (x)dx f (x)dx. ovvero, per calcolare la probabilità che X cada all interno dell intervallo di estremi x 0 e x 1, è necessario calcolare lil generico integrale x f (t)dt, il quale, ricordando la relazione che esiste con la probabilità di X, è uguale alla probabilità P(X x). Definizione Sia X una variable aleatoria con funzione di densità f (x). Si definisce funzione di ripartizione della variabile aleatoria X, e denotata con F (x), la seguente funzione integrale: F (x) = x f (t)dt = P(X x). 58 / 88

Momenti teorici Analogamente a quanto fatto per le variabile aleatorie discrete, per le variabili aleatorie continue è possibile definire opportune misure di sintesi mediante l utilizzo dei momenti. Definizione Sia X una variabile aleatoria continua con dominio D. teorico di ordine r ed origine m la quantità µ m,r = (x m) r f (x)dx. x D Si definisce momento Note: Anche in questo caso, il valore atteso di X, denotato con E(X ) o più semplicemente con µ, è ottenuto ponendo m = 0 ed r = 1, ovvero E(X ) = x f (x)dx. x D 59 / 88

Definizione Quando m = E(X ) = µ, allora parleremo di momento teorico centrato di ordine r e semplificheremo la notazione con la seguente µ r = E[(X µ) r ] = (x µ) r f (x)dx. Quando m = 0, allora parleremo di momento teorico di ordine r e semplificheremo la notazione con la seguente µ r = E(X r ) = x r f (x)dx. Note: Anche in questo caso, una misura della variabilità di X può essere ottenuta tramite il momento teorico centrale di ordine 2 (varianza): µ 2 = σ 2 = E[(X µ) 2 ] = (x µ) 2 f (x)dx. La radice quadrata della varianza è chiamata deviazione standard ed è denotata con il simbolo σ. x D x D x D 60 / 88

I momenti teorici centrati di ordine 3 e 4, ovvero µ 3 = (x µ) 3 f (x)dx x D µ 4 = (x µ) 4 f (x)dx x D svolgono un ruolo centrale per l analisi della forma della funzione di densità di probabilità, ovvero: (a) asimmetria; (b) curtosi. 61 / 88

Definizione Sia X una variabile aleatoria continua con dominio D. Diremo che la funzione di densità di probabilità è simmetrica con asse di simmetria il punto x 0 quando per ogni h > 0 si ottiene la relazione f (x 0 h) = f (x 0 + h). Note: anche in questo caso, il grado di asimmetria può essere misurato con l indice di Fisher β 1 = µ 3 /µ 3/2 2, in cui i momenti teorici sono definiti attraverso le formule precedenti. 62 / 88

Funzione di densità simmetrica f(x) 0.0 0.1 0.2 0.3 0.4-6 -4-2 x 0 2 4 6 X 63 / 88

Funzione di densità asimmetrica positiva f(x) 0.0 0.2 0.4 0.6 0 2 4 6 8 X 64 / 88

Funzione di densità asimmetrica negativa f(x) 0.0 0.2 0.4 0.6 0 2 4 6 8 X 65 / 88

Variabile aleatoria di Gauss Sia X una variabile aleatoria binomiale di parametri n e π. Si dimostra che se n tende and infinito e il parametro π assume qualsiasi valore all interno del proprio dominio, la distribuzione binomiale tende ad un modello teorico continuo, definito distribuzione normale o di Gauss. La funzione di densità di probabilità di una variabile aleatoria normale o gaussiana è definita nel seguente modo ( ) 1 f (x; µ, σ) = exp (x µ)2 2πσ 2 2σ 2, (6) dove x R, µ R e σ > 0. La (6) è una funzione di densità poiché si dimostra che sono soddisfatte le condizione: f (x; µ, σ) > 0 x R e + f (x; µ, σ)dx = 1 66 / 88

Caratteristiche della variabile aleatori normale: 1 Il parametro µ è il valore atteso della variabile casuale X e coincide con il punto di massimo della funzione di densità (6). 2 Il parametro σ 2 è la varianza della variabile casuale X. Il parametro σ 2 è legato ai punti di flesso x 1 = µ σ ed x 2 = µ + σ. 3 La media, la mediana e la moda coincidono. 4 La funzione di densità della variabile aleatoria gaussiana è di forma campanulare, simmetrica (β 1 = 0) con asse di simmetria definito dall equazione x = µ. 5 L aria sottesa alla curva è uguale ad 1. A causa della simmetria della funzione di densità (6), l area sottesa a sinistra e a destra dell asse di simmetria è uguale a 0.5. 67 / 88

µ σ µ µ + σ x 68 / 88

69 / 88

70 / 88

71 / 88

Data la natura continua della variabile casuale gaussiana, la probabilità che la variabile aleatoria X assuma il valore x è nulla, ovvero P(X = x) = 0. Quando si lavora con una variabile aleatoria continua, ha senso calcolare la probabilità che la variabile aleatoria X assuma un valore inferiore o uguale a x, ovvero F (x; µ, σ) = P(X x) = = x x f (t; µ, σ)dt = 1 exp ( 2πσ ) (t µ)2 2σ 2 dt (7) La funzione F (x; µ, σ), definita attraverso la funzione integrale (7) è la funzione di ripartizione di una variabile aleatoria normale. 72 / 88

Attraverso l interpretazione geometrica dell operazione di integrale, si ricava che la funzione di ripartizione F (x; µ, σ) fornisce il valore dell area sottesa alla funzione di densità (6) fino al generico punto x. 73 / 88

Poiché la funzione di ripartizione (7) dipende dai valori dei parametri µ e σ, ne consegue che in generale non è possibile ottenere soluzione in forma chiusa. Una soluzione al problema appena esposto è ottenuta attraverso l operazione di standardizzazione della variabile aleatoria gaussiana X. Definiamo la variabile aleatoria Z = X µ, (8) σ la cui funzione di densità di probabilità è data dalla seguente espressione f (z) = 1 ) exp ( z2. (9) 2π 2 La variabile aleatoria Z è una particolare variabile aleatoria gaussiana chiamata variabile casuale gaussiana standardizzata la quale è caratterizzata dai parametri µ = 0 e σ = 1. 74 / 88

I valori della funzione di ripartizione della variabile gaussiana standardizzata Z, ovvero z ) 1 F (z) = P(Z z) = exp ( t2 dt (10) 2π 2 sono stati calcolati e riportati in appositi prontuari chiamati prontuari delle probabilità integrali della curva normale standardizzata. La funzione di ripartizione di una variabile aleatoria normale standardizzata consente di calcolare la probabilità P(X x) poiché si dimostra che è vera la seguente relazione dove z = x µ σ. F (x; µ, σ) = P(X x) = x = P(Z z) = F (z) f (t; µ, σ)dt = z f (t)dt 75 / 88

Esempio. Si indichi con X il tempo di ossidazione di una lastra di acciaio. Sotto l ipotesi che X sia distribuita normalmente con media µ = 156 minuti e varianza uguale a 13, si calcoli: (a) la probabilità che X sia inferiore a 150; (b) la probabilità che X sia superiore a 160; (c) la probabilità che X sia compresa tra 150 e 160. Soluzione (a) Poiché la variabile aleatoria X si distribuisce secondo una normale di media µ = 156 e varianza σ 2 = 13 si ricava che σ = 3.61 e quindi P(X 150) = F (150; 156, 3.61). Utilizzando la variabile standardizzata Z = X 156 si ricava che 3.61 ( ) 150 156 F (150; 156, 3.61) = F = F ( 1.66) = 1 F (1.66) = 1 0.9515 = 0.0485 3.61 76 / 88

(b) P(X > 160) = 1 P(X 160) = 1 F (160; 156, 3.61) poiché ( ) 160 156 F (160; 156, 3.61) = F = F (1.11) = 0.8665 3.61 si ricava che P(X > 160) = 1 0.8665 = 0.1335 (c) utilizzando la definizione per il calcolo della probabilità intervallare si ricava che P(150 X 160) = F (160; 156, 3.61) F (150; 156, 3.61) = F (1.11) F ( 1.66) = 0.8665 0.0485 = 0.818 77 / 88

Esempio. Il caporeparto della sezione ricerca e sviluppo di una azienda produttrice di pneumatici è interessata a valutare la tenuta di strada sul bagnato di un nuovo pneumatico. Le prestazioni del nuovo prodotto vengono valutate mediante un indicatore, denotato con Q, il quale si assume si distribuisca come una normale con media 13.7 e varianza 3.6. Sapendo che un pneumatico è definito di ottima qualità quando Q è compreso tra 16 e 17, determinare la probabilità che il nuovo prodotto sia di qualità ottimale. Soluzione Sulla base della descrizione si ricava che σ = 1.9 e quindi P(16 Q 17) = F (17; 13.7, 1.9) F (16; 13.7, 1.9) ( ) ( ) 17 13.7 16 13.7 = F F 1.9 1.9 = F (1.74) F (1.21) = 0.9591 0.8869 = 0.0722 78 / 88

Esempio. Sia X una variabile aleatoria normale di parametri µ = 3 e σ 2 = 9. Determinare: P(2 < X < 5); P(X > 0) Soluzione: Dalla definizione di di funzione di ripartizione P(2 < X < 5) = F (5; 3, 3) F (2; 3, 3). Usando la variabile normale standardizzata si ricava che ( 5 3 F (5; 3, 3) = F 3 ( 2 3 F (2; 3, 3) = F 3 ) = F ) = F Z = X 3 3 ( 2 3 ( 1 3 ) = 0, 7486 ) = 1 F ( ) 1 = 1 0, 6293 = 0, 3707 3 79 / 88

da cui si ricava P(2 < X < 5) = 0, 7486 0, 3707 = 0, 3779 Consideriamo la probabilità P(X > 0). Utilizzando il teorema per gli eventi negati si ricava che P(X > 0) = ( ) 0 3 1 P(X 0) = 1 F (0; 3, 3) = 1 F 3 = 1 + F ( 1) = 1 (1 F (1)) = F (1) = 0, 8413 80 / 88

Esempio. Il caporeparto della sezione ricerca e sviluppo di una azienda produttrice di pneumatici è interessato a valutare la tenuta di strada sul bagnato di un nuovo pneumatico. Le prestazioni del nuovo prodotto vengono valutate mediante un indicatore, denotato con Q, il quale si assume si distribuisca come una variabile casuale normale con media 13,7 e varianza 3,6. Sapendo che uno pneumatico è definito di ottima qualità quando Q è compreso tra 16 e 17, determinare la probabilità che il nuovo prodotto sia di qualità ottimale. 81 / 88

Soluzione: Sulla base della descrizione dell esperimento casuale si ricava che Q si distribuisce come una variabile casuale normale con parametri µ = 13, 7 e σ 2 = 3, 6. Siamo quindi interessati al calcolo della seguente probabilità P(16 X 17) = F (17; 13, 7, 3, 6) F (16; 13, 7, 3, 6). Usando la variabile normale standardizzata Z = X 13, 7 3, 6 si ricava che F (17; 13, 7, ( ) 17 13, 7 3, 6) = F = F (1.74) 0, 96 3, 6 F (16; 13, 7, ( ) 16 13, 7 3, 6) = F = F (1.21) 0, 89 3, 6 Quindi P(16 X 17) 0, 96 0, 89 = 0, 07 82 / 88

Nelle applicazioni risultano di particolare interesse le probabilità che la variabile aleatoria gaussiana X assuma valori all interno di intervalli simmetrici rispetto alla media µ e di ampiezza pari ad un multiplo di σ, ovvero P(µ σ < X < µ + σ) = P( 1 < Z < 1) = 2F (1) 1 0.683 P(µ 2σ < X < µ + 2σ) = P( 2 < Z < 2) = 2F (2) 1 0.954 P(µ 3σ < X < µ + 3σ) = P( 3 < Z < 3) = 2F (3) 1 0.997. 83 / 88

La figura mostra la relazione tra area sottesa riferite alle probabilità definite in precedenza. 0.683 µ σ µ µ + σ x 0.954 0.997 µ σ µ µ + σ x µ σ µ µ + σ x 84 / 88

Sia X una variabile aleatoria normale. Si dimostra che µ 0,1 = µ 2 = µ 3 = µ 4 = + + + + xf (x; µ, σ) = µ (x µ) 2 f (x; µ, σ) = σ 2 (x µ) 3 f (x; µ, σ) = 0 (x µ) 4 f (x; µ, σ) = 3µ 2 2 = 3σ 4 Il momento centrale di ordine 4 svolge un ruolo centrale per la definizione di un particolare indici di disnormalità, ovvero l indice di curtosi. 85 / 88

La distribuzione normale viene usualmente definita mesocurtica. Altre distribuzioni simmetriche, più appuntite o più appiattite rispetto alla distribuzione normale vengono definite, rispettivamente leptocurtiche e platicurtiche. L indice di curtosi β 2 usualmente utilizzato è il seguente β 2 = µ 4 µ 2 2 Dai momenti teorici definiti in precedenza si ricava che β 2 = 3 per la distribuzione normale. Se la distribuzione in esame è leptocurtica allora β 2 > 3 mentre se la distribuzione è platicurtica allora β 2 < 3. 86 / 88

0.0 0.1 0.2 0.3 0.4 β 2 = 3 β 2 > 3 β 2 < 3 normale (mesocurtiva) leptocurtica platicurtica -4-2 0 2 4 X 87 / 88

Caratteristiche della variabile aleatori normale X = variabile aleatoria continua dominio: D X = R parametri: µ R σ R + funzione di densità: f (x; µ, σ) = 1 2πσ exp funzione di ripartizione: F (x; µ, σ) = x valore atteso: E(X ) = µ varianza: Var(X ) = σ 2 ) ( (x µ)2 2σ 2 1 2πσ exp, ) ( (t µ)2 2σ 2 dt µ 3 = 0 da cui si ricava che β 1 = µ 3 /µ 3/2 2 = 0 (simmetrica) µ 4 = 3µ 2 2 da cui si ricava che β 2 = µ 4 /µ 2 2 = 3 (mesocurtica) Standardizzazione Z = X µ σ 88 / 88