Lezioni da Matematica I Calcolo differenziale, Algebra lineare, Probabilità e statistica G. Aletti & G. Naldi & L. Pareschi

Documenti analoghi
Statistica Inferenziale

Modelli probabilistici variabili casuali

Matematica Applicata L-A Definizioni e teoremi

NOZIONI DI CALCOLO DELLE PROBABILITÀ

PROBABILITA. DEFINIZIONE: Ogni singolo risultato di un esperimento casuale si chiama evento elementare

Statistica ARGOMENTI. Calcolo combinatorio

Esercizi su variabili aleatorie discrete

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

Esercizi di Calcolo delle Probabilità

Per capire qual è l altezza media degli italiani è stato intervistato un campione di 1523 cittadini. La media campionaria dell altezza risulta essere:

1 Ingredienti base del CDP. 2 Denizioni classica e frequentista. 3 Denizione assiomatica. 4 La σ-algebra F. 5 Esiti equiprobabili

Sperimentazioni di Fisica I mod. A Statistica - Lezione 3

P ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea)

Alcune v.a. discrete notevoli

3.1 La probabilità: eventi e variabili casuali

IL CALCOLO DELLE PROBABILITA

Calcolo della probabilità

Calcolo delle Probabilità 2

Esercizi settimana 5. Esercizi applicati. Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 2 3

Variabili casuali multidimensionali

UNIVERSITÀ DEGLI STUDI ROMA TRE Corso di Laurea in Matematica ST410 - Statistica 1 - A.A. 2013/2014. I Esonero - 29 Ottobre Tot.

Indici di posizione e dispersione per distribuzioni di variabili aleatorie

Introduzione al Calcolo delle Probabilità

Metodi quantitativi per i mercati finanziari

Lezioni da Matematica I Calcolo differenziale, Algebra lineare, Probabilità e statistica G. Aletti & G. Naldi & L. Pareschi

Probabilità e Statistica per l Informatica Esercitazione 4

Modelli descrittivi, statistica e simulazione

Esame di AM2 & EAP (270/04) a.a. 2009/10

Le variabili casuali o aleatorie

1 Esercizi tutorato 1/4

Due variabili aleatorie X ed Y si dicono indipendenti se comunque dati due numeri reali a e b si ha. P {X = a, Y = b} = P {X = a}p {Y = b}

Introduzione alla probabilità

Variabili aleatorie. Variabili aleatorie e variabili statistiche

Il valore atteso di una v.a. (discreta)

Teoria della probabilità

ESERCIZIO 1 Lanciamo tre volte una moneta regolare e consideriamo equiprobabili i possibili

Lezione 2. La probabilità oggettiva : definizione classica e frequentistica e loro problemi

PROBABILITÀ SCHEDA N. 5 SOMMA E DIFFERENZA DI DUE VARIABILI ALEATORIE DISCRETE

SOLUZIONI DEL 1 0 TEST DI PREPARAZIONE ALLA 1 a PROVA INTERMEDIA

Il Corso di Fisica per Scienze Biologiche

PROBABILITA. Sono esempi di fenomeni la cui realizzazione non è certa a priori e vengono per questo detti eventi aleatori (dal latino alea, dado)

ESERCIZI HLAFO ALFIE MIMUN

1 Eventi. Operazioni tra eventi. Insiemi ed eventi. Insieme dei casi elementari. Definizione di probabilità.

STATISTICA: esercizi svolti sulle VARIABILI CASUALI

Capitolo 5. Variabili casuali discrete

Lezione n. 1 (a cura di Irene Tibidò)

Calcolo delle Probabilità Soluzioni 1. Spazio campionario ed eventi

STATISTICA 1 ESERCITAZIONE 8

Lezione 1: Università Mediterranea di Reggio Calabria Decisions Lab. Insiemi. La Probabilità Probabilità e Teoria degli Insiemi

Esercitazione del 31/01/2012 Istituzioni di Calcolo delle Probabilità

La probabilità composta

Esame di Teoria dei Segnali A Ing. Informatica, Elettronica e Telecomunicazioni. 12 luglio 2004

Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana /16

Variabili aleatorie: parte 1. 1 Definizione di variabile aleatoria e misurabilitá

Corso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza

Probabilità 1, laurea triennale in Matematica I prova scritta sessione estiva a.a. 2008/09

Statistica descrittiva I. La frequenza

LE VARIABILI CASUALI A 1, A 2.,..., A k., p 2.,..., p k. generati da una specifica prova sono necessari ed incompatibili:

MATEMATICA. a.a. 2014/15

11. Misure con segno.

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2006/07

P (F E) = P (E) P (F E) = = 25

Capitolo 6. Variabili casuali continue. 6.1 La densità di probabilità

È l insieme di tutti i possibili esiti di un esperimento aleatorio; si indica generalmente con il simbolo.

(2) se A A, allora A c A; (3) se {A n } A, allora +

e n n xn ( 1) n ( 1) n n + 1 2e n x n 3n [ln x]n 1 n + 1 2e n 1

PROBABILITÀ - SCHEDA N. 3 VARIABILI ALEATORIE CONTINUE E SIMULAZIONE

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n

UNIVERSITA DEGLI STUDI DI BRESCIA-FACOLTA DI MEDICINA E CHIRURGIA CORSO DI LAUREA IN INFERMIERISTICA SEDE DI DESENZANO dg STATISTICA MEDICA.

Cosa dobbiamo già conoscere?

La probabilità matematica

COPPIE DI VARIABILI ALEATORIE

La PROBABILITA è un numero che si associa ad un evento E ed esprime il grado di aspettativa circa il suo verificarsi.

Probabilità Condizionale - 1

Le derivate parziali

PROBABILITA. Distribuzione di probabilità

Esercitazioni del Corso di Probabilitá e Statistica Lezione 2: Eventi disgiunti, eventi indipendenti e probabilitá condizionata

PROBABILITÀ I. a.a. 2011/2012 DIARIO DELLE LEZIONI

Probabilità I Calcolo delle probabilità

VARIABILI CASUALI CONTINUE

1. Descrivere gli spazi campionari dei seguenti esperimenti casuali: 1. lancio di un dado 2. lancio di due dadi 3.

UNIVERSITÀ di ROMA TOR VERGATA

Ψ PSICOMETRIA. Corso di laurea triennale (classe 34) STATISTICA INFERENZIALE

) la sua densità discreta sarà della forma. p X (0) = 1 2, p X(1) = 1 2,

ANALISI 1 1 QUINTA LEZIONE

Indirizzo Giuridico Economico Aziendale

Variabili casuali ad una dimensione Testi degli esercizi. Variabili casuali ad una dimensione a.a. 2012/2013 1

Corso di Laurea in Ingegneria Informatica e Automatica (A-O) Università di Roma La Sapienza CALCOLO DELLE PROBABILITÀ E STATISTICA ESAME DEL 8/04/2016

1 4 Esempio 2. Si determini la distribuzione di probabilità della variabile casuale X = punteggio ottenuto lanciando un dado. Si ha immediatamente:

Vettori applicati. Capitolo Richiami teorici. Definizione 1.1 Un sistema di vettori applicati Σ è un insieme

Distribuzioni di Probabilità

Probabilità esempi. Aiutiamoci con una rappresentazione grafica:

L indagine campionaria Lezione 3

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria.

Distribuzioni di due variabili aleatorie

Calcolo delle Probabilità e Statistica, Ingegneria Civile e A&T e Informatica I prova finale a.a. 2016/17

Topologia, continuità, limiti in R n

STATISTICA A K (63 ore) Marco Riani

La verifica delle ipotesi

Capitolo 5 Variabili aleatorie discrete notevoli Insegnamento: Statistica Applicata Corso di Laurea in "Scienze e Tecnologie Alimentari"

Transcript:

Lezioni da Matematica I Calcolo differenziale, Algebra lineare, Probabilità e statistica G. Aletti & G. Naldi & L. Pareschi http://www.ateneonline.it/naldi matematica McGraw-Hill Capitolo 11, Probabilità 1

Fenomeni deterministici e fenomeni casuali. Sistema meccanico deterministico: moto rettilineo uniforme (Velocità costante: 10m/s) Dopo 1s: percorsi 10m, Dopo 2s: percorsi 20m,... Siamo quindi in grado di predire esattamente il suo moto. Sistema non deterministico (casuale): immaginiamo di lanciare un dado a sei facce senza mai averne visto uno, né averne sentito parlare. Al primo lancio: esce 4, Al secondo lancio: esce 2, Al terzo lancio: esce 1,... Il risultato non è prevedibile prima del lancio stesso. Un solo lancio non porta a ipotizzare il concetto di casualità; ma quando mi accorgo che il dado può dare diversi risultati; quando mi accorgo che questi risultati non sono prevedibili; Si tratta di un fenomeno la cui realizzazione è condizionata dal caso. La casualità quindi legata a fenomeni che ammettono pi di un esito. Un fenomeno casuale, o aleatorio, è un fenomeno osservabile ma non prevedibile. 2

Dado e casualità L unica certezza che abbiamo è che il punteggio che otteniamo in ogni lancio è compreso tra 1 e 6. Spazio ambiente S. L esperienza ci suggerisce che non c è nesso tra l esito di un lancio e i successivi. Indipendenza dei risultati di lanci consecutivi. L esperienza ci suggerisce che a ogni lancio ci aspettiamo che possa uscire indifferentemente una qualsiasi delle sei facce. Legge della casualità di ogni singolo lancio. Come vedremo questo non significa che non siamo in grado di dire nulla sull esito del lancio, ad esempio l esperienza quotidiana ci insegna che su dieci lanci consecutivi ottenere per dieci volte lo stesso punteggio sia un evento in qualche modo eccezionale, almeno psicologicamente. Scopo di questo capitolo è imparare a trattare analiticamente queste informazioni per ricavarne delle leggi che regolano la casualità. 3

Spazio Ambiente S Prendiamo un dado e indichiamo con S = {f 1, f 2, f 3, f 4, f 5, f 6 } l insieme costituito dalle sue 6 facce. S contiene tutti i possibili esiti del fenomeno ed è detto spazio ambiente. I suoi elementi saranno detti eventi elementari. In tutto abbiamo 2 6 = 64 sottoinsiemi di S tra cui unico sottoinsieme senza elementi {f 1 }, {f 4 } sottoinsiemi con un solo elemento {f 1, f 2 }, {f 3, f 5 } sottoinsiemi con due elementi.. Ogni possibile sottoinsieme di S sarà chiamato evento. 4

Indichiamo con A e B gli eventi Operazioni tra eventi A = {f 2, f 4, f 6 } (ho un risultato pari) B = {f 1, f 2, f 3 } (ho un risultato più piccolo di 4) Indicheremo con AB l intersezione e con A + B l unione. intersezione di due eventi: entrambi gli eventi accadano, AB = {f 2, f 4, f 6 } {f 1, f 2, f 3 } = {f 2 }, avere un risultato pari più piccolo di 4. unione di due eventi corrisponde al fatto che almeno uno degli eventi accada, A + B = {f 2, f 4, f 6 } {f 1, f 2, f 3 } = {f 1, f 2, f 3, f 4, f 6 }. Il complementare di un evento corrisponde al fatto che quell evento non accada, A = {f 2, f 4, f 6 } = {f 1, f 3, f 5 }, ossia se non esce un numero pari. 5

Insiemi mutuamente esclusivi (partizioni) Due insiemi A e B si dicono mutuamente esclusivi se hanno intersezione vuota, ossia se AB =. Più insiemi (A 1, A 2,..., A n ) sono mutuamente esclusivi se lo sono a due a due in tutti i modi possibili A i A j =, i j. Tre o più insiemi possono avere intersezione nulla ma non essere mutuamente esclusivi. Definizione di partizione dello spazio ambiente S. Chiamiamo partizione dello spazio ambiente S una classe di sottoinsiemi (eventi) mutuamente esclusivi la cui unione è l insieme S. Quindi, A 1,... A n,... sono una partizione di S se valgono le seguenti due proprietà Gli insiemi sono mutuamente esclusivi, i j, A i A j =. L unione degli insiemi è tutto S, ossia A 1 + A 2 +... + A n +... = S. 6

... la probabilità è il grado di fiducia in una scala tra 0 e 1 con cui un evento occorre. Per convenzione, un evento impossibile ha probabilità 0, mentre un evento certo ha probabilità 1... J.Bernoulli Assiomi della probabilità Sia S un insieme e A la classe di eventi. funzione P : A R + 0 La probabilità è una che associa a ogni evento A A un numerop (A). Questa funzione deve soddisfare le seguenti proprietà 1. per ogni evento A, P (A) 0; 2. P (S) = 1; 3. se AB =, allora P (A + B) = P (A) + P (B). Osservazione: la probabilità in uno spazio infinito non viene definita su ogni sottoinsieme di S, ma solamente su ogni evento della famiglia A. Quindi, ogni volta che scriveremo P (A), dovremo essere sicuri che A sia un evento di A. La terna (S, A, P ) è detta spazio di probabilità. 7

Conseguenze degli assiomi della probabilità Dagli assiomi della probabilità discendono le seguenti relazioni P ( ) = 0. Per ogni evento A, P (A) = 1 P (A). Per ogni coppia A e B di eventi, P (A) = P (AB) + P (AB). Se A è un evento e B 1, B 2,..., B n sono eventi che formano una partizione di S, P (A) = P (AB 1 ) + P (AB 2 ) + + P (AB n ). Per ogni coppia A e B di eventi, P (A + B) = P (A) + P (B) P (AB). Per ogni coppia A e B di eventi, P (A + B) P (A) + P (B). Se B A, allora P (B) P (A). Esempio: il modo più intuitivo di introdurre la probabilità di un evento si basa sul rapporto tra il numero dei casi favorevoli e il numero dei casi possibili. Si pensi alla situazione del lancio di una moneta. 8

Fenomeni casuali Sesso del nascituro. Luisa aspetta un bambino. Indichiamo con X il sesso del nascituro. X può assumere i valori M (maschio) e F (femmina) con probabilità 1/2. I risultati possibili sono 2. I valori che X può assumere sono M e F, quindi S = {x 1, x 2 }, con x 1 = M e x 2 = F. Ipotizzando che la probabilità che X assuma il valore M o F è 1/2, abbiamo p 1 = 1/2, p 2 = 1/2. Dado equilibrato. Prendiamo un dado non truccato e indichiamo con X il risultato di un lancio. I risultati possibili sono 6. I valori che il dado può assumere sono i numeri interi tra 1 e 6 e quindi S = {x 1, x 2, x 3, x 4, x 5, x 6 }, dove x 1 = 1, x 2 = 2, x 3 = 3, x 4 = 4, x 5 = 5, x 6 = 6. La probabilità che X assuma ogni valore intero tra 1 e 6 è 1/6 e quindi p 1 = 1/6, p 2 = 1/6, p 3 = 1/6, p 4 = 1/6, p 5 = 1/6, p 6 = 1/6. La probabilità quindi si distribuisce sui possibili risultati. 0.2 0.15 p n 0.1 0.05 0 0 1 2 3 4 5 6 Risultato del dado 9

Variabile aleatoria o casuale Definizione. Dato uno spazio di probabilità (S, A, P ) si chiama variabile aleatoria un applicazione X : S R tale che per ogni x R, l insieme {s S : X(s) x} sia in A. Perché questa definizione? Dire che X significa che possibile calcolare P ({s S : X(s) I}) una variabile aleatoria (infatti si può calcolare la probabilità solo sugli eventi). 10

V.a. (caso discreto) Sono quei fenomeni che hanno un numero finito o numerabile di risultati. I risultati di una variabile aleatoria discreta X formano l insieme dei possibili valori assunti R = {x 1, x 2,..., x N,...}. Gli eventi sono tutti gli insiemi del tipo A = {X I}, dove I è un qualunque sottoinsieme dell insieme dei possibili risultati R. Diremo che è assegnata la legge della variabile aleatoria discreta X se è assegnato l insieme dei possibili valori assunti R, e la probabilità con cui X assume ciascun valore p X x 1, p X x 1,..., p X x N,... dove p X x k = P ({X = x k }) è la probabilità che X assuma il valore x k. V.a. (caso continuo) Sono quei fenomeni che possono assumere tutti i possibili valori di un intervallo reale Nel caso continuo tutti i risultati x di un intervallo R = {x R : a < x < b} = (a, b) sono possibili (anche se non equiprobabili ). Sono ammessi intervalli del tipo R = (, b), R = (a, + ) oppure R = R. Gli eventi legati a una variabile aleatoria continua sono tutti gli insiemi del tipo A = {X I}, La numerosità dei possibili risultati ci costringe a parlare di densità di probabilità al posto di probabilità di ogni singolo risultato (che è nulla). 11

Densità di probabilità f X Diremo che è assegnata legge della variabile aleatoria continua X se è assegnato l insieme dei possibili valori assunti R e la funzione densità di probabilità f X con cui X assume ciascun valore f X : (a, b) R + {0}. La densità di probabilità f X è tale che P ({x 1 < X < x 2 }) = per ogni scelta (x 1, x 2 ) (a, b). x2 x 1 f X (x) dx La funzione f X non è unica. Una funzione che differisca da f X in un solo punto oppure in un insieme un insieme costituito da un infinità numerabile di punti è anch essa una densità per la v.a. X. definita su tutto R po- Nel seguito supporremmo sempre f X nendo f X (x) = 0 per x in R \ (a, b). 12

Probabilità e v.a. Dagli assiomi della probabilità è evidente che per ogni legge di una v.a. discreta, devono essere verificate le seguenti proprietà 1. p xi 0, i 1, corrispondente a P (A) 0, A A. 2. p xi = 1, corrispondente a P (S) = 1, essendo S l evento i=1 certo. In modo analogo nel caso di v.a. continua avremo 1. f X (x) 0, x R. 2. f X (x)dx = 1. Nota: se le condizioni NON sono verificate, si sta utilizzando qualcosa privo di senso o inesistente. 13

Come calcoliamo la probabilità di tutti gli eventi legati a una variabile aleatoria? Esempio: nell esempio del dado, con quale probabilità ci aspettiamo un numero strettamente maggiore di 4? Il risultato del lancio di un dado si indichi con X e quindi l evento ho un risultato più grande di 4 si scriverà A = {X > 4}. Nel nostro caso i valori da 5 a 12, ossia x 4 = 5, x 5 = 6,..., x 11 = 12, Chiameremo questi valori buoni. Gli eventi A 5 = {X = 5}, A 6 = {X = 6},..., A 12 = {X = 12} sono mutuamente esclusivi e quindi P (A 5 + A 6 + + A 12 ) = P (A 5 ) + P (A 6 ) + + P (A 12 ). Nel nostro caso P ({X > 4}) = P ({X = 5}) + P ({X = 6}) + + P ({X = 12}) = 5/6 0.8333 14

Probabilità e v.a. (regola generale) La probabilità dell evento {X I} si calcola: caso discreto, si sommano le probabilità p xk sono in I P ({X I}) = p xk. x k I dei valori x k che caso continuo, si calcola l integrale di f X su I P ({X I}) = f X (x) dx. Esempio: nella scelta uniforme di un numero tra 0 e 1, essendo f X (x) = 1 per ogni 0 < x < 1, la probabilità di estrarre un numero compreso tra 0.2 e 0.8 è quindi I P ({0.2 < X < 0.8}) = 0.8 0.2 dx = 0.8 0.2 = 0.6. 15

Valore atteso Definizione: il valore atteso di una v.a. X si indica con E(X) ed è il numero dato da se X è una v.a. discreta, e da E(X) = x 1 p x1 + x 2 p x2 + x 3 p x3 +... E(X) = x f X (x) dx se X è una v.a. continua con valori a < x < b. Perché la prima scrittura abbia senso occorre che o X assuma un numero finito di valori o che x i p xi < +. Perché la seconda scrittura abbia senso occorre che x f R X(x) < +. In generale, il valore atteso è una media pesata, per questo motivo il valore atteso viene anche detto media pesata della v.a. X. Osservazione: valore atteso non vuol dire che mi aspetto che esca quel valore: il valore atteso del risultato del dado è 3.5, ma nessun lancio di dado darà mai 3.5! 16

Teorema. (Valore atteso di g(x)) Data una funzione g, il valore atteso di Y = g(x), se definito, si può calcolare nel caso discreto, E(g(X)) = g(x 1 )p x1 + g(x 2 )p x2 + g(x 3 )p x3 +... nel caso continuo. E(g(X)) = g(x) f X (x) dx Proprietà elementari del valore atteso. Per tutte le v.a. X e per qualunque numero reale c E(X + c) = E(X) + c; E(cX) = ce(x). 17

Varianza Consideriamo la funzione g quadrato della distanza di un valore dal valore atteso di X, ossia g(x) = (x E(X)) 2. Il valore atteso di questa funzione si dice varianza della v.a. X. la varianza di una v.a. X si indica con Var(X) ed è data da Var(X) =E(g(X)) = E((X E(X)) 2 ). Osservazione: la varianza è una misura del grado di incertezza del fenomeno. Varianza nulla implica che non c è nessuna variazione nei risultati, ossia nessuna casualità. La varianza misura quanto è dispersa (distante) la distribuzione intorno al valore atteso (dal valore atteso). 18

Proposizione. la varianza si può anche calcolare come Var(X) = E(X 2 ) (E(X)) 2. Proprietà elementari della varianza Valgono le seguenti relazioni per tutte le v.a. X e per qualunque numero reale c Var(X + c) = Var(X); Var(cX) = c 2 Var(X). 19

Scommessa con suggerimento Un nostro amico lancia due dadi e ne tiene nascosto il risultato. Ci invita a scommettere sul numero che è uscito nel primo dado. Chiaramente, qualora scommettessimo su un qualunque risultato tra 1 e 6, avremmo 1/6 di probabilità di indovinare. Chiediamo un aiuto e ci viene detto che la somma dei due dadi è 4. Se scommettessimo sull 1, quale probabilità avremmo di indovinare? Vediamo di capire come questo problema può essere risolto e generalizzato: come si calcola la probabilità di un evento qualora sia noto che un altro evento è accaduto? I risultati sono le 36 possibili coppie di risultati tutti equiprobabili, p x1 = p x2 =... = p x36 = 1/36. Gli eventi che ci interessano sono A = {il primo dado è 1} = {X {x 1, x 7, x 13, x 19, x 25, x 31 }} B = {la somma dei dadi è 4} = {X {x 3, x 8, x 13 }} Sapendo che B è accaduto, puntando sull 1 noi di fatto stiamo scommettendo sul fatto che la coppia uscita sia x 13 = (1, 3), cioè sull evento {X = x 13 } = AB, mentre l evento certo è {X {x 3, x 8, x 13 }}, ossia B. La probabilità della scommessa con aiuto sarà quindi P ({X = x 13 sapendo che X {x 3, x 8, x 13 }}) = P ({X = x 13 }) P ({X {x 3, x 8, x 13 }}) = 1/36 3/36 = 1 3. 20

Probabilità condizionata Definizione: dati due eventi A e B con P (B) > 0, la probabilità con cui avviene A sapendo che B si è verificato si dice probabilità condizionata di A dato B; essa viene indicata con P (A B) e si calcola nel seguente modo P (A B) = P (AB) P (B). Il fatto che P (B) > 0 è fondamentale nella definizione, altrimenti avremmo uno 0 al denominatore (e al numeratore, poiché AB B implica P (AB) P (B) = 0). Se P (B) > 0, abbiamo che P (AB) = P (A B)P (B), per ogni evento A. Tale formula è detta formula dell intersezione. La formula si estende a n eventi P (A 1 A 2 A n ) = P (A 1 A 2 A 3 A n )P (A 2 A 3 A n ) P (A n 1 A n )P (A n ) 21

P ( B) è una probabilità Proposizione: sia B un evento fissato con P (B) > 0. La funzione P che associa a ogni evento A il numero P (A) = P (A B) è una probabilità. Valgono quindi tutte le conseguenze degli assiomi della probabilità e in particolare P (A) = 1 P (A), ovvero P (A B) = 1 P (A B). Teorema della probabilità totale. Siano dati n eventi B 1, B 2,..., B n tali che B 1, B 2,..., B n formano una partizione di S (ossia B 1 + B 2 +... + B n = S e B i B j = per ogni i j); P (B i ) > 0 per ogni i. Allora, per ogni evento A si ha che P (A) = P (A B 1 )P (B 1 ) + P (A B 2 )P (B 2 ) + + P (A B n )P (B n ). 22

Formula di Bayes Dalla definizione di probabilità condizionata, se P (A) > 0 e P (B) > 0, otteniamo P (AB) P (BA) = P (A B)P (B), = P (B A)P (A). Vale dunque l uguaglianza, nota come formula di Bayes P (B A) = P (A B)P (B) P (A) che ci permette di trovare P (B A) qualora noi conoscessimo P (A B), P (B) e P (A). Questo risultato si può estendere a una partizione e ottenere il teorema di Bayes. Teorema di Bayes. Siano dati n eventi B 1, B 2,..., B n tali che B 1, B 2,..., B n formano una partizione di S (ossia B 1 + B 2 +... + B n = S e B i B j = per ogni i j); P (B i ) > 0 per ogni i. Allora, per ogni evento A tale che P (A) > 0 si ha P (B k A) = P (A B k )P (B k ) P (A B 1 )P (B 1 ) + P (A B 2 )P (B 2 ) + + P (A B n )P (B n ). 23

Dipendenza e indipendenza di 2 eventi Definizione. Due eventi A e B si dicono indipendenti se P (AB) = P (A)P (B). Notiamo che se P (A) = 0, allora anche P (AB) = 0 e quindi ogni evento che ha probabilità nulla è indipendente da ogni altro evento. Proposizione. Se A e B sono eventi indipendenti, allora sono indipendenti anche A e B, A e BB, A e (B + B). Teorema Due eventi A e B sono indipendenti se e solo se la probabilità con cui accade A, sapendo qualsiasi cosa legata all evento B (che è accaduto, che non è accaduto, o non sapendo nulla), non varia e rimane quindi la probabilità P (A) di A. 24

Da 2 a n eventi... problemi Come estendiamo la definizione al caso di tre o più eventi? Fatto: Se abbiamo tre eventi A 1, A 2, A 3, sapere che tutte le coppie di eventi sono tra loro indipendenti (ossia P (A 1 A 2 ) = P (A 1 )P (A 2 ), P (A 2 A 3 ) = P (A 2 )P (A 3 ), P (A 1 A 3 ) = P (A 1 )P (A 3 )) non basta a garantire che la probabilità con cui accade il terzo, sapendo che i primi due sono accaduti, non cambia. L indipendenza delle coppie non sarà quindi la definizione di indipendenza per 3 o pi eventi. Fatto: Inoltre anche sapere che P (A 1 A 2 A 3 ) = P (A 1 )P (A 2 )P (A 3 ) non basta a garantire che la probabilità con cui accade A 3, sapendo che il primo è accaduto e non sapendo nulla del secondo (A 1 (A 2 + A 2 )), non cambia Che la probabilità dell intersezione di tutti gli eventi si fattorizza nel prodotto delle probabilità non sarà quindi la definizione di indipendenza per 3 o pi eventi. Definizione. Gli eventi A 1, A 2,..., A n si dicono indipendenti se per ogni scelta di k indici (k n) distinti i 1, i 2,..., i k vale che P (A i1 A i2 A ik 1 A ik ) = P (A i1 )P (A i2 ) P (A ik 1 )P (A ik ). La definizione appena data significa che debbono valere tutte le relazioni P (A i A j ) = P (A i )P (A j ) i j (k = 2) P (A i A j A k ) = P (A i )P (A j )P (A k ) i j k (k = 3). P (A 1 A 2 A 3 A n ) = P (A 1 )P (A 2 )P (A 3 ) P (A n ) (k = n) 25

Esempio: estrazione da un urna. Estraiamo a caso da un urna un numero tra 1 e 8 (i numeri sono equiprobabili). Consideriamo i seguenti eventi: A 1 = {estraggo un numero tra 1, 2, 3, 4}, A 2 = {estraggo un numero tra 1, 2, 3, 5}, A 3 = {estraggo un numero tra 1, 6, 7, 8}. È chiaro che P (A 1 ) = P (A 2 ) = P (A 3 ) = 1/2 (ho 4 risultati favorevoli su 8 possibili equiprobabili in ciascun evento). Inoltre A 1 A 2 A 3 = {estraggo il numero 1}, e quindi P (A 1 A 2 A 3 ) = P (A 1 )P (A 2 )P (A 3 ). Ma se so che A 3 è accaduto (e non so nulla di A 2 ), la probabilità di A 1 cambia. Infatti e quindi A 1 A 3 = {estraggo il numero 1}, P (A 3 A 1 ) = P (A 1A 3 ) P (A 3 ) = 1 8 1 2 = 1 4 1 2 = P (A 3). 26

Dipendenza e indipendenza di n variabili aleatorie Abbiamo visto che gli eventi di una variabile aleatoria X sono generati da eventi A del tipo A = {X I}, dove I è un intervallo di R. Dire quindi che due v.a. X e Y sono indipendenti vuol dire che preso un generico intervallo I 1 di R, sia A 1 = {X I 1 }, preso un generico intervallo I 2 di R, sia A 2 = {Y I 2 }, gli eventi A 1 e A 2 sono indipendenti, ossia P ({X I 1, Y I 2 }) = P (A 1 A 2 ) = P (A 1 )P (A 2 ) = P ({X 1 I 1 })P ({X 2 I 2 }). In altre parole, per ogni scelta di I 1 e I 2, deve valere l equazione P ({X 1 I 1, X 2 I 2 }) = P ({X 1 I 1 })P ({X 2 I 2 }). Definizione. Date le v.a. X 1, X 2,..., X n esse si dicono indipendenti se per ogni scelta di intervalli I 1, I 2,..., I n gli eventi {X 1 I 1 }, {X 2 I 2 },..., {X n I n } sono indipendenti, ossia P ({X 1 I 1, X 2 I 2,..., X n I n }) = P ({X 1 I 1 })P ({X 2 I 2 }) P ({X n I n }). 27

Legge congiunta Siano X e Y due variabili aleatorie. L insieme dei risultati di entrambe le v.a. è l insieme delle coppie (x i, y j ), dove x i è un risultato di X e y j è un risultato di Y. Definizione. Se X e Y sono discrete, definiamo legge congiunta delle v.a. X e Y la distribuzione p (X,Y ) (x i, y j ) = P ({X = x i, Y = y j }). La legge p X x k di X viene detta legge di distribuzione marginale di X (analogo per Y ). Caso continuo: poiché P ({X = x i, Y = y j }) = 0, dovremo quindi definire la legge congiunta a partire da eventi del tipo A = {x 1 < X < x 2 } e B = {y 1 < X < y 2 }. Due variabili aleatorie X e Y sono congiuntamente continue se esiste una funzione f (X,Y ) : R R R + {0}, tale che P ({x 1 < X < x 2, y 1 < Y < y 2 }) = = x2 x 1 y2 y 1 ( y 2 y 1 ( x 2 x 1 ) f (X,Y ) (x, y) dy dx ) f (X,Y ) (x, y) dx dy, per ogni scelta di x 1 < x 2, y 1 < y 2. La funzione f (X,Y ) (x, y) è detta densità congiunta delle v.a. X e Y. Analogamente al caso discreto la densità f X densità marginale di X (analogo per Y ). di X viene detta 28

Dalla legge congiunta alle leggi marginali Proposizione. Siano X e Y due v.a. discrete o congiuntamente continue. Abbiamo che p X x = j p (X,Y ) (x, y j ), p Y y = i p (X,Y ) (x i, y), f X (x) = f (X,Y ) (x, y) dy f Y (y) = f (X,Y ) (x, y) dx, ossia è sempre possibile trovare le leggi (o densità) marginali conoscendo la legge (o densità) congiunta. Formula di E(g(X, Y )) e E(X + Y ) = E(X) + E(Y ) Teorema. Data una funzione g, il valore atteso di Z = g(x, Y ), se definito, si può calcolare come E(g(X, Y )) = g(x i, y j )p (X,Y ) (x i, y j ) i j nel caso discreto, e ( ) E(g(X, Y )) = g(x) f (X,Y ) (x, y) dx dy, nel caso continuo. Corollario. Siano X e Y due v.a. e sia Z = X +Y la loro somma. E(Z) = E(X + Y ) = E(X) + E(Y ), ossia il valore atteso della somma è la somma dei valori attesi. 29

Riassunto Se dobbiamo calcolare il valore atteso della somma X + Y, possiamo calcolare il valore atteso della variabile Z = X + Y nel modo classico E(Z) = i z i p Z z i conoscendo la legge p Z z i della somma oppure utilizzare la probabilità congiunta p (X,Y ) (k, j) con la formula E(X + Y ) = (x k + y j )p (X,Y ) (x k, y j ). j k Si può dimostrare di più: se abbiamo una qualsiasi funzione Z = g(x, Y ), possiamo calcolare E(Z) nel modo classico E(Z) = i z i p Z z i conoscendo la legge p Z z i di Z = g(x, Y ), oppure utilizzare la probabilità (o densità) congiunta E(Z) = g(x k, y j )p (X,Y ) (x k, y j ). j k 30

Varianza della somma X + Y Proposizione. Per ogni coppia di variabili aleatorie X e Y, Var(X + Y ) = Var(X) + Var(Y ) + 2(E(XY ) E(X)E(Y )). Dalle leggi marginali alla legge congiunta Se X e Y sono indipendenti, allora p (X,Y ) (x i, y j ) = p X x i p Y y j, f (X,Y ) (x, y) = f X (x)f Y (y) caso discreto, caso continuo, ossia è possibile ricavare la legge (densità) congiunta conoscendo le leggi (densità) marginali. 31

Proposizione (Criterio di indipendenza). Due variabili aleatorie X e Y sono indipendenti se e solo se la legge (densità) congiunta è il prodotto delle leggi (densità) marginali p (X,Y ) (x i, y j ) = p X x i p Y y j, f (X,Y ) (x, y) = f X (x)f Y (y) caso discreto, caso continuo. Varianza della somma di variabili indipendenti Proposizione. Per ogni coppia di variabili aleatorie indipendenti X e Y, Var(X + Y ) = Var(X) + Var(Y ). 32

Legge dei grandi numeri È cosa nota per uno scienziato sperimentale che il ripetere esperimenti diminuisce l imprecisione dell esperimento stesso. Quello che vogliamo fare è capire un possibile significato matematico della frase appena detta. Supporremo quindi che il nostro scienziato stia ripetendo lo stesso esperimento più volte in maniera indipendente ogni volta dai risultati avuti: X 1, X 2,..., X n,... rappresentano le misurazioni che farà lo scienziato. Essendo fenomeni casuali, X 1, X 2,..., X n,... sono v.a. Poiché lo scienziato sta ripetendo lo stesso esperimento, le leggi di X 1, X 2,..., X n sono uguali. Inoltre le v.a. sono indipendenti. Cosa vorrà dire che diminuisce l imprecisione dell esperimento stesso all aumentare degli esperimenti? Se indichiamo con M n la media campionaria M n = X 1 + X 2 + + X n, n è possibile mostrare che, in qualche modo, M n µ, dove µ = E(X 1 ) (ossia il valore atteso del risultato dell esperimento). 33

Valore atteso e varianza della media campionaria Proposizione. Siano X 1,..., X n variabili aleatorie indipendenti tutte con valore atteso µ e varianza σ 2. Se indichiamo con M n la media campionaria allora abbiamo che M n = X 1 + X 2 + + X n, n E(M n ) = µ, Var(M n ) = σ2 n. Osservazione. Ricordiamo che V ar(m n ) = E((M n E(M n )) 2 ), e che la possiamo considerare la media pesata del quadrato della sua distanza dal valore atteso. Dal precedente risultato V ar(m n ) = V ar(x) n 0 n abbiamo che questa distanza diminuisce all aumentare di n. Poiché E(M n ) = µ segue che la media campionaria tende, si avvicina, al valore atteso per valori grandi di n. 34

Esempio: legge dei grandi numeri e dado a 6 facce Se eseguiamo un esperimento lanciando un dado n volte osserviamo che in effetti la distribuzione di probabilità della media di n lanci si avvicina al valor medio 3.5 all aumentare di n. 0 1 2 3 4 5 6 7 0 1 2 3 4 5 6 7 0 1 2 3 4 5 6 7 0 1 2 3 4 5 6 7 35

Disuguaglianza di Chebyshev Proposizione. Sia X v.a. con valore atteso µ e varianza σ 2. Allora per ogni η > 0 P ({ X µ > η}) σ2 η 2. 0.35 0.3 µ=e(x) 0.25 0.2 η η 0.15 0.1 0.05 0 0 2 4 6 8 10 In altre parole più la varianza di una variabile aleatoria X è piccola più è piccola la probabilità che X assuma valori lontani dal suo valore atteso µ = E(X). 0.35 0.3 µ=e(x) 0.25 0.2 η η 0.15 0.1 0.05 0 0 2 4 6 8 10 36

Legge dei Grandi Numeri Definizione (Convergenza in probabilità). Diciamo che una successione di v.a. X 1, X 2,..., X n converge in probabilità alla v.a. X per n se e solo se per ogni η > 0 si ha lim P ({ X n X > η} = 0. n Teorema. sia X n una successione di v.a. indipendenti tutte con valore atteso µ e varianza σ 2. Allora M n converge in probabilità a µ ossia per ogni η > 0 lim P ({ M n µ > η} = 0. n 37