Calcolo delle Probabilità

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Calcolo delle Probabilità"

Transcript

1 Calcolo delle Probabilità Paolo Baldi, Università di Roma Tor Vergata McGraw-Hill Prima parte: soluzioni pag 3 Seconda parte: risultati degli esercizi proposti pag 5 Paolo Baldi Calcolo delle Probabilità McGraw-Hill

2

3 Soluzioni Due modi possibili: possiamo innanzitutto considerare tutti i numeri di telefono come equiprobabili Essi sono dunque 9 7 (9 possibilità per la prima cifra, per le altre 7 Tra di essi quelli che non contengono lo sono (9 possibilità per ognuna delle 8 cifre La probabilità che un numero scelto a caso non contenga lo è dunque ( = = 48 Alternativamente, indichiamo con A i, i =,, 8 l evento la i-esima cifra del numero da chiamare è diversa da La probabilità richiesta è quella dell intersezione degli eventi A i, i =,, 8 Ora P(A i = 9, i =,, 8, poiché è ragionevole supporre che tutte le cifre abbiano la stessa probabilità di apparire allo i-esimo posto E se supponiamo che i valori delle diverse cifre che appaiono in un numero siano indipendenti ritroviamo ancora ( 9 7 P(A A 8 = P(A P(A 8 = a L insieme dei possibili risultati è costituito da tutti i numeri da a (che sono milione Possiamo scegliere questo insieme come Naturalmente su considereremo la distribuzione uniforme di probabilità, poiché non c è motivo di supporre che alcuni numeri siano più probabili di altri Poiché ha cardinalità milione, la probabilità che il biglietto di Ole Kamp vinca è 6 b L evento A è costituito da tutti i numeri le cui prime 4 cifre sono 96, che sono Dunque P(A = # #A = 4 Se ω A allora P({ω} A = P({ω} = 6 e quindi P({ω} A = P({ω} P(A = = #A Se invece ω A allora l evento {ω} A è vuoto e P({ω} A = In conclusione la probabilità che un numero ω sia estratto è ora { P({ω} A P({ω} A = = #A se ω A P(A se ω A Paolo Baldi Calcolo delle Probabilità McGraw-Hill

4 4 Parte : soluzioni In altre parole la probabilità condizionale dato A vale se il numero ω non si trova in A, mentre tutti i numeri che si trovano in A sono equiprobabili La probabilità del biglietto di Ole Kamp è ora #A, cioè Se invece A fosse l evento costituito dai numeri che iniziano con 967, la probabilità P( A varrebbe (cioè sempre #A per tutti i biglietti ω le cui cifre iniziano con 967 e per gli altri 3 Risolveremo il problema con due modelli diversi Primo modello Supponiamo di numerare le palline nell urna e di indicarle B, B, B 3, B 4, N, N, N 3 Consideriamo come spazio l insieme di tutte le coppie del tipo ω = (ω, ω, dove ω e ω possono prendere i valori B, B, B 3, B 4, N, N oppure N 3 ; ovvero = {B, B, B 3, B 4, N, N, N 3 } Poiché siamo in una situazione di estrazioni con rimpiazzo è naturale supporre che tutti gli elementi di siano equiprobabili In questo caso sappiamo che per calcolare la probabilità di un evento A basta contare quanti elementi esso contiene, perché poi si ha P(A = # #A In particolare ogni ω ha probabilità P({ω} = # = 7 = 49 a L evento A di cui si richiede la probabilità è quello formato dalle coppie (ω, ω per le quali ω e ω sono entrambi B oppure entrambi N In altre parole e dunque #A = = 5 e A = {B, B, B 3, B 4 } {N, N, N 3 } P(A = 5 49 b Ora si tratta di calcolare la probabilità dell eventod delle coppie(ω, ω dove uno almeno tra ω e ω è diverso da B, B, B 3, B 4 Dunque il complementare di D è l evento D c = {B, B, B 3, B 4 } e poiché #D c = 6 allora P(D = P(D c = 6 Secondo modello Consideriamo gli eventi 49 = Z = una pallina bianca viene estratta alla prima estrazione Z = una pallina bianca viene estratta alla seconda estrazione W = una pallina nera viene estratta alla prima estrazione W = una pallina nera viene estratta alla seconda estrazione Senza preoccuparci per ora di definirlo esplicitamente, è chiaro che, in uno spazio (,, P adeguato a descrivere questa situazione, gli eventi Z e Z devono risultare indipendenti e così

5 Esercizio 4 5 pure W e W (poiché le palline vengono rimesse nell urna i risultati di estrazioni successive devono essere indipendenti Inoltre dovrà essere P(Z = P(Z = 4 7 P(W = P(W = 3 7 poiché in ogni singola estrazione è ragionevole considerare la distribuzione uniforme di probabilità a L evento vengono estratte due palline dello stesso colore non è altro che (Z Z (W W Poiché i due eventi Z Z e W W sono disgiunti (se si estraggono palline bianche non se ne possono estrarre di nere e per le relazioni d indipendenza che abbiamo già segnalato, deve essere P((Z Z (W W = P(Z Z + P(W W = ( 4 ( 3 5 = P(Z P(Z + P(W P(W = + = b L evento una almeno delle palline estratte è nera con la formulazione appena introdotta non è altro che W W Usando la formula della probabilità della unione di eventi (osservare che W e W non sono disgiunti abbiamo P(W W = P(W + P(W P(W W = ( 3 7 = Questo esercizio mostra che, in generale, lo spazio di probabilità adatto a descrivere un problema non è unico (pur portando allo stesso risultato Inoltre qui vediamo l uso dei due principali strumenti elementari nella costruzione dello spazio di probabilità, cioè l equiprobabilità e l indipendenza Da segnalare l idea di calcolare la probabilità di un evento spezzandolo nella unione di eventi la cui probabilità è facile da calcolare e l uso della formula, (8, della probabilità della riunione di due eventi non disgiunti 4 Anche questo esercizio può essere risolto in (almeno due modi, uno usando la formula delle probabilità totali (, l altro costruendo esplicitamente lo spazio di probabilità e usando i metodi del calcolo combinatorio (cioè contando la cardinalità degli eventi Come abbiamo già visto negli esempi il metodo della partizione dell evento certo consiste nel cercare degli eventi A,, A m disgiunti, tali che la loro unione abbia probabilità e tali che il calcolo delle probabilità condizionali P(C A i sia facile In questo caso una buona scelta è costituita dagli eventi A i = la prima pallina estratta è la numero i, i =,, 6 È chiaro che gli eventi A,, A 6 costituiscono una partizione dell evento certo (sono disgiunti e la loro unione esaurisce tutte le possibilità Inoltre P(A i = 6 per ogni i =,, 6 Se indichiamo con C l evento le due estrazioni danno luogo a due numeri consecutivi, allora si ha P(C A = 5

6 6 Parte : soluzioni Infatti dopo la prima estrazione (della pallina con il numero nell urna sono rimaste 5 palline e l evento C si verifica se vengono estratte le palline numero oppure 3, con probabilità 5, appunto Per lo stesso motivo si ha anche P(C A 3 = P(C A 4 = P(C A 5 = 5 Se invece la prima pallina estratta è la numero, nell urna restano sempre 5 palline, ma ora l evento C si verifica solo se la seconda estratta è la numero, con probabilità 5 Lo stesso vale se la prima pallina estratta è la numero 6, perché anche in questo caso si ha lo stesso effetto di bordo Dunque Possiamo ora applicare la formula (: P(C A = P(C A 6 = 5 P(C = P(C A P(A + + P(C A 6 P(A 6 = 6 ( = 5 3 Secondo modo: se poniamo E = {,, 3, 4, 5, 6}, l estrazione delle due palline dall urna equivale alla scelta a caso di un sottoinsieme di due elementi dell insieme E L insieme dei possibili risultati dell esperimento casuale è dunque = insieme di tutti i sottoinsiemi di due elementi di E Sappiamo dalle formule del calcolo combinatorio (Proposizione 4 che # = ( 6 = 5 L evento C corrisponde in questo modello al sottoinsieme di dei sottoinsiemi di E formati da due elementi consecutivi Poiché la cardinalità di è piccola possiamo semplicemente passare in rivista tutti i possibili sottoinsiemi di due elementi e trovare che C è formato dai sottoinsiemi {, }, {, 3}, {3, 4}, {4, 5}, {5, 6} Dunque la cardinalità di C è uguale a 5 e P(C = 5 5 = 3 Osserviamo che gli elementi di sono sottoinsiemi di cardinalità e non coppie ordinate Sarebbe stato comunque possibile anche scegliere come spazio l insieme delle coppie ordinate di elementi di E (cioè le disposizioni di elementi di E a due a due La cardinalità di sarebbe però ora pari a 4! 6! = 3 ed il calcolo della cardinalità dell evento corrispondente a C diventa solo un po più complicato 5 a Indichiamo con ω, ω le posizioni dei due amici nella coda L insieme {ω, ω } è un sottoinsieme di {,, n} di cardinalità Possiamo dunque considerare come modello di questo problema l insieme dei sottoinsiemi di cardinalità di {,, n} con la probabilità uniforme La cardinalità di è ( n = n(n (Proposizione 4 e l evento di cui vogliamo calcolare la probabilità corrisponde al sottoinsieme A formato dagli {ω, ω } tali che ω ω = k + Osserviamo che gli elementi di sono sottoinsiemi e non coppie ordinate, cioè {, } e {, } rappresentano lo stesso elemento di Per rappresentare un elemento di in maniera univoca indicheremo un sottoinsieme con la coppia (ω, ω dove ω è il numero più piccolo, (cioè ω < ω Per calcolare la probabilità di A è abbastanza naturale usare la formula delle probabilità totali ( usando la partizione A,, A n, dove A i = {ω = i} (cioè A i

7 Esercizio 6 7 corrisponde all evento quello dei due amici che nella coda ha il numero più basso si trova allo i-esimo posto È facile vedere che { (i, i + k + se i + k + n A A i = altrimenti ovvero A A i contiene un solo elemento se i + k + n ed è vuoto altrimenti Quindi e dunque P(A A i = { # se i n k altrimenti P(A = P(A A + + P(A A n = n k # = (n k n(n b Scegliere due palline dall urna senza rimpiazzo equivale a scegliere un sottoinsieme di cardinalità dall insieme {,, n} Sceglieremo dunque costituito dai sottoinsiemi di cardinalità di {,, n} e l evento di cui vogliamo calcolare la probabilità corrisponde al sottoinsieme A formato dai sottoinsiemi {ω, ω } tali che ω ω = k Il problema dunque, anche se la sua formulazione è diversa, si riconduce esattamente allo stesso modello del punto a (solamente con k al posto di k + Dunque la probabilità richiesta vale n k # = (n k n(n In particolare scegliendo k = otteniamo che la probabilità di estrarre dall urna due numeri consecutivi è (n n(n = n Ciò fornisce una nuova soluzione all esercizio precedente (dove si aveva n = 6 6 Se indichiamo con A e B gli eventi corrispondenti rispettivamente alla presenza del primo e del secondo difetto, allora P(A = 3, P(B = 7 ed inoltre gli eventi A e B devono risultare indipendenti a La probabilità che entrambi i difetti siano presenti è P(A B = P(AP(B = 3 7 = b La probabilità che uno almeno dei difetti sia presente è P(A B = P(A + P(B P(A B = = 979 c La probabilità che un pezzo abbia il primo difetto sapendo che è difettoso è P(A A B = P(A (A B P(A B = P(A P(A B = 3 = 36 = 36% 979

8 8 Parte : soluzioni (infatti A A B e quindi A (A B = A d La probabilità che vi sia uno solo dei difetti sapendo che il pezzo è difettoso è uguale a meno la probabilità che entrambi i difetti siano presenti (sempre sapendo che il pezzo è difettoso Dunque, poiché A B A B, la probabilità richiesta è P(A B A B = P(A B P(A B = = 978 = 978 % Indichiamo con A l evento viene scelta la carta (quella con i due lati neri e con A l evento viene scelta la carta Con B invece indichiamo l evento viene scelto un lato nero È chiaro che P(A = P(A =, poiché non vi è motivo di supporre che le due carte non siano equiprobabili Inoltre P(B A =, P(B A =, poiché se viene scelta la carta, allora vi sono due lati possibili, uno bianco e l altro nero, entrambi con probabilità Anche il secondo lato è nero se si è scelta la carta Dunque la probabilità richiesta non è altro che P(A B e basta dunque applicare la formula di Bayes: P(A B = P(B A P(A P(B Resta ora solo da calcolare P(B Ma con il metodo della partizione dell evento certo, dato che A, A è una partizione, P(B = P(B A + P(B A = P(B A P(A + P(B A P(A = + 4 = 3 4 Dunque P(A B = 3 8 a Indichiamo con A i, i =,, 3 l evento lo i-esimo lancio ha dato 6 ; è chiaro che P(A = P(A = P(A 3 = 6 Ci viene richiesto di calcolare P(A A A 3 Gli eventi A, A, A 3 non sono però disgiunti (ad esempio A A non è altro che l evento i primi due lanci danno entrambi 6 e dunque la probabilità della unione non è uguale alla somma delle probabilità Possiamo però sfruttare il fatto che gli eventi A, A, A 3 sono indipendenti come pure i loro complementari e usare la formula P(A A A 3 = P ( (A A A 3 c = P(A c Ac Ac 3 = = P(A c P(Ac P(Ac 3 = ( = 4 (abbiamo usato le formule di De Morgan, vedi in fondo a pag 3 del libro b Ripetendo questo ragionamento si vede che la probabilità che in n lanci si ottenga 6 almeno una volta è ( 5 6 n Perché questa quantità sia più grande di 9 occorrerà che sia ( 5 n > 9 6

9 Esercizio 9 Cioè, svolgendo la disuguaglianza, > ( 5 6 n, ovvero, prendendo i logaritmi e dividendo per log 5 6, n > log( log 5 6 e cioè n > 6 Attenzione: quando si divide per log 5 6 occorre invertire il verso della disuguaglianza, perché si tratta di una quantità negativa Dunque deve essere n 3 Da segnalare l uso della formula P(A = P(A c Talvolta il calcolo della probabilità di A c è più facile del calcolo diretto della probabilità di A 9 Con la distribuzione ipergeometrica si trova che, se i voti si ripartissero a caso tra i commissari, essi si distribuirebbero come è avvenuto con probabilità ( 5 ( 3 5 ( 8 = 5 = 78 % 56 Il giudice può probabilmente decidere che l evento verificatosi è effettivamente troppo improbabile per essere il frutto del caso Se invece i 5 voti fossero stati dati da 4 donne e un uomo, la probabilità sarebbe stata ( 5 ( 3 4 ( 8 = 5 56 = 678% 5 che è un valore abbastanza alto perché l evento possa non essere giudicato improbabile a Possiamo considerare le 5 carte del mazzo divise in due gruppi, uno composto dai 4 assi e l altro dalle altre 48 carte La probabilità di ottenere esattamente k assi, per k =,, 3, 4, non è altro che la probabilità di ottenere k elementi dal primo gruppo in una estrazione di 5 elementi senza rimpiazzo La distribuzione ipergeometrica dà ( 4 48 p k := k( 5 k 4! 48! 5! 47! ( 5 = k! (4 k! (43 + k! (5 k! 5! 5 Se indichiamo l evento si ricevono (esattamente k assi con A k, l evento si ricevono almeno assi non è altro che la riunione A A 3 A 4 Poiché gli eventi A k al variare di k =,, 3, 4 sono disgiunti, la probabilità richiestap è allora uguale a P(A +P(A 3 +P(A 4 = p +p 3 +p 4 Non ci resta che calcolare queste tre quantità, il che si fa con una calcolatrice dopo avere

10 Parte : soluzioni semplificato al massimo i coefficienti binomiali e i fattoriali che ne risultano: ( 4 48 p = ( 3 4! 48! 5! 47! ( 5 =!! 45! 3! 5! = 5! = 4 5 ( 4 48 p 3 = 3( 4! 48! 5! 47! ( 5 = 3! 46!! 5! = 5! = 7 5 ( 4 ( 48 4 p 4 = ( 5 = 5 48! 5! 47! 47! 5! = 5! = e dunque p = p + p 3 + p 4 = 4 Da notare che p 4 = è la probabilità di ricevere poker d assi servito b Cominciamo col fissare un colore, quadri ad esempio La probabilità di ricevere cinque carte di quadri (cioè colore servito a quadri si calcola considerando le carte del mazzo ancora suddivise in due gruppi: le 3 carte di quadri e le altre 39 Le formule della distribuzione ipergeometrica dicono che la probabilità di ricevere 5 carte del primo gruppo e dal secondo è ( 3 ( 39 5 ( 5 5 = 3! 5! 47! 5! 8! 5! = = = Se indichiamo con A l evento si riceve colore a quadri servito e con A, A, A, gli analoghi eventi per gli altri semi, allora ognuno di questi ha probabilità 495 4, grazie al calcolo appena fatto Inoltre la probabilità richiesta non è altro che la probabilità della unione A A A A Poiché si tratta di eventi disgiunti, la probabilità di ricevere colore servito è = 98 = 98% c Abbiamo già calcolato in a la probabilità di ricevere un poker servito di assi Naturalmente questa è la stessa che la probabilità di ricevere un poker servito di un altro numero Poiché i numeri (comprese le figure sono 3 e poiché gli eventi si riceve poker servito di assi, di, di 3 etc sono tra di loro disgiunti, la probabilità di ricevere un poker servito è uguale a = 4 4 La risoluzione di questo esercizio usa, in modo ripetitivo, solo due idee: il fatto che gli eventi considerati si possono ricondurre a un modello di prove ripetute senza rimpiazzo (che permette di servirsi delle formule della distribuzione ipergeometrica e il metodo della partizione dell evento certo: in ognuno dei punti a, b e c abbiamo suddiviso l evento che ci interessava in sottoinsiemi disgiunti, per ciascuno dei quali era facile calcolare la probabilità È facile calcolare la probabilità che le due palline numero vengano estratte insieme: basta considerare le 93 palline presenti nell urna come suddivise in due gruppi, il primo formato dalle due palline n ed il secondo dalle 9 rimanenti Si tratta di calcolare la probabilità di estrarre palline dal primo gruppo e 3 dal secondo in cinque estrazioni senza rimpiazzo La probabilità richiesta si può calcolare con le formule della distribuzione ipergeometrica e vale ( 9 p = ( 3 ( 93 =

11 Esercizio Se ora indichiamo con A i, i =,, 3, l evento le due palline numero i vengono estratte entrambe è chiaro che i tre eventi hanno la stessa probabilità e dunque P(A = P(A = P(A 3 = p Inoltre la probabilità richiesta non è altro che la probabilità della riunione degli eventi A, A, A 3 Questi non sono però disgiunti, poiché, ad esempio, la cinquina (,,,, 37 si trova sia in A che in A (ovvero è possibile che simultaneamente vengano estratte le due palline n e le due n Possiamo però ricorrere alla formula della probabilità della unione di tre eventi non disgiunti (formula (9 a pag 8 del libro Chiaramente l evento A A A 3 ha probabilità (non è possibile estrarre insieme le due palline, le due e le due 3, visto che ne vengono estratte 5 in totale Il problema è quindi risolto se sappiamo calcolare P(A A (le probabilità delle altre intersezioni è la stessa per simmetria Ancora usando la distribuzione ipergeometrica (probabilità di estrarre 4 elementi dal gruppo {,,, } ed dal gruppo formato dalle altre 89 palline si ha P(A A = q = ( 4 ( 89 4 ( 93 = per cui in definitiva la probabilità richiesta è 3p 3q = 7 = 7% b Cominciamo col calcolare la probabilità di fare terno in un estrazione normale: ci possiamo ancora ricondurre alla distribuzione ipergeometrica (probabilità di estrarre 3 palline dal gruppo composto dalle palline numero,, 3 e da quello composto da tutte le altre: ( ( ( 9 = Il calcolo della probabilità di fare terno con l urna manomessa è un po più complicato Basta però dare un occhiata alla parte finale dell Esempio 8: il numero totale di cinquine è ( 93 5, mentre il numero di cinquine che contengono esattamente una pallina col numero, una col numero e una col numero 3 è ( ( ( ( 87 La probabilità di fare terno con l urna manomessa è dunque ( ( ( 87 ( = ( 93 5 Nella soluzione di questo esercizio abbiamo usato due idee utili anche in altre situazioni: la prima consiste nel calcolare la probabilità di un evento scrivendolo come riunione di altri eventi e poi usando la formula sulla probabilità della unione di eventi non (necessariamente disgiunti La seconda consiste nel ricondursi, se possibile, ad un modello già studiato e universale (cioè che può applicarsi a molte situazioni diverse come quello delle prove ripetute senza rimpiazzo, che dà luogo alla distribuzione ipergeometrica

12 Parte : soluzioni a Indichiamo con E i, i =,, n, l evento la i-esima pallina non viene messa nell urna Per come il problema è stato posto gli eventi E i si possono supporre indipendenti; inoltre, poiché ogni volta ognuna delle tre urne ha la stessa probabilità di essere scelta, la probabilità dell evento E i è 3 L evento l urna rimane vuota non è altro che l intersezione E E n Quindi ( n P(E E n = P(E P(E n = 3 Alternativamente avremmo potuto osservare che siamo in presenza di uno schema di Bernoulli (Esempio, cioè di una sequenza di prove ripetute e indipendenti ciascuna delle quali ha due possibili risultati: successo (corrispondente in questo caso all evento l urna viene prescelta con probabilità p (= 3 nel nostro caso e insuccesso con probabilità p Abbiamo visto nell Esempio che in questa situazione la probabilità che non si verifichi nessun successo è appunto ( p n Il nostro calcolo non è altro che una ridimostrazione di questo fatto b La probabilità che una singola pallina non finisca né nell urna né nella (ovvero che finisca nell urna 3 vale 3 Siamo quindi nella situazione di uno schema successo-insuccesso come lo abbiamo appena descritto con p = 3 La probabilità richiesta è dunque ( 3 n c Consideriamo gli eventi A = l urna è rimasta vuota A = l urna è rimasta vuota A 3 = l urna 3 è rimasta vuota L evento di cui dobbiamo calcolare la probabilità è l unione A A A 3 e possiamo usare la formula (9 sulla probabilità della unione di tre eventi non disgiunti: l evento A A A 3 ha chiaramente probabilità (non è possibile che tutte e tre le urne restino vuote Inoltre abbiamo già calcolato le altre probabilità che figurano nella formula: gli eventi A, A, A 3 hanno chiaramente la stessa probabilità, per motivi di simmetria, che vale ( 3 n per il punto a; così pure le probabilità delle intersezioni a due a due valgono( 3 n per il punto b In conclusione la probabilità richiesta vale ( n ( n In questo esercizio ritroviamo alcune idee già viste: a l uso di modelli standard (in questo caso lo schema successo-insuccesso, o di Bernoulli a cui ci si riconduce per sfruttare formule stabilite una volta per tutte; b il calcolo della probabilità di un evento ottenuta scrivendolo come riunione di altri, la cui probabilità è facile da calcolare, per poi usare la formula della unione di eventi non disgiunti Osserviamo infine che in questa risoluzione non abbiamo precisato quale sia lo spazio di probabilità Abbiamo semplicemente supposto che ne esistesse uno contenente degli eventi E,, E n, A, A, A 3 aventi certe proprietà In realtà sarebbe stato possibile costruire uno spazio (,, P adatto, ma ciò avrebbe appesantito lo svolgimento senza renderlo né più chiaro

13 Esercizio 3 3 né più rigoroso La costruzione completa dello spazio di probabilità verrà spesso sottintesa negli altri esercizi 3 a Indichiamo cona i l evento viene scelta l urnai-esima e conb l evento vengono estratte due palline di colori diversi ; poiché si tratta di estrazioni senza rimpiazzo la probabilità di estrarre una pallina bianca e una rossa è data dalla distribuzione ipergeometrica Poiché nell urna i-esima vi sono 4 palline R e i palline B, deve essere ( P(B A i = ( i ( 4 8i ( 4+i = (4 + i(3 + i := q i Inoltre P(A i = ; dunque, con la formula delle probabilità totali ( e una calcolatrice, P(B = i= P(B A i P(A i = b Possiamo applicare la formula di Bayes i= P(A i B = P(B A i P(A i P(B 8i (4 + i(3 + i = 56 = q i P(B Determinare l urna più probabile significa trovare il valore di i per cui q i è massima Ciò si può fare (oltre che con un calcolo numerico con un PC o una calcolatrice studiando per quali valori di i si ha q i+ q i Si trova q i+ 8(i + (4 + i(3 + i = = i + 4i + 3 q i (5 + i(4 + i 8i i + 5i La disuguaglianza x + 4x + 3 x > + 5x è soddisfatta per < x < 3; inoltre la frazione è = per x = 3 ed è < per x > 3 Dunque q i+ > q i i =, q i+ = q i i = 3 q i+ < q i i = 4,, Il massimo di i q i è quindi raggiunto per i = 3 e i = 4: e urne 3 e 4 sono le più probabili Figura Andamento del valore di P(A i B = q i P(B per i =,,

14 4 Parte : soluzioni c Basta ripetere gli argomenti dei punti precedenti, solo che ora P(A i = per i =,, 9 e P(A = Dunque P(B = 9 q i + q = 5 i= Figura Andamento del valore di P(A i B quando le urne sono Applicando ancora la formula di Bayes si trova P(A i B = P(B A i P(A i P(B Ora però P(A i B = P(B q i peri =,, 9 (valore massimo raggiunto ancora peri = 3, 4, mentre P(A B = P(B q Un confronto numerico mostra che ora il valore i = è il più probabile, poiché P(A 3 B = P(A 4 B = 3 mentre P(A B = 58 Gli aspetti importanti di questo esercizio sono l uso della nozione di probabilità condizionale e della formula di Bayes 4 Vari modi sono possibili (il secondo è in realtà il più semplice Primo modo: indichiamo con A i, i =,, k l evento nelle prime i assegnazioni non si sono avuti conflitti È chiaro che A A A k ed inoltre la probabilità richiesta è proprio P(A c k Calcoliamo P(A i A i Se l evento A i è verificato ciò vuol dire che alle prime i variabili sono state assegnate i celle di memoria diverse Ne restano dunque libere n i + e la probabilità di non avere conflitti alla i-esima assegnazione è P(A i A i = n i + n Quindi la probabilità che non vi siano conflitti è P(A k = P(A k A k P(A k = P(A k A k P(A k A k P(A k = = = = P(A k A k P(A k A k P(A A P(A = }{{} = = n k + n n k + n n n = n! n k (n k!

15 Esercizio 5 5 e quindi la probabilità che vi sia almeno un conflitto è P(A k = n! n k (n k! Secondo modo: Scegliere a caso un assegnazione di variabili alle celle di memoria significa scegliere a caso un applicazione da {,, k} (l insieme delle variabili a valori in {,, n} (l insieme delle celle di memoria Indichiamo con l insieme di queste applicazioni Si può vedere come l insieme delle k-uple (i,, i k dove i,, i k sono numeri interi compresi da a n (non necessariamente distinti; dunque # = n k L insieme B delle assegnazioni che non danno luogo a conflitto non è altro che l insieme delle applicazioni iniettive da {,, k} in {,, n}, ovvero l insieme delle k-uple (i,, i k dove numeri i,, i k sono distinti In altre parole B è l insieme delle disposizioni di n elementi a k n! (n k! a k ed ha dunque cardinalità (Proposizione 3 Inoltre, poiché si può supporre che tutte le possibili assegnazioni siano equiprobabili, considereremo su la distribuzione uniforme di probabilità e dunque la probabilità che non vi siano conflitti è P(B = #B # = n! n k (n k! Per n =, k = 5, facendo attenzione a semplificare al massimo numeratore e denominatore per evitare errori di arrotondamento, la probabilità di avere almeno un conflitto è = 6 = 6% che è una probabilità inaspettatamente elevata per così tante celle di memoria rispetto alle variabili Un esempio classico quando si parla di calcolo combinatorio è quello dei compleanni dell Esempio 6: qual è la probabilità che in un gruppo di k persone ve ne siano almeno due che sono nate nello stesso giorno dell anno? È abbastanza utile rendersi conto che l esempio dei compleanni è lo stesso di questo appena svolto, nel senso che entrambi si riconducono allo stesso modello In entrambi, infatti, si considera come spazio di probabilità lo stesso insieme delle k-uple di numeri {i,, i k } scelti in {,, n} (n = 365 nel caso dei compleanni e si deve poi calcolare la cardinalità dello stesso insieme A delle k-uple formate da numeri diversi tra loro La morale è che problemi che nascono in situazioni applicative diverse possono ricondursi allo stesso modello (e quindi risolversi con gli stessi calcoli 5 a A vince se l ultima pallina rimasta nell urna è rossa, ovvero se tra le prime 5 palline e- stratte ve ne sono una rossa e quattro nere Usando la distribuzione ipergeometrica la probabilità che ciò accada è ( ( 4 4 ( 6 = 5! = 6! 3 5 Più semplicemente si sarebbe anche potuto osservare che in uno schema di estrazioni senza rimpiazzo la probabilità di avere un determinato risultato alla prima, alla seconda,, alla k-esima estrazione è sempre la stessa (vedi l Esempio 3 La probabilità di avere una pallina rossa alla sesta (e ultima estrazione è dunque la stessa che alla prima e cioè 3

16 6 Parte : soluzioni b Se la prima estrazione dà una pallina rossa, nell urna ne rimangono 4 nere e rossa A dunque vince se dalle successive 4 estrazioni risultano tutte palline nere Ancora la distribuzione ipergeometrica dà come probabilità ( ( 4 ( 4 5 = 4! 5! = 5 4 c Se indichiamo con D l evento il giocatore A vince e con E l evento la prima pallina estratta è rossa, allora dobbiamo calcolare P(D E Ora P(D E = P(D EP(E Ma P(E = 6 = 3 mentre abbiamo calcolato nel punto b che P(D E = 5 Dunque P(D E = 5 6 Il risultato dell esperimento casuale è una 5-upla {k,, k 5 } di numeri compresi tra e Poiché le palline sono estratte a caso e con rimpiazzo possiamo considerare tutte le 5-uple equiprobabili Uno spazio di probabilità ragionevole per descrivere questo problema è dunque lo spazio formato da queste 5-uple (ovvero il prodotto cartesiano di {,, } moltiplicato per se stesso 5 volte e munito della distribuzione uniforme di probabilità La cardinalità di è naturalmente 5 ; l evento di cui vogliamo calcolare la probabilità è invece rappresentato dall insieme A delle 5-uple (k,, k 5 tali che tra i numeri k,, k 5 ve ne siano almeno due uguali Il problema è quindi ridotto al calcolo della cardinalità di A Il calcolo diretto non è semplice; ma un attimo di riflessione mostra che il suo complementare A c non è altro che l insieme delle 5-uple (k,, k 5 tali che i numeri k,, k 5 siano tutti diversi tra loro, ovvero l insieme delle disposizioni di elementi a 5 a 5; dunque #A c =! 95! Quindi P(A = P(A c = #Ac # = =! 5 95! = = 96 = 96% Qui vale la stessa osservazione che abbiamo fatto alla fine dell Esercizio 4: il problema dei compleanni, quello dell assegnazione delle variabili e questo sono lo stesso problema, nel senso che si riconducono al calcolo della probabilità dello stesso evento nello stesso modello 7 a Indichiamo con F A l evento il primo genitore fornisce un allele di tipo A e con A, A, A 3 rispettivamente gli eventi il primo genitore è di tipo AA, Aa, aa rispettivamente Per come il problema è stato posto sarà e dunque P(F A A =, P(F A A =, P(F A A 3 = P(F A = P(F A A P(A + P(F A A P(A + P(F A A 3 P(A 3 = p + q

17 Esercizio 8 7 La probabilità che anche il secondo genitore trasmetta un allele di tipo A sarà la stessa e, supponendo che i geni trasmessi dai due genitori siano indipendenti, otteniamo che un discendente sarà di tipo AA con probabilità p = (p + q Analogamente esso sarà di tipo aa con probabilità r = (r + q e di tipo Aa con probabilità q = p r = ( p + q ( r + q = ( p + q ( r + q b Alla generazione successiva, la probabilità di osservare dei discendenti di dato tipo genetico si otterrà dalle formule precedenti, sostituendo a p, q, r i valori p, q, r appena calcolati Otteniamo p = (p + q = ( (p + q + (p + q(r + q = = ( (p + q ( p + q + r + }{{ q = (p + } q = p = Con calcoli simili si vede che anche q = q, r = r Quindi le proporzioni dei tre genotipi restano costanti in tutte le generazioni successive In altre parole, nel modello di Hardy- Weinberg la popolazione raggiunge l equilibrio genetico dopo la prima generazione 8 Tra Est e Ovest vanno ripartite 6 carte di cui 5 atout Se indichiamo con A i, i =,, 5 l evento Ovest ha i atout, allora usando la distribuzione ipergeometrica e per i = P(A i = ( 5 i( 3 i ( 6 3 ( 5 P(A = ( = = 339 ( 6 3 che è la probabilità richiesta b Se in Ovest vi sono atout, allora la Q cadrà con due giri di atout solo se in Ovest si trova anche la Q (altrimenti essa sarebbe terza in Est Dunque se indichiamo con C l evento la Q cade con due giri di atout, la quantità P(C A non è altro che la probabilità che la Q si trovi in Ovest sapendo che Ovest ha due carte di atout Quindi P(C A = 5 c Usando il metodo della partizione dell evento certo: P(C = 5 P(C A i = i= 5 P(C A i P(A i (dove gli eventi A i sono quelli definiti in a In quest ultima somma vi sono molti termini di cui già conosciamo il valore: sono note infatti le probabilità P(A i, le probabilità condizionali P(C A i per i = (calcolata in b e per i =, 5 (uguali a perché se Ovest possiede 5 atout oppure nessuno, la Q è quinta e non può cadere con solo due giri Inoltre per i =, ripetendo i= Paolo Baldi Calcolo delle Probabilità McGraw-Hill

18 8 Parte : soluzioni il ragionamento del punto b, P(C A = 5, poiché, se in O vi è un solo atout, la Q cadrà solo se questo è proprio la Q e ciò si verifica appunto con probabilità 5 In modo simile si possono calcolare le probabilità condizionali per i = 3, 4, ma è più semplice osservare che P(C A = P(C A 3, P(C A = P(C A 4 per motivi di simmetria: se Ovest ha atout allora Est ne ha 3 e viceversa e la situazione tra Est e Ovest è chiaramente simmetrica Lo stesso vale per i =, 4 Basta ora sostituire i valori numerici: P(A = P(A 3 = = 339 P(A = = 4 P(C = ( = 38 d Si tratta di ripetere gli stessi ragionamenti dei punti precedenti, solo che ora Est e Ovest hanno insieme 3 atout Se indichiamo ancora con A i, i =,,, 3 gli eventi Ovest ha i atout, allora P(C A = perché se Ovest ha atout, ciò vuole dire che la Q si trova in Est insieme ad altri due atout e non cadrà al giro successivo Per lo stesso motivo, scambiando i ruoli di Est e Ovest, P(C A 3 = Dunque P(C = P(C A + P(C A = P(C A = P(C A P(A Ora P(C A = 3 perché se Ovest ha un atout la Q cadrà solo se essa è uno di questi Inoltre ( 3 P(A = ( = 9 3 = 39 ( 4 Quindi P(C = 3 6 = 6 La probabilità è un po diminuita Supponiamo che il comportamento di ogni singolo passeggero sia indipendente da quello degli altri e poniamo Z i = se lo i-esimo passeggero si presenta alla partenza e Z i = altrimenti Il numero di passeggeri che si presenta alla partenza è dunque lo stesso che il numero di successi in uno schema di Bernoulli e dunque (Esempio 4 segue una legge binomiale Il numero di passeggeri che si presenta su un volo in cui si è accettato il massimo di prenotazioni è quindi una va X di legge B(, 9 per il primo tipo di aereo ed una va X di legge B(, 9 per il secondo La probabilità di lasciare a terra almeno un passeggero nel volo da posti vale mentre vale P(X = ( 9 + P(X = = ( 9 = 339 ( 9 = 34

19 Esercizio 4 9 per l altro tipo di aereo Il rischio è maggiore per il volo da passeggeri Il punto chiave della soluzione di questo esercizio consiste nel riconoscere che il problema si può ricondurre a un modello generale In questo caso lo schema di Bernoulli Se X indica il numero di volte in cui si ottiene il 6 in n lanci, allora X B(n, 6 Dunque a la probabilità che in tre lanci il 6 sia uscito due volte è ( = 7 5 = 7 b La probabilità che in n lanci il 6 sia uscito volte è ( n ( 5 n n(n ( 5 n p n = = Calcolando numericamente si vede che il massimo è raggiunto per n = e n = Più rigorosamente si sarebbe potuto fare uno studio della funzione t t(t ( 5 6 t, che è crescente fino a t = 49 e poi decrescente; ciò implica che il massimo di p n può essere raggiunto o per n = o per n = e un controllo diretto mostra che entrambi questi valori realizzano il massimo Per questi due valori la probabilità vale 96 3 Supponiamo che i 4 operatori siano indipendenti Ognuno di essi ad un dato istante si troverà in uno stato di collegamento (che indicheremo convenzionalmente con oppure no ( Quindi se X i indica lo stato dello i-esimo operatore, si modellizza il problema con delle va X,, X 4 indipendenti e di Bernoulli B(, p con p = 6 Sappiamo che la somma di n va di Bernoulli indipendenti B(, p segue una legge binomiale B(n, p Quindi il numero totale di utenti collegati X = X + + X 4 ha legge B(4, 6 ed il problema proposto non è altro che il calcolo della probabilità P(X = 4 k= ( 4 6 k 4 4 k = 35 = 35% k 4 a Il calcolo di p si riconduce alla distribuzione ipergeometrica: probabilità di estrarre pallina dal gruppo formato dal solo elemento 67 e 4 dal gruppo degli altri 89 numeri in 5 estrazioni senza rimpiazzo: ( 89 p = ( 4 = 5 9 = = 556 = 556 % 8 ( 9 5 Poiché è ragionevole supporre che le estrazioni di settimane diverse siano indipendenti tra loro, sappiamo che il numero T di settimane che trascorrono fino alla prima estrazione del 67 segue una distribuzione geometrica modificata di parametro p = 8 Dunque, ricordando il valore della speranza matematica di una va geometrica modificata (Esempi 38 e, il numero medio di settimane prima della prima estrazione è E(T = p = 8

20 Parte : soluzioni b In due modi: poiché le estrazioni di settimane diverse sono indipendenti, il numero di volte in cui il 67 viene estratto in 3 settimane si modellizza come il numero di successi in 3 prove indipendenti con probabilità p = 8 di successo in ogni singola prova Il numero di estrazioni che contengono il 67 tra i numeri estratti è dunque una va di legge binomiale B(3, p La probabilità di avere successi è dunque ( 3 ( p 3 = 8 = 8% Alternativamente si può osservare che, poiché il primo istante T di successo in uno schema successo-insuccesso ha una distribuzione geometrica modificata, ricordando le regole di somma delle serie geometriche (vedi il riquadro pag 39, P(T > 3 = p( p k p( p3 = ( p = ( p3 k=3 c Ancora in due modi: indichiamo con A l evento il 67 non è uscito nelle prime estrazioni e con B e C rispettivamente gli eventi il 67 esce entro la -esima estrazione e il 67 esce solo dopo la 3-esima estrazione Per ottenere P(B A calcoleremo prima P(B c A (qualche volta è più facile calcolare la probabilità del complementare di un evento In effetti P(B A = P(B c A = P(Bc A P(A L evento B c A è l evento il 67 non esce nelle prime estrazioni ed ha probabilità ( p (probabilità di ottenere successi in prove, mentre, per lo stesso motivo P(A = ( p Quindi P(B A = P(B c A = ( p = ( p = p ( p cioè la probabilità è la stessa che se le prime estrazioni non avessero avuto luogo, un fatto abbastanza intuitivo dato che le estrazioni sono indipendenti Allo stesso modo si risolve l ultima parte del punto c: P(C A = P(C A P(A = ( p3 ( p = ( p3 Alternativamente se T, come prima, indica il numero di settimane fino alla prima estrazione del 67, allora gli eventi A, B, C appena definiti si possono scrivere A = {T > }, B = {T }, C = {T > 3} Per la proprietà di mancanza di memoria della legge geometrica P(B c A = P(T > T > = P(T > = p P(C A = P(T > 3 T > = P(T > 3 = ( p 3

21 Esercizio 5 d Il numero di volte in cui il 67 viene estratto in 5 settimane segue una legge binomiale B(5, p con p = 8 Dunque la probabilità che il 67 sia presente almeno 6 volte in 5 settimane vale 5 ( 5 p k ( p 5 k k k=6 Si tratta di una somma di 45 termini che occorre calcolare numericamente È utile osservare che la relazione 5 k=6 ( 5 p k ( p 5 k = k 5 k= ( 5 p k ( p 5 k = 94 = 6 k permette di ricondurre il calcolo alla somma di 6 termini solamente 5 Indichiamo con A l evento viene scelto uno dei dadi truccati e con B viene scelto uno dei dadi che non sono truccati Naturalmente P(A = P(B = a Con la formula delle probabilità totali ( (A e B formano una partizione dell evento certo P(X = 3 = P(X = 3 AP(A + P(X = 3 BP(B = + 6 = 5 La speranza matematica di X è data da E(X = 6 kp(x = k k= Conosciamo già la probabilità di avere 3, ed anche quella di ottenere ognuno dei risultati, 4, 5, 6, che sarà uguale a quella di avere 3 D altra parte la probabilità di avere sarà Dunque P(X = = P(X = P(X = 3 P(X = 6 = 5 5 = 3 E(X = 3 + ( = 3 5 b Se X e Y indicano i risultati del primo e del secondo lancio rispettivamente allora P(X =, Y = 3 = P(X =, Y = 3 AP(A + P(X =, Y = 3 BP(B = = ( + = Viceversa se poniamo C = {X =, Y = 3}, la probabilità che si tratti di uno dei dadi truccati sapendo che i due lanci hanno dato e 3 non è altro che P(A C Per la formula di Bayes P(A C = P(C AP(A P(C

22 Parte : soluzioni Abbiamo appena calcolato P(C = 9 7 e sappiamo che P(A = Inoltre P(C A =, perché ognuno dei due risultati e 3 ha probabilità di essere ottenuto da un dado truccato In conclusione P(A C = 9 7 = 9 34 = 6 c No Per mostrarlo basta trovare dei valori i, j tali che P(X = i, Y = j P(X = ip(y = j Ad esempio P(X = P(Y = 3 = 5 5 = 4 5 = 6 9 che è diverso dal valore di P(X =, Y = 3 calcolato in b L intuizione potrebbe spingere a rispondere immediatamente alla domanda c che le variabili sono indipendenti Ma abbiamo già visto (vedi il riquadro pag 3 che in probabilità l intuizione, se non adeguatamente addestrata, può portare a conclusioni errate In questo caso l errore consiste nell aver trascurato il fatto che il risultato del primo lancio dà informazioni su quale delle due urne sia stata scelta 6 Primo modo: consideriamo la va T = numero di tentativi necessari La domanda posta in questo esercizio non è altro che il calcolo della legge di T Per determinarla conviene prima calcolare la quantità P(T > k = F T (k, dove F T è la fr di T, per poi ricavare la densità di T con la formula ( P(T = k = P(T > k P(T > k Ora la probabilità che la chiave giusta non si trovi tra le prime k è la stessa che la probabilità di ottenere successi in k estrazioni (senza rimpiazzo su n oggetti, dei quali uno solo corrisponde a successo Possiamo applicare la distribuzione ipergeometrica e si ha e usando la ( ( n P(T > k = ( ( k (n! k!(n k! n = = k n k k!(n k! n! n P(T = k = n k + n n k n ovvero la probabilità di trovare la chiave giusta al k-esimo tentativo è la stessa per ogni k e vale n Secondo modo: consideriamo un urna contenente n palline bianche e una rossa e di effettuare delle estrazioni senza rimpiazzo La probabilità richiesta è chiaramente la stessa che quella di estrarre la pallina rossa al k-esimo tentativo Abbiamo già visto (Esempio 3 che questa probabilità non dipende da k e che vale n I due modi in cui abbiamo risolto questo esercizio sono abbastanza diversi Mentre il secondo usa una tecnica tipica del calcolo combinatorio, il primo fa ricorso alla nozione di funzione di ripartizione di una va con un metodo di calcolo che useremo spesso nel seguito (per calcolare la legge di una va si determina prima la fr, per poi usare la ( o formule = n

23 Esercizio 7 3 simili Il primo metodo è certo più semplice ed è tipico soprattutto (ma non solo per va che, come in questo caso, rappresentano tempi d attesa 7 a Indichiamo con A, B e C rispettivamente gli eventi il pezzo proviene dalla linea A, proviene dalla linea B e il pezzo è difettoso I dati del problema ci permettono di affermare che P(A = 3, P(B = 7, P(C A =, P(C B = 7 Inoltre gli eventi A e B costituiscono una partizione dell evento certo (sono disgiunti e la somma delle loro probabilità vale Dunque per la formula delle probabilità totali (, P(C = P(C AP(A + P(C BP(B = = 5 b Se consideriamo una scatola contenente pezzi provenienti dalla linea A, allora ciascuno di essi può essere difettoso con probabilità Possiamo inoltre supporre che ogni pezzo sia difettoso oppure no indipendentemente dagli altri Dunque il numero di pezzi difettosi in una scatola di proveniente dalla linea A si modellizza con una va di legge binomiale B(, Analogamente se la scatola proviene dalla linea B il numero di pezzi difettosi seguirà una legge B(, 7 Se ora indichiamo con C l evento nella scatola vi è (esattamente un pezzo difettoso, allora avremo ( P(C A = 9 9 = 9 9 = 39 P(C B = ( = = 3 La probabilità che un pezzo difettoso provenga dalla linea A non è altro che la probabilità condizionale P(A C Per calcolarla si usa la formula di Bayes: P(A C = P(C AP(A P(C Nella frazione a destra nella formula precedente conosciamo tutte le quantità che intervengono tranne P(C Il calcolo di questa probabilità è però facile, sempre usando la formula delle probabilità totali (: P(C = P(C AP(A + P(C BP(B = = 34 Dunque Allo stesso modo P(A C = P(B C = P(C BP(B P(C = = = 657

24 4 Parte : soluzioni È quindi più probabile che la scatola provenga dalla linea B 8 a La probabilità vale 5 4 (è un caso particolare dell Esempio 3: è come se facessimo delle estrazioni senza rimpiazzo da un urna con 4 palline rosse e 48 nere, la probabilità di estrarre una pallina rossa alla k-esima estrazione è la stessa che alla prima estrazione b Indichiamo con T il numero di carte necessario per ottenere il primo asso: dobbiamo calcolare la legge di T Come abbiamo visto uno dei metodi possibili consiste nel calcolo preliminare della fr oppure della funzione di sopravvivenza k P(T > k È questo spesso il caso quando, come ora, si ha a che fare con va che rappresentano tempi di attesa Ora l evento {T > k} corrisponde al fatto che siano state girate k carte ottenendone dal gruppo dei 4 assi e k dal gruppo delle altre 48 Possiamo quindi applicare la distribuzione ipergeometrica che dà ( 4 48 P(T > k = ( k e sviluppando i coefficienti binomiali p k = P(T = k = P(T > k P(T > k = = 48! ( (5 k +! (5 k! = 48! ( (5 k +! (5 k!(48 k + = 5! (48 k +! (48 k! 5! (48 k +! = 48! ( (5 k![(5 k + (48 k + ] = 4 48! (5 k! 5! (48 k +! 5! (48 k +! Per vedere per quali valori di k p k è massima basta osservare che per ogni valore di k si ha e dunque la probabilità è massima per k = ( 5 k p k = 5 k p k+ 49 k 9 Un attimo di riflessione mostra che la probabilità che tra le 4 figurine acquistate ve ne siano esattamente k di quelle già possedute è la stessa che la probabilità che in un estrazione senza rimpiazzo da un urna contenente 6 palline di un tipo (corrispondenti alle figurine già possedute e 4 di un altro, su 4 palline estratte ve ne siano k del primo tipo La probabilità di questo evento è data dalla distribuzione ipergeometrica e vale ( 6 ( 4 k 4 k ( 4 Dunque la probabilità richiesta è ( 4 6 ( 4 k 4 k ( k= 4

25 Esercizio 5 e con un calcolo numerico si ottiene il valore 594 = 594% Il numero medio di nuove figurine non è altro che la speranza matematica E(X della va X = numero di nuove figurine La speranza matematica di una va di legge ipergeometrica è calcolata nell Esempio 39 ed è uguale al numero di tentativi (qui sono 4 per la probabilità di successo in un singolo tentativo (= 4 = 5 ovvero E(X = 48 5 = 96 a Supponiamo per semplicità i = (per valori di i diversi da procedimento e risultato sono identici Si tratta di calcolare P(X = S n = r = P(X =, S n = r P(S n = r Se r = si vede subito che la probabilità condizionale vale, perché S n X e quindi gli eventi {X = } e {S n = } hanno intersezione vuota Altrimenti sappiamo già che il denominatore vale ( n r p r ( p n r, poiché S n è binomiale B(n, p Per il numeratore invece P(X =, S n = r = P(X =, X + + X n = r = = P(X =, X + + X n = r = P(X = P(X + + X n = r = ( ( n n = p p r ( p n r = p r ( p n r r r e dunque P(X = S n = r = ( n r ( n r = r n La legge condizionale di X dato S n = r è di Bernoulli B(, n r (e non dipende da p! b Sfruttiamo la stessa idea del punto a Se r k abbiamo P(S m = k, S n = r = P(S m = k, S m + X m+ + + X n = r = = P(S m = k, X m+ + + X n = r k = P(S m = kp(x m+ + + X n = r k = ( ( ( ( m n m m n m = p k ( p m k p r k ( p n m r+k = p r ( p n r k r k k r k Quindi P(S m = k S n = r = se k > r mentre se k r P(S m = k S n = r = P(S m = k, S n = r P(S n = r ( m n m = k( r k ( n r Riconosciamo una distribuzione ipergeometrica: P(S m = k S n = r è uguale alla probabilità di estrarre k palline di tipo da un urna contenente m palline di tipo e n m di tipo in r estrazioni senza rimpiazzo Osserviamo ancora che la legge condizionale ottenuta non dipende

26 6 Parte : soluzioni da p Ricordando il valore della media delle va ipergeometriche si ha immediatamente che la media della legge condizionale di S m sapendo che S n = r vale rm n a Il numero totale di telefonate ricevute dai due centralini è X + Y ed ha legge di Poisson di parametro λ + µ = 6, per la regola della somma di va indipendenti di Poisson (Esempio 8 Dunque la probabilità richiesta è P(X + Y 3 = e 6( = 5 6 b Se indichiamo con p X X+Y ( n la probabilità condizionale di X dato X + Y = n, allora, se k n, = p X X+Y (k n = P(X = kp(y = n k P(X + Y = n P(X = k, X + Y = n P(X + Y = n = λk µn k e λ k! e µ (n k! e (λ+µ (λ+µ n n! P(X = k, Y = n k = = P(X + Y = n ( n ( λ = k λ + µ k ( µ n k λ + µ λ nλ La legge condizionale è dunque binomiale B(n, λ+µ La sua media è uguale a λ+µ c Per il punto precedente la probabilità richiesta vale ( 8 ( k ( 8 k p k := k 3 3 Per determinare il valore di k per cui questa quantità è massima studiamo per quali valori di k si ha p k+ p k Poiché p k+ dallo studio della disuguaglianza si ha che = 8 k p k k + p k+ p k è { > per k =, = per k = < per k = 3, 4, Se ne deduce che il massimo valore di p k si raggiunge per k = oppure k = 3 d La retta di regressione di X rispetto a X + Y è x = az + b dove Ora a = Cov(X, X + Y, b = E(X ae(y Var(X + Y Cov(X, X + Y = Cov(X, X + Cov(X, Y = Cov(X, X = Var(X = λ }{{} =

27 Esercizio 7 mentre Var(X + Y = λ + µ Dunque a = λ λ + µ b = λ λ (λ + µ = λ + µ La retta dunque è x = λ λ+µ z Se X e Y sono va indipendenti e a valori discreti, la legge congiunta di X e X + Y si calcola sempre con facilità, come in questo esercizio, usando la relazione P(X = k, X + Y = n = P(X = k, Y = n k = P(X = kp(y = n k a Se indichiamo con X il numero di palline rosse estratte dalla prima urna, allora naturalmente X B(n, p D altra parte, se indichiamo con A l evento la pallina estratta (dalla seconda urna è rossa allora naturalmente P(A X = k = k n perché se X = k, ciò vuol dire che nella seconda urna vi sono k palline rosse su un totale di n Possiamo ora usare la formula delle probabilità totali: P(A = n P(A X = kp(x = k = k= = n k= n k= n ( n k p k ( p n k = p, k ( k n p k ( p n k = n k dove abbiamo riconosciuto nella somma la speranza matematica di una va B(n, p b Si tratta di calcolare P(X = k A = P(A X = kp(x = k P(A Vediamo subito che la probabilità condizionale vale per k = mentre se k =,, n P(X = k A = p k n ( n p k ( p n k = k ( n p k ( p n k k La media della legge condizionale di X sapendo che A si è verificato è E(X A = n ( n k p k ( p n k k k=

28 8 Parte : soluzioni Per calcolare questa somma conviene cercare di ricondursi alla somma che dà la speranza matematica delle leggi binomiali; sostituendo i = k si ha n ( n E(X A = (i + p i ( p n i = i i= n ( n n ( n = i p i ( p n i + p i ( p n i = (n p + i i i= i= }{{}}{{} =media di una B(n,p=(n p = 3 a X non è altro che l istante di primo successo in uno schema di prove ripetute indipendenti, nelle quali ad ogni prova si ha successo con probabilità 6 Sappiamo quindi che X è una va geometrica modificata di parametro p = 6, ovvero P(X = k = ( 5 k k =,, 6 6 Per lo stesso motivo Y è una va geometrica modificata di parametro 6 = 3 Sappiamo che una va geometrica modificata di parametro p ha speranza matematica p (Esempi 38; dunque E(X = 6, E(Y = 3 b Per calcolare la densità discreta di Z conviene calcolarne prima la fr Poniamo per semplicità p = 6 e q = 3 Allora, poiché X e Y sono indipendenti, P(Z k = P(max(X, Y k = P(X k, Y k = k k = P(X kp(y k = p( p i q( q i = = p ( pk ( p i= i= q ( qk ( q = ( ( pk ( ( q k per k =,, Dunque la densità di Z, sempre per k =,,, è data da Infine P(Z = k = P(Z k P(Z k = = ( ( p k ( ( q k ( ( p k ( ( q k = = ( p k ( q k + [( p( q] k + k= + ( p k + ( q k [( p( q] k = = p( p k + q( q k (p + q pq[( p( q ] k }{{} = p q+pq k= E(Z = kp(z = k = k= = kp( p k + kq( q k k(p + q pq( p q + pq k k=

29 Esercizio 4 9 Riconosciamo però nella prima serie la speranza matematica di X, cioè p = 6 Per lo stesso motivo la somma della seconda serie vale q = 3 e quella della terza p+q pq = 4 9 Dunque E(Z = = 7 4 c Usiamo il metodo della partizione dell evento certo: gli eventi {Y = i}, al variare di i =,,, sono disgiunti e la loro unione ha probabilità, dunque P(X Y = P(X Y, Y = i = P(X i, Y = i = P(X ip(y = i D altra parte e quindi i= P(X i = i= i= i= p( p k = ( p i k=i P(X Y = ( p i q( q i = q [( p( q] i = = i= q ( p( q = q p + q pq e sostituendo i valori p = 6, q = 3 si ottiene P(X Y = a Fissiamo una lettera i e consideriamo l evento A i = la lettera i viene usata La probabilità che la lettera i non venga usata come prima lettera della parola è n n = n Poiché le apparizioni di una lettera nelle posizioni successive della parola sono indipendenti, la probabilità che la lettera non venga mai usata sarà ( n k Dunque Se k = n allora P(A i = ( n k P(A i = ( n n e n b Poniamo { se la lettera i-esima viene utilizzata X i = altrimenti Il numero X di lettere utilizzate è dunque X = X + + X n e il numero medio richiesto è E(X = E(X + + E(X n D altra parte le va X,, X n sono di Bernoulli e {X i = } = A i, dove gli eventi A i sono quelli definiti nel punto a Sono dunque B(, p con p = P(A i = ( n k Dunque E(X i = ( n k e E(X = n ( ( n k

30 3 Parte : soluzioni Per n =, k = si ha E(X = 84; per n =, k = 5 si ha E(X = 97 Se la probabilità di apparizione della lettera i è p i, allora la probabilità che la lettera i-esima venga utilizzata diviene P(A i = ( p i k e dunque anche E(X i = ( p i k, per cui E(X = n ( ( p i k i= Con i dati numerici assegnati la somma vale 7 ( ( ( ( ( ( = a Poniamo { se lo i-esimo assicurato deve essere indennizzato Z i = altrimenti Allora il numero totale di indennizzi nel corso del primo anno si modellizza con la va X = Z + + Z N Poiché le va Z i sono indipendenti si ha X B(N, p Ma se N è grande e p piccolo, la legge di X si può approssimare con una legge di Poisson di parametro λ = Np Ripetendo lo stesso ragionamento si vede che anche Y è di Poisson di parametro λ Poiché si suppone Y indipendente da X, allora Z = X + Y è di Poisson di parametro λ Calcoliamo la legge congiunta di X e Z: se k m P(X = k, Z = m = P(X = k, Y = m k = P(X = kp(y = m k = λ λk λ m k = e k! e λ (m k! = λ m e λ k!(m k! mentre naturalmente P(X = k, Z = m = se m < k oppure k < b La compagnia incassa ogni anno un ammontare pari a 4 5 pni e paga in indennizzi X I Quindi in media il beneficio è 5 4 pni I E(X = 5 4 pni pni = 4 pni c La probabilità richiesta si esprime, in termini delle va X e Z come P({X > } {Z > 3} = P(X, Z 3 = = P(X =, Z = P(X =, Z = P(X =, Z = P(X =, Z = + P(X =, Z = P(X =, Z = P(X =, Z = 3+ P(X =, Z = 3 P(X =, Z = 3 = = e λ( + λ( + + λ ( λ 3 ( 6 + +

31 Esercizio 6 3 Sostituendo il valore λ = Np = si ottiene che la probabilità richiesta vale 65 6 a Dire che il programma deve accedere all unità significa dire che tra le 4 registrazioni che gli sono necessarie ce n è almeno una che si trova nel disco Se indichiamo con Z il numero di file necessari all esecuzione del programma che si trovano nell unità, si riconosce facilmente che Z segue una distribuzione ipergeometrica e in particolare, osservando che i file in totale sono 3 di cui nell unità, che P(Z = i = ( ( 9 i 4 i ( 3 4 i =,, 4 La probabilità che l unità sia necessaria all esecuzione del programma vale quindi (3 p = P(Z > = P(Z = = = ( ( 9 4 ( = 745 = b Se Z indica il numero di file necessari che si trovano nell unità oppure nell unità, ripetendo il ragionamento del punto a, Z segue anch essa una distribuzione ipergeometrica, solo che ora considereremo i 3 file suddivisi nelle due classi formate dalle registrazioni che si trovano in una delle prime due unità disco e dalle altre 8 Dunque P(Z = i = ( ( 8 i 4 i ( 3 4 i =,, 4 e la probabilità che una delle prime due unità sia necessaria vale ora (4 w = P(Z > = P(Z = = = ( ( 8 4 ( = 938 = Se indichiamo con A l evento l unità è necessaria e con A l analogo evento per l unità, abbiamo appena calcolato P(A A, mentre la probabilità che entrambe le unità siano necessarie è P(A A ; ma dalla formula della probabilità della unione di due eventi otteniamo P(A A = P(A + P(A P(A A = = 55 c Le va Y i sono di Bernoulli (prendono solo i valori e di parametro p = P(Y i = = 745, calcolato in a L intuizione vorrebbe che le va Y i non siano indipendenti, perché se, ad esempio, fosse Y = ciò vorrebbe dire che almeno una delle registrazioni si trova nell unità e ciò rende minore la probabilità che siano necessarie le altre unità Per rendere rigorosa questa intuizione calcoliamo il coefficiente di correlazione: se esso risulterà diverso da ciò

32 3 Parte : soluzioni implicherà che le va Y i, i =,, 4 sono correlate e quindi non sono indipendenti e neanche indipendenti a due a due Il coefficiente di correlazione di Y e Y è per definizione Y,Y = Cov(Y, Y Var(Y Var(Y = E(Y Y E(Y E(Y Var(Y Var(Y Sappiamo già che Var(Y = Var(Y = p( p ed inoltre che E(Y E(Y = p, poiché Y e Y sono entrambe B(, p Resta da calcolare E(Y Y Ma anche la va Y Y è di Bernoulli, poiché anch essa può prendere solo i valori oppure Resta dunque da calcolare P(Y Y = = P(Y =, Y = Ma quest ultima non è altro che la probabilità che sia l unità che la siano necessarie per l esecuzione del programma e dunque vale 55 per il punto b In conclusione Y,Y = = 6 che conferma l intuizione iniziale di una correlazione negativa tra le variabili Inoltre il valore del coefficiente di correlazione, vicino a, indica che la dipendenza tra le variabili è abbastanza piccola d Il calcolo della media di X secondo la definizione di speranza matematica richiederebbe preliminarmente il calcolo della legge di X, che è abbastanza complicato Si può però osservare che X = Y + + Y 3 e dunque E(X = E(Y + + E(Y 3 (la speranza matematica di una somma di va è sempre uguale alla somma delle speranze matematiche, anche se le va non sono indipendenti Inoltre, poiché le Y i sono tutte di Bernoulli B(, p con p = 745, E(X = 3 p = 35 Questo esercizio usa alcune idee di cui ci serviamo ripetutamente Ci limitiamo a segnalare il modo di calcolare la speranza matematica di una va X scrivendo che essa è uguale alla somma X + + X n, dove X,, X n sono va di cui è facile calcolare la speranza matematica Talvolta questa idea è fondamentale: il calcolo della legge di X, necessario per applicare la definizione di speranza matematica, può risultare molto complicato 7 a Converrà fare i calcoli scrivendo n al posto di 9 La probabilità che alla k-esima estrazione si ottenga la pallina i-esima è naturalmente uguale a n (Esempio 3 In particolare, scegliendo k = i si ha P(A i = n Per studiare l indipendenza degli eventi A i, i =,, n, conviene costruire esplicitamente uno spazio di probabilità Una scelta naturale può essere quella di porre =insieme delle permutazioni di n elementi Con questo modello si ha A i = {ω, ω i = i}, cioè A i corrisponde all insieme delle permutazioni che lasciano i allo i-esimo posto Ora A A = {ω, ω =, ω = } e dunque A A ha cardinalità (n! (la cardinalità delle permutazioni che lasciano fissi e è la stessa che la cardinalità delle permutazioni di {3,, n} Dunque P(A A = (n! n! = n(n,

33 Esercizio 7 33 mentre sappiamo che P(A P(A = Dunque gli eventi A n i, i =,, n non sono a due a due indipendenti e quindi neppure indipendenti b Poniamo { se si ha coincidenza alla i-esima estrazione X i = altrimenti Allora X = X + + X n ed inoltre le va X i sono di Bernoulli di parametro p = P(X i = = P(A i = n Per la proprietà di additività della speranza matematica E(X = E(X + + E(X n = n n = Dunque il numero medio di coincidenze è qualunque sia il numero di palline nell urna c Sempre con le notazioni del punto b, per la formula della varianza della somma di va abbiamo (5 Var(X = n Var(X i + i= n i,j= i j Cov(X i, X j Sappiamo già che Var(X i = n ( n, perché le va X i sono di Bernoulli di parametro p = n ; resta da calcolare Cov(X i, X j = E(X i X j E(X i E(X j Quanto vale E(X i X j? La va X i X j è di Bernoulli di parametro p = P(X i X j = = P(X i =, X j = ; ma {X i =, X j = } = A i A j dove gli eventi A i, i =,, n sono definiti in a Per motivi di simmetria la probabilità di questi eventi non dipende da i, j (purché i j e sappiamo, dal punto a, che scegliendo i =, j =, P(X =, X = = P(A A = n(n per cui Cov(X i, X j = Cov(X, X = n(n n Infine osserviamo che nella prima somma della (5 vi sono n termini, mentre nella seconda n(n Dunque Var(X = n ( ( + n(n n n n(n n = Anche la varianza del numero di coincidenze è uguale a e non dipende dal numero di palline Anche qui l idea di scrivere X come somma delle X i per calcolare la speranza matematica è fondamentale Il calcolo della legge del numero di coincidenze X, che è abbastanza importante in combinatoria, è in effetti possibile ma non facile Paolo Baldi Calcolo delle Probabilità McGraw-Hill

34 34 Parte : soluzioni 8 a Definiamo i seguenti eventi: A = {viene scelta l urna A} B = {viene scelta l urna B} R i = {alla i-esima estrazione si ottiene una pallina rossa} N i = {alla i-esima estrazione si ottiene una pallina nera} Osserviamo che gli eventi A e B costituiscono una partizione dell evento certo Dunque la probabilità richiesta vale P(R = P(R A + P(R B = P(R AP(A + P(R BP(B Per come il problema è stato posto è chiaro che deve essere P(R A =, P(R B = r n, P(A = P(B = e dunque P(R = + r n = ( + r n b Indichiamo con C l evento le prime due estrazioni danno palline di colori diversi La probabilità che in due estrazioni dall urna A si ottengano una pallina rossa e una nera è chiaramente Invece il numero di palline rosse estratte dall urna B in due estrazioni segue una legge binomiale B(, n r Dunque P(C A = ( r ( P(C B = r r(n r = n n n r(n r P(C = P(C AP(A + P(C BP(B = n c Indichiamo con T la va tempo d attesa della prima estrazione di una pallina rossa Dobbiamo calcolare la speranza matematica di T e per farlo calcoliamone prima la legge Ora, sempre con la formula delle probabilità totali (, P(T = k = P(T = k AP(A + P(T = k BP(B Ma, poiché l urna A contiene solo palline rosse, P(T = k A = { se k = altrimenti mentre P(T = k B = { p( p k se k =,, altrimenti

35 Esercizio 9 35 dove abbiamo posto p = r n e dunque E(T = kp(t = k = k ( P(T = k AP(A + P(T = k BP(B = k= = + k= k= kp( p k = ( + = ( + n p r dove abbiamo riconosciuto nell ultima serie la speranza matematica di una legge geometrica modificata, che vale appunto p d Poniamo E k = R R k E k è l evento le prime k estrazioni hanno dato tutte palline rosse La probabilità richiesta non è altro che P(A E k Per la formula di Bayes P(A E k = P(E k AP(A P(E k Ora P(E k A = mentre P(A = Resta da calcolare P(E k Ancora la formula delle probabilità totali ( dà P(E k = P(E k A P(A + P(E }{{} k BP(B = Ma se l urna prescelta è la B il numero di palline rosse estratte segue una legge binomiale B(k, n r Dunque P(E k B = P(R B P(R k B = ( n r k e in conclusione P(E k = ( + ( r n k e Per n =, r = 4 P(A E k = P(A E k = + ( r n k + 3 k e dopo qualche manipolazione algebrica si vede che perché sia deve essere 3 k 99 e cioè k k 9 a Poniamo { se la i-esima pallina finisce nella scatola X i = altrimenti

36 36 Parte : soluzioni La probabilità che una singola pallina finisca nella scatola vale r poiché, per come il problema è posto, possiamo supporre che tutte le scatole abbiano la stessa probabilità di essere scelte Dunque P(X i = = r e cioè X i B(, r Inoltre le va X,, X n si possono supporre indipendenti Il numero di palline finite nella scatola è dunque Y = X + + X n ; se ne ricava che Y è binomiale B(n, r per cui la probabilità richiesta vale P(Y = i = ( n i ( r i ( r n i b Indichiamo con Y, Y, Y 3 il numero di palline che finiscono rispettivamente nella scatola, nella e in una qualunque delle scatole dalla 3 alla r Allora la loro legge congiunta è multinomiale di parametri r, r, r rispettivamente Quindi P(Y = i, Y = j = n! i ( j ( i!j!(n i j!( n i j r r r a Indichiamo con A l evento il messaggio proviene dalla sorgente A e naturalmente con B l evento il messaggio proviene dalla sorgente B Indichiamo con C l evento un messaggio di lunghezza contiene 4 bit uguali a Si richiede di calcolare P(A C Per la formula di Bayes (6 P(A C = P(C AP(A P(C Se il messaggio proviene dalla sorgente A, allora il numero di bit uguali a segue una legge binomiale B(n, Dunque ( P(C A = 4 Invece se esso proviene dalla sorgente B il numero di bit uguali a seguirà una legge B(n, 4 Dunque ( ( 4 ( 3 6 P(C B = Per il calcolo di P(C useremo la formula delle probabilità totali: = ( 4 P(C = P(C AP(A + P(C BP(B = ( ( 4 ( 3 ( 6 = e dunque, riprendendo la (6, P(A C = = ( + 36

37 Esercizio 37 Poiché P(B C = P(A C = 46, la sorgente A è la più probabile Se fosse n =, la (6 resta valida, ma ora ( P(C A = 4 ( ( 4 ( 3 6 P(C B = per cui e quindi = ( 4 + P(C = P(C AP(A + P(C BP(B = ( ( 4 ( 3 ( 6 = P(A C = = ( + 36 e la sorgente A è di gran lunga la più probabile b Basta ripetere i calcoli del punto a sostituendo P(A = 3, P(B = 7 Quindi P(C = P(C AP(A + P(C BP(B = 3 Sostituendo nella (6 e semplificando mentre per n = P(A C = P(C AP(A P(C P(A C = P(C AP(A P(C ( = = = = ( ( 4 ( Quindi per n = la sorgente A resta la più probabile, mentre per n = prevale il fatto che a priori la più probabile fosse B a La legge delle va X i è data da p = P(X i = = 4, p = P(X i = =, p = P(X i = = 4 mentre p k = P(X i = k = per gli altri valori di k La funzione generatrice delle probabilità di X i vale dunque ψ(t = 4 + t + t 4 = ( + t

38 38 Parte : soluzioni b Per il calcolo della legge della somma di va indipendenti tra i metodi possibili c è l uso delle funzioni generatrici delle probabilità, che in questo caso sembra praticabile, visto che la fgp calcolata nel punto precedente ha un espressione semplice Poiché si tratta di va indipendenti, la fgp ψ n di X + + X n vale ( ψ n (t = ψ(t n = + t n Per calcolare la densità di X + + X n non resta che sviluppare la funzione ψ n (t con la regola del binomio ψ n (t = n k= ( n ( t k ( n k n ( n = k k k= tk n per cui P(X + + X n = k = ( n k L osservatore acuto avrebbe anche potuto n riconoscere che la funzione generatrice delle probabilità di X i è quella di una va binomiale B(, Dunque X i B(, e X + +X n B(n, a Consideriamo le va { se lo i-esimo lancio dà testa X i = se dà croce Le X i hanno tutte legge di Bernoulli B(, p e le va N, X, X, possono essere considerate indipendenti Il numero di teste ottenute si modellizza quindi mediante la somma aleatoria X = X + + X N, con l intesa che X = se N = Per calcolare la legge di X possiamo prima calcolarne la funzione generatrice delle probabilità ψ Quest ultima è data dalla formula ψ(t = ψ N (ψ Xi (t (vedi la Proposizione 6 dove ψ N e ψ Xi indicano le funzioni generatrici di N e di X i rispettivamente Ricordando l espressione delle funzioni generatrici delle probabilità delle leggi di Poisson e di Bernoulli si ha ψ N (z = e λ(z e ψ Xi (t = p + pt Dunque ψ(t = e λ(pt+ p = e λp(t Riconosciamo qui la funzione generatrice delle probabilità di una legge di Poisson di parametro λp, che è quindi la legge cercata Per lo stesso motivo Y è di Poisson di parametro λ( p In realtà il calcolo appena fatto era già stato sviluppato nell Esempio 63 Lo stesso risultato si può ottenere senza l uso delle fg, come nell Esempio 3 b Come al solito la prova dell indipendenza di X e Y si riconduce al calcolo delle loro leggi congiunte Poiché X + Y = N, si ha {X = k, Y = m} = {X = k, N = m + k} e P(X = k, Y = m} = P(X = k, N = m + k = P(X + + X m+k = k, N = m + k

39 Esercizio 3 39 Ma le va N, X, X, sono indipendenti e X + + X m+k B(m + k, p, quindi P(X = k, Y = m = P(X + + X m+k = kp(n = m + k = ( m + k = p k ( p m e λ λ m+k (pλk λ( p (( pλm = e λp e = k (m + k! k! m! = P(X = kp(y = m e quindi X e Y sono indipendenti In realtà volendo essere precisi il calcolo precedente vale solo quando uno almeno tra i numeri k e m è > Se entrambi sono nulli il calcolo è comunque immediato, tenendo conto del punto a: P(X =, Y = = P(N = = e λ P(X = P(Y = = e λp e λ( p = e λ 3 a Consideriamo, per cominciare, il caso k = e poniamo { se lo i-esimo errore non viene individuato (7 Z i = altrimenti per i =,, N È chiaro che il numero di errori rimasti dopo il passaggio del primo revisore è X = Z + +Z N Poiché, per la natura del problema, si possono supporre le va Z,, Z N indipendenti ed inoltre P(Z i = = p, si vede subito che X B(N, p Per studiare la legge di X, si può osservare che X è ancora una somma di va Z i come nella (7, solo che ora l indice i varia tra e X (numero di errori rimasti Ovvero X = Z + +Z X Poiché possiamo supporre le va Z i e X indipendenti, sappiamo (Proposizione 6 che la funzione generatrice delle probabilità ψ X è data da ψ X (t = ψ X (ψ Z (t = (p + ( p (p + ( pt N = }{{} fgp di Z = (p( p + ( p t N = ( ( p + ( p t N Si riconosce quindi che X è binomiale B(N, ( p Ciò suggerisce che la va X k abbia legge B(N, ( p k La verifica rigorosa di questo fatto si può fare per ricorrenza: se X k B(N, ( p k, allora X k+ = Z + + Z Xk e dunque ψ Xk+ (t = ψ Xk (ψ Z (t = ( ( p k + ( p k (p + ( pt N = = ( ( p k+ + ( p k+ t N che è appunto la funzione generatrice delle probabilità di una va B(N, ( p k+ La probabilità che dopo il lavoro di k revisori restino ancora degli errori è P(X k > = P(X k = = ( ( p k N

40 4 Parte : soluzioni b Se supponiamo che il numero N di errori sia a sua volta aleatorio il ragionamento è simile a quello appena visto: il numero di errori rimasti dopo il lavoro del primo revisore è X = Z + + Z N Poiché la funzione generatrice delle probabilità di N è ψ(z = e λ(z, quella di X è ψ X (t = ψ N (ψ Z (t = e λ((p+( pt = e λ( p(t e quindi X è di Poisson di parametro λ( p Analogamente la funzione generatrice delle probabilità di X = Z + + Z X sarà ψ X (t = ψ X (ψ Z (t = e λ( p((p+( pt = e λ( p (t per cui X è di Poisson di parametro λ( p Per ricorrenza, come nel punto a si vede che X k è di Poisson di parametro λ( p k Con i valori numerici assegnati X 3 segue una legge di Poisson di parametro λ( p 3 = 3 3 = 3 Dunque la probabilità che restino degli errori è P(X 3 > = P(X 3 = = e 3 = 59 = 59% Il numero medio di errori rimasti è E(X 3 = λ( p 3 = 3 4 Perché una funzione g sia la funzione generatrice di qualche va X occorre che siano soddisfatte alcune proprietà: essa deve intanto essere sviluppabile in serie di potenze con un intervallo di convergenza che deve contenere [, ] Inoltre tutti i coefficientip k dello sviluppo devono essere, poiché deve essere p k = P(X = k; infine deve essere g( =, perché g( = k= p k = Da quest ultima condizione si vede che c, se esiste, deve essere uguale a (log = (log Per questo valore di c si ha, ricordando lo sviluppo in serie di potenze della funzione z log( z, g(z = n n log zn n= e g è dunque realmente una funzione generatrice (tutti i coefficienti dello sviluppo sono Se X è una va avente funzione generatrice g, allora P(X = n = n n log La media di X si calcola facilmente osservando che g è derivabile in z = e E(X = g ( = = ( z log z= log

41 Esercizio a La va X prende i suoi valori, con probabilità, nell intervallo [, ]: infatti P( X = F( F( = b La fr F è derivabile a tratti con derivata continua Dunque X ha densità che si ottiene derivando la fr La densità è dunque data da 5 t se t 5 f (t = 5 t + 5 se 5 t altrimenti La densità f è lineare a tratti ed il suo grafico è dato dalla Figura 3 Figura c La simmetria del grafico della densità di X suggerisce immediatamente il valore di E(X Ad ogni modo il calcolo dà E(X = + tf (t dt = 5 5 t dt + 5 ( 5 t + t dt = 5 = = 5 3 a Calcoliamo la fr di Z = X ; poiché la densità di X è > solo per t >, si ha F Z (t = per t, mentre per t > essa vale P(X t = P(X t = t x θ e x /θ dx = e x /θ t = e t/θ Riconosciamo la fr di una legge esponenziale di parametro θ b Calcoliamo la fr di W ; sfrutteremo il fatto che conosciamo già la fr di X Intanto osserviamo che, poiché X è a valori positivi, W prenderà valori tra e Se < t < P(e X /θ t = P(X θ log t = e (θ log t/θ = t Dunque W è uniforme su [, ] Da notare, in questo esercizio, il calcolo della densità di una va eseguito passando prima per il calcolo della fr: è un metodo semplice e che è possibile applicare in molti casi

42 4 Parte : soluzioni 33 a Si ha + f (x dx = c + e dunque, poiché l integrale deve valere, c = λr λ b Calcoliamo la fr di Y : se t > r x (λ+ dx = c λr λ P(Y t = P ( re t log X r t = P(X re t = λr λ x (λ+ dx = = λ( (e t r λ r λ λr λ = e λt Y è dunque esponenziale di parametro λ Un calcolo tipico che viene richiesto durante la soluzione di molti esercizi è il seguente: viene data una funzione nella forma k g(x e si richiede di determinare k in modo che x k g(x sia una densità di probabilità La costante k è sempre determinata dal fatto che l integrale della densità deve valere e dunque k = ( g(x dx r 34 Poiché la funzione tangente è monotona crescente nell intervallo ] π, π [, il calcolo della fr di Y è immediato: F Y (y = P(tan X y = P(X arctan y = P ( X ] π, arctan y] = π ( arctan y + π e derivando f Y (y = π ( + y 35 a Se indichiamo con T, T, T 3 i tempi di vita dei singoli elementi, è chiaro che T = min(t, T, T 3 Il punto a si riduce quindi al calcolo delle legge del minimo di tre va indipendenti di cui si conosce la legge Questo problema si può risolvere passando per il calcolo della fr F T di T, oppure, che è lo stesso, di F T Ricordando che la fr di una va esponenziale di parametro λ vale, se t >, si ha facilmente, per t >, t F(t = λ e λs ds = e λt F T (t = P(min(T, T, T 3 > t = P(T > t, T > t, T 3 > t = = P(T > tp(t > tp(t 3 > t = e λt e µt e γt = e (λ+µ+γt

43 Esercizio La va T ha quindi la stessa fr di una va esponenziale di parametro λ + µ + γ È quindi anch essa esponenziale con questo parametro e E(T = λ + µ + γ = 67 b Se T e W sono i tempi di vita di ognuno dei due componenti in parallelo, il tempo di vita del complesso formato dai due componenti non è altro che X = max(t, W Calcoliamo la fr G X di questa va Se t > G X (t = P(max(T, W t = P(T t, W t = P(T tp(w t = ( e (λ+µ+γt mentre G X (t = per t Da quest espressione si ricava per derivazione la densità g di X: g X (t = G X (t = (λ + µ + γe (λ+µ+γt ( e (λ+µ+γt se t >, mentre naturalmente g X (t = se t Infine E(X = + ( + t g X (t dt = (λ + µ + γ te (λ+µ+γt dt + te (λ+µ+γt dt = ( = (λ+µ+γ (λ + µ + γ ((λ + µ + γ = λ + µ + γ (λ + µ + γ = 49 c Possiamo ancora dire che il tempo T di vita del complesso della Figura 3 è uguale a min(t, T, T 3, dove però ora T è il tempo di vita del componente formato dai primi tre elementi in parallelo, T quello formato dal secondo elemento, T 3 quello formato dagli ultimi due in parallelo Ripetendo i ragionamenti del punto b per calcolare la legge del max di variabili aleatorie, si ricava facilmente P(T t = ( e λt 3, P(T t = e µt, P(T 3 t = ( e γt Ripercorrendo i metodi del punto a per calcolare la legge del min di va abbiamo P(T > t = P(T > t P(T > t P(T 3 > t = ( ( e λt 3 e µt ( ( e γt Dunque, sviluppando con un po di pazienza il quadrato e il cubo si ottiene che la funzione di ripartizione G di T è data da G(t = P(T > t = (3e λt 3e λt + e 3λt e µt (e γt e γt = = 6e (λ+µ+γt 6e (λ+µ+γt +e (3λ+µ+γt 3e (λ+µ+γt +3e (λ+µ+γt e (3λ+µ+γt e dunque la densità è g(t = G (t = 6(λ + µ + γe (λ+µ+γt 6(λ + µ + γe (λ+µ+γt + +(3λ + µ + γe (3λ+µ+γt 3(λ + µ + γe (λ+µ+γt + +3(λ + µ + γe (λ+µ+γt (3λ + µ + γe (3λ+µ+γt

44 44 Parte : soluzioni da cui, ricordando l espressione della speranza matematica di una legge esponenziale, = E(T = + g(t dt = 6 λ + µ + γ 6 λ + µ + γ + 3λ + µ + γ 3 λ + µ + γ + 3 λ + µ + γ 3λ + µ + γ Il calcolo numerico dà il risultato E(T = 36, sensibilmente migliore che nel caso b Da segnalare in questo esercizio il calcolo della legge del massimo di due va indipendenti effettuato determinandone prima la fr Per calcolare la densità del minimo invece si opera in maniera del tutto analoga usando piuttosto la funzione di sopravvivenza F 36 a E(X = + x x θ e x /θ dx = xe x /θ + + }{{} = + e x /θ dx L ultimo integrale si calcola con il cambio di variabile y = x θ in modo da ricondurlo a quello di e x / : + θ + θ e x /θ dx = e y / dy = + Per ottenere la varianza calcoliamo prima il momento del second ordine E(X = θ + x 3 e x /θ dx θ e y / dy = πθ π = L integrale si può fare per parti oppure con il cambio di variabile x = y riconducendolo a quello di una densità Ŵ(, θ : e quindi E(X = θ + b Una va Y è di Cauchy se ha densità ye y/θ dy = θ θ Ŵ( = θ Var(X = E(X E(X = θ ( π 4 f Y (y = π ( + y Perché Y abbia speranza matematica finita deve essere assolutamente convergente l integrale + y π ( + y dy

45 Esercizio L integrando però per y tende a zero in modulo come y e l integrale non è dunque assolutamente convergente Y quindi non ha speranza matematica finita c La speranza matematica è finita se e solo se è convergente l integrale + r x x (λ+ dx = e cioè se λ > Se λ > si trova immediatamente E(X = λr λ + r + r x λ dx x λ dx = λrλ λ x λ+ + = λr r λ Perché la varianza sia finita occorre invece che sia convergente anche l integrale + e cioè che sia λ > In questo caso si ha E(X = λr λ + e dunque la varianza vale r r x x (λ+ dx = + r x λ+ dx x λ+ dx = λrλ λ x λ+ + = λr r λ Var(X = E(X E(X = λr λ λ r (λ = λr (λ λ r (λ (λ (λ = = λr (λ (λ Per λ + la media tende a r, mentre la varianza converge a 37 Basta osservare che la va X Y = X + ( Y segue una legge N(, e dunque (X Y N(, Dunque P(X > Y = P(X Y > = P ( (X Y > = ( = mentre allo stesso modo P ( X > Y + ( ( = P X Y > = P (X Y > = ( = (35 = 36 = 38 Se il modello normale è valido, la probabilità che uno studente ottenga un voto superiore al 4 è pari a P(X 4, dove X N(, 9 Ma sappiamo che si può scrivere X = 3Z +, dove Z N(, Dunque P(X 4 = P(3Z + 4 = P ( Z 4 3 = P(Z = (

46 46 Parte : soluzioni dove indica la fr di una legge N(, Uno sguardo alle tavole dà il valore ( = 84 Dunque la probabilità richiesta è ( = 6 Allo stesso modo la probabilità che uno studente ottenga un voto 7 è P(X 7 = P(3Z + 7 = P ( Z 7 3 = (33 = 98 = 9 = P(Z 33 = ( 33 = La probabilità che uno studente non ottenga la sufficienza alla prova scritta è del 9% L argomento chiave di questo esercizio è il fatto che se X è N(µ, σ, allora si può scrivere X = σz + µ, dove Z N(, Questo metodo, che consiste nel ridursi sempre al caso di una legge N(,, è quello che conviene usare sempre per calcolare quantità legate alle leggi normali 39 La probabilità che un individuo abbia un altezza superiore ai 9 cm è P(X > 9 dove X N(75, 8 Ma sappiamo che si può scrivere X = 9Z + 75, dove Z N(, Dunque P(X > 9 = P ( Z > = P(Z > 5 3 = (67 dove è la fr di una va N(, Uno sguardo alle tavole dà (67 = 95 e dunque (67 = 5 La percentuale d italiani di statura > 9 cm sarebbe del 5% Allo stesso modo la probabilità che un italiano sia riformato alla visita di leva sarebbe P(X 53 = P ( Z Dunque la percentuale di reclute scartate sarebbe dello 8% = P ( Z 9 = ( 44 = 8 3 La probabilità che una bottiglia risulti insufficientemente riempita è P(X < 73 Osserviamo di nuovo che si può scrivere X = σz + µ con Z N(, Dunque P(X < 73 = P(σZ + µ < 73 = P ( Z < 73 µ σ Uno sguardo alle tavole ci informa che, perché questa probabilità sia inferiore a, occorre che sia 73 µ σ 88, ovvero µ 73 + σ 88 = 8 Se invece la varianza fosse σ = 4 si otterrebbe µ a k deve essere scelto in modo che l integrale di f valga, cioè deve essere uguale all inverso di + x 3 e x/ dx In questo caso però basta riconoscere che f è una densità Ŵ(4, e dunque k = 4 Ŵ(4 = 4 3! b X + Y ha legge Ŵ(8,, per la regola della somma di due va Gamma indipendenti Sappiamo inoltre che in generale la va ax ha densità f ax (x = a f ( x a

47 Esercizio 3 47 Dunque nel nostro caso ovvero X è Ŵ(4, 4 f X (x = f ( x x 3 X = k 4 e x/4 3 a La fr si calcola con il cambio di variabile s α = u, αs α ds = du: se t > F(t = t λαs α e λsα ds = t α λe λu du = e λtα Per mostrare che f è una densità occorre calcolarne l integrale e mostrare che esso vale Ma, poiché già abbiamo calcolato la fr, basta osservare che + f (s ds = lim t + t f (s ds = lim t + F(t = b Se X è esponenziale di parametro λ, ricordando i valori delle costanti per le leggi Gamma, si ha + E(X β = λ t β e λt λŵ(β + Ŵ(β + dt = λ β+ = λ β Per calcolare la legge di X β usiamo il solito metodo della funzione di ripartizione: se G è la fr di X β allora, per t >, G(t = P(X β t = P(X t /β = e λt/β da cui si vede che X β è di Weibull di parametri λ e α = β (ha la stessa fr Dunque una va Y di Weibull di parametri λ e α è della forma X /α, dove X è esponenziale di parametro λ; essa ha dunque media E(Y = E(X /α = Ŵ( + α λ /α Per la varianza, evidentemente e E(Y = E(X /α = Ŵ( + α λ /α Var(Y = E(Y E(Y = Ŵ( + α Ŵ( + α λ /α c Basta osservare che Ŵ(+t Ŵ(+t è la varianza di una va di Weibull di parametri λ = e α = t e quindi si tratta di una quantità positiva d Per simulare una va di Weibull di parametri α, λ basta dunque simulare una va esponenziale Y di parametro λ e poi porre X = Y /α In maniera equivalente si può anche ricordare da a (o dall Esempio 348 che la funzione di ripartizione di una va di Weibull è F(t = e λ tα, t >,

48 48 Parte : soluzioni È facile ora vedere che, per y >, si ha F (y = ( /α λ log( y La funzione di ripartizione in questo caso è quindi invertibile e quindi, come indicato a pag4, basta porre X = F (Z, dove Z è uniforme su [, ] 33 a Sappiamo che se X N(µ, σ allora Z = X µ N(, σ Sappiamo però che i momenti di ordine dispari delle leggi normali centrate sono tutti nulli, quindi E((X µ 3 = E(Z 3 = e dunque γ = In effetti in questo calcolo abbiamo utilizzato unicamente il fatto che le va normali hanno una legge che è simmetrica rispetto alla media, cioè sono tali che X µ e (X µ hanno la stessa legge Per tutte le va con questa proprietà si ha E[(X µ 3 ] = E[ (X µ 3 ] = E[(X µ 3 ] per cui E((X µ 3 = e γ = Tutte le va simmetriche intorno alla media (cioè tali che X µ e (X µ hanno la stessa legge hanno dunque indice di skewness = b Ricordiamo che per una va X Ŵ(α, λ il momento di ordine k vale E(X k = ovvero per i primi tre momenti: Ŵ(α + k λ k Ŵ(α E(X = α λ, E(X = Sviluppando il binomio di terzo grado (qui µ = α λ = (α + k (α + k α λ k α(α +, λ E(X 3 α(α + (α + = λ 3 E((X µ 3 = E(X 3 3E(X µ + 3E(Xµ µ 3 = = λ 3 ( α(α + (α + 3α (α + + 3α 3 α 3 = D altra parte la varianza vale σ = α λ per cui = α λ 3 ( α + 3α + 3α 3α + α = γ = = α λ 3 α λ 3 α 3/ λ 3 = α /

49 Esercizio In particolare l indice di skewness non dipende da λ e quello di una legge esponenziale Ŵ(, λ è sempre uguale a Osserviamo anche che la skewness di una legge Ŵ è sempre positiva, il che è in accordo con l intuizione (il grafico delle densità è sempre come nella Figura 3, almeno per α > c Useremo sempre lo sviluppo del binomio di terzo grado, ma occorre ora calcolare il momento del terz ordine di una legge di Poisson In effetti già conosciamo i momenti di ordine uno: E(X = λ e di ordine due: E(X = Var(X + E(X = λ + λ Il momento di ordine tre può essere ottenuto in modi diversi: intanto direttamente con la definizione: E(X 3 = e λ k= k 3 λk k! = e λ k= k λ k (k! = e λ i= (i + λi+ i! = λe λ (i + i + λi i! = λ(λ + λ + λ + = λ 3 + 3λ + λ i= Oppure anche derivando, a scelta, la funzione caratteristica oppure la funzione generatrice dei momenti Ricordiamo che, per quest ultima, si ha (vedi la (368 (8 d 3 dθ 3 m X( = E(X 3 La funzione generatrice dei momenti di una va di Poisson di parametro λ è (Esempio 37 b Derivando pazientemente da cui, ponendo θ =, m X (θ = e λ(eθ d dθ m X(θ = λe θ e λ(eθ d dθ m X(θ = (λe θ + λ e θ e λ(eθ d 3 dθ 3 m X(θ = (λe θ + 3λ e θ + λ 3 e 3θ e λ(eθ = Finalmente E(X 3 = d3 dθ 3 m X( = λ + 3λ + λ 3 E((X µ 3 = E(X 3 3E(X µ + 3E(Xµ µ 3 = = λ + 3λ + λ 3 3(λ + λ λ + 3λ 3 λ 3 = λ e quindi γ = λ λ 3/ = λ / Paolo Baldi Calcolo delle Probabilità McGraw-Hill 7

50 5 Parte : soluzioni 34 a Se X N(,, ripetendo i calcoli dell Esempio 37, E(e sx = + e sx e x / dx = π = + e (x s dx e s / = e s / + π π y=x s e y / dy = e s / b Se Y è lognormale di parametri µ e σ, allora Y = e X, dove X N(µ, σ ; d altra parte sappiamo che si può rappresentare X = σz + µ, dove Z N(, Dunque, per il calcolo precedente E(Y = E(e X = E(e σz+µ = e µ e σ / Per la varianza invece calcoliamo prima E[(e X ] = E[e X ] = E[e (σz+µ ] = e µ e σ e dunque Var(e X = e µ e σ ( e µ e σ / = e µ e σ ( e σ 9 σ = ր ւ σ = 4 Figura 4 Grafico della densità lognormale per diversi valori diσ eµ = Da notare che al crescere di σ la media cresce, come si è visto nell esercizio, mentre la moda (cioè il punto di massimo della densità diventa più piccolo Sempre per µ =, la mediana vale per ogni valore di σ b Se Y è lognormale di parametri µ e σ e Z N(,, allora P(Y z = P(e σz+µ z = P ( Z σ (log z µ Poiché P(Z x = se e solo se x =, si ha P(Y z = se e solo se z = eµ, che dunque è il valore cercato della mediana La mediana dunque non dipende da σ e, se si tiene fisso il valore di µ e si fa variare σ, la media cresce al crescere di σ, mentre la mediana rimane costante (vedi anche la Figura 4

51 Esercizio Nella risoluzione di questo esercizio supporremo che il lettore sappia come simulare le va N(, e le esponenziali, come indicato nel paragrafo 3 χ (n è la legge della somma dei quadrati di n va N(, Basterà quindi simulare n va N(, indipendenti X,, X n, dopo di che X + + X n avrà legge χ (n Ŵ(n, λ è la legge della somma di n va indipendenti ed esponenziali di parametro λ Queste si ottengono considerando che, se X è uniforme su [, ], allora Y = λ log X è appunto esponenziale di parametro λ Allo stesso modo per ottenere una va Ŵ( n, λ si possono sommare n va indipendenti ciascuna di legge Ŵ(, λ Per ottenere ciascuna di queste basta osservare che è Ŵ(, λ la legge del quadrato di una va N(, (Esempio 34 λ 36 a La va Y è a valori discreti (interi Inoltre è chiaro che Y = k se e solo se k X < k + Dunque P(Y = k} = P(k X < k + = λ k+ k e λt dt = e λk e λ(k+ = e λk ( e λ Si può riconoscere che Y ha legge geometrica di parametro p = e λ e quindi media e λ e λ b Simulare una va esponenziale è facile, poiché è esponenziale di parametro λ la va X = λ log U, dove U è uniforme su [, ] Abbiamo ora visto che è geometrica la va X, che si calcola facilmente a partire da X Occorre solo scegliere λ in modo che sia p = e λ, cioè λ = log( p Dunque la procedura di simulazione è la seguente: Si simula una va U uniforme su [, ] Si pone X = log( p log U che è allora geometrica di parametro p 37 a Il calcolo delle leggi del massimo o del minimo di va indipendenti è stato visto varie volte nei Capitoli e 3 Ricordando che la fr di una va esponenziale di parametro λ è F(t = e λt per t >, mentre F(t = per t <, la fr di X (3 è data, sempre per t >, da G(t = P(X (3 t = P(X t, X t, X 3 t = = P(X tp(x tp(x 3 t = ( e λt 3 da cui derivando si ottiene la densità di X (3 : se t >, g(t = G (t = 3λe λt ( e λt (per t naturalmente g(t = La speranza matematica di X (3 vale dunque = 3λ + E(X (3 = 3λ + t e λt ( e λt dt = t ( e λt e λt + e 3λt dt = 3 λ ( + = 9 6λ

52 5 Parte : soluzioni Per il calcolo della legge di X ( invece, se H ne indica la fr e t >, H(t = P(X ( > t = P(X > t, X > t, X 3 > t = = P(X > t P(X > t P(X 3 > t = e 3λt Quindi X ( è esponenziale di parametro 3λ ed ha media 3λ b Per t fissato poniamo, per i =,, 3, Y i = { se Xi t altrimenti allora le va Y i sono indipendenti e di Bernoulli di parametro p = P(X i t = e λt Poiché Z t = Y + Y + Y 3, allora Z t B(3, e λt c L idea per il calcolo della fr K di X ( consiste nel collegare la fr di X ( con la legge di Z t, dato che gli eventi {X ( t} e {Z t } sono uguali Quindi, per t >, Derivando K(t = P(X ( t = P(Z t = P(Z t = + P(Z t = 3 = per cui la speranza matematica di X ( vale = 3( e λt e λt + ( e λt 3 k(t = K (t = 6λe λt ( e λt E(X ( = 6λ + t e λt ( e λt dt = 5 6λ Poiché E(X = λ, E(X > E(X ( d Se indichiamo con X, X i tempi di vita dei due elementi, il tempo di vita del componente formato dai due elementi in serie è dato da min(x, X ed il tempo medio è la speranza matematica di questa va; ripetendo il calcolo fatto in a per determinare la legge di X ( si vede facilmente che la legge di min(x, X è ancora esponenziale ma di parametro λ, per cui la sua media vale λ e Se indichiamo con X, X, X 3 il tempo di vita di ciascuno degli elementi, allora chiaramente il tempo di vita del componente è dato da X ( e sappiamo dal punto c che E(X ( = 5 6λ 38 a Calcoliamo la fr di Z: passando in coordinate polari si ha, per z, F Z (z = P(Z z = P ( (X, Y si trova nella palla di centro e raggio z = = e (x +y dx dy = π z dθ e / d = e z / π π {x +y z }

53 Esercizio da cui derivando si ottiene la densità di Z: f Z (z = ze z / se z >, mentre f (z = per z Uno sguardo al paragrafo 38 mostra che si tratta di una densità di Weibull b Abbiamo appena calcolato la fr di Z Dunque la quantità richiesta è P(Z > = F Z ( = e / 39 La prima probabilità richiesta si può scrivere P((X, Y A dove A è la regione del piano formata dai punti (x, y tali che xy > Limitandoci ai punti che hanno entrambe le coordinate positive, si vede facilmente che si tratta della regione al di sopra dell iperbole della Figura 5 ւ xy = Figura 5 La probabilità richiesta è dunque l area della porzione di quadrato che si trova in A, cioè il valore dell integrale dx x dy = ( x dx = ( log Inoltre P ( XY < 4 X > = P(XY < 4, X > P ( X > La porzione della regione {y < 4x, x > } che è contenuta nel quadrato è quella ombreggiata nella Figura 6 La probabilità condizionale P(XY < 4 X > è dunque uguale all area della superficie ombreggiata divisa per P(X > =, cioè dx 4x dy = 4x dx = log ւ xy = 4 Figura 6

54 54 Parte : soluzioni Allo stesso modo si calcola l ultima probabilità condizionale richiesta P ( XY > 4 X Y > = P(XY > 4, X Y > P( X Y > La probabilità al denominatore è pari all area della porzione di quadrato che si trova sotto la retta y = x (ed è quindi 4, mentre il numeratore è uguale all area della superficie ombreggiata nella Figura 7 Quest ultima vale e quindi x dx 4x dy = ( x dx = ( log 4x 8 P ( XY > 4 X Y > = ( log ց y = x Figura 7 ւ xy = 4 I due esercizi precedenti illustrano come il calcolo della probabilità di eventi legati a più va si riconduca spesso a quello dell integrale della densità congiunta su opportune regioni del piano, ovvero, nel caso di densità uniformi, al calcolo di aree 3 a Dobbiamo calcolare la probabilità P ( X min(x, X 3 Ciò si può fare calcolando prima la densità f di min(x, X 3 Una volta effettuato questo calcolo, indicando con f la densità di X potremo scrivere (9 P(X min(x, X 3 = f (x f (y dx dy dove A = {(x, y; x y} R è l insieme dei punti del piano che hanno l ascissa più piccola dell ordinata Tutto quindi si riconduce al calcolo di f e dell integrale della (9 Se t e F indica la fr di min(x, X 3, allora F(t = P(min(X, X 3 > t = P(X > tp(x 3 > t A

55 Esercizio 3 55 Poiché P(X > t = P(X > t = t ds = t si ha F(t = ( t Quindi F(t = ( t, per t, mentre, naturalmente, F(t = se t < e F(t = se t > La densità di min(x, X 3 si ottiene per derivazione: { f (t = F ( t se t (t = altrimenti Riprendendo la (9 e ricordando che la densità f di X vale su [, ] e fuori di [, ], si ha infine y P(X min(x, X 3 = f (x f (y dx dy = ( y dy dx = = A y( y dy = 3 = 3 b Se si suddividono i 3 numeri in terzine si vede che in tutte il numero di mezzo è più piccolo sia del primo che del terzo Se il generatore fornisse numeri aleatori uniformi su [, ] e indipendenti, la probabilità che in una singola terzina il numero in mezzo sia minore degli altri due sarebbe 3 La probabilità che ciò succeda per dieci terzine è quindi 3 = 7 5 Un valore così piccolo fa almeno sospettare che i numeri aleatori successivi non siano indipendenti Il generatore aleatorio quindi meriterebbe qualche controllo 3 a Se indichiamo con X, X, gli intervalli di tempo tra le telefonate successive, allora il tempo di arrivo della seconda telefonata è Y = X + X Y ha dunque una legge Ŵ(, λ, e la sua fr è (vedi la (35 { F Y (t = e λt ( + λt se t > altrimenti La probabilità richiesta è dunque e ( + = 59 b Occorre determinare la legge condizionale di X dato Y = T Per fare ciò useremo il solito metodo di calcolare prima la densità congiunta di X e Y, che sarà ottenuta con il teorema di cambio di variabile La va (X, Y si ottiene infatti da (X, X mediante la trasformazione lineare associata alla matrice ( A = la cui inversa è La densità congiunta di (X, X è f (x, y = A = ( { λ e λ(x+y se x >, y > altrimenti

56 56 Parte : soluzioni Poiché det A = la densità di (X, Y = (X, X + X è quindi g(x, y = f (A ( x y = f (x, y x g(x, y è dunque = se x oppure y x, mentre vale λ e λy per < x < y La densità condizionale di X dato Y vale ḡ X Y(x y = g(x, y f Y (y Essa è nulla se x non si trova nell intervallo ], y[ mentre in questo intervallo vale ḡ X Y(x y = λ e λy λ ye λy = y Dunque la distribuzione condizionale di X dato Y = y è semplicemente la distribuzione uniforme su ], y[ La probabilità che la prima telefonata sia giunta dopo il tempo T sapendo che la seconda è giunta al tempo T è uguale a 3 a Perché f sia una densità occorre che sia f (u, v du dv = c + u u du θ e u /θ v dv = c θ + u 3 e u /θ du = L ultimo integrale dell espressione precedente si calcola per parti (vedi comunque il punto a dell Esercizio 3 Esso vale dunque θ, per cui deve essere c = θ b Un modo per investigare l indipendenza delle va U e U V consiste nel calcolo della loro densità congiunta, per poi verificare che questa si può scrivere come prodotto di due funzioni ciascuna delle quali dipende solo da una delle variabili Il calcolo della legge congiunta di U e U V si può fare osservando che ( U, U V = φ(u, V dove φ è la funzione φ(u, v = (u, u v ; questa funzione è certo infinite volte derivabile per u >, v > : se essa fosse anche invertibile e la sua inversa derivabile potremmo calcolare la densità congiunta g di U e U V con il teorema di cambio di variabile negli integrali multipli, grazie al quale si ha che ( g(x, y = f (φ (x, y det Dφ (x, y Le tappe successive per mostrare che U e U V sono indipendenti sono dunque le seguenti: prima occorre mostrare che φ è invertibile e calcolarne l inversa (ovvero calcolarne l inversa, il che

57 Esercizio proverà che φ è invertibile Poi bisogna calcolare il differenziale Dφ (che in questo caso è una matrice e il suo determinante A questo punto avremo la densità congiunta g tramite la ( e vedremo che essa è il prodotto di una funzione della sola variabile x moltiplicata per una funzione della sola variabile y Come si vede si tratta di un programma abbastanza complesso, ma nel quale ogni singola parte non presenta grosse difficoltà Per calcolare l inversa di φ, fissati dei valori x e y dobbiamo determinare dei numeri u e v tali che φ(u, v = (x, y In altre parole dobbiamo risolvere rispetto a u e v il sistema { u = x u v = y che dà facilmente u = x, v = x y Dunque φ (x, y = (x, x y È immediato ora il calcolo del differenziale di φ : ( Dφ (x, y = y x y per cui det Dφ (x, y = x Abbiamo quindi calcolato tutte le quantità che compaiono nella y ( Sostituendo i valori trovati dobbiamo però ricordare che f (u, v è = a meno che non sia < v < u Dunque otteniamo f (φ (x, y = f (x, x y = a meno che non sia y > e x > In conclusione g(x, y = x θ θ e x /θ {x>} (x {y>} (y x y }{{} =f (φ (x,y = 4 θ x3 e x /θ {x>} (x }{{} funzione della sola x y 3 {y>}(y }{{} funzione della sola y x y }{{} = det Dφ (x,y e dunque U e U V sono indipendenti Il metodo di calcolo della densità congiunta (a cui si è talvolta condotti per provare l indipendenza di due va con l uso il teorema di cambio di variabile negli integrali multipli, illustrato in questo esercizio, è un tecnica che risulta utile in molte situazioni Si tratta di un calcolo piuttosto complesso ed al quale conviene ricorrere solo quando non ci sono altre possibilità Uno sguardo più da vicino mostra però che le diverse tappe del calcolo sono relativamente semplici: calcolo dell inversa φ (spesso l operazione più difficile, calcolo del suo differenziale e del determinante di quest ultimo, sostituzione dei valori nella ( = 33 Ricordiamo che la media di una va esponenziale di parametro λ è λ a Poniamo λ =, µ = 6 Indichiamo con S e S i tempi di vita di ciascuno dei due elementi che compongono il secondo componente Se T è il tempo di vita di quest ultimo, allora T = max(s, S Se supponiamo che S e S siano indipendenti allora abbiamo gi]a visto altre volte come si fa il calcolo della fr di T : P(T t = P(max(S, S t = P(S t, S t = = P(S t P(S t = ( e µt

58 58 Parte : soluzioni Derivando otteniamo la densità di T : f (t = µe µt ( e µt per t >, f (t = per t ; possiamo quindi calcolare la media E(T = + tf (t dt = µ + t(e µt e µt dt = µ µ = 3 µ = 9 Il secondo componente dura in media meno del primo b Indichiamo con T il tempo di vita del primo componente e con f la sua densità Se A = {(x, y, x > y} allora dire che T > T è lo stesso che dire che (T, T A Dunque, se come appare ragionevole supponiamo che T e T siano indipendenti, + = µ P(T > T = P((T, T A = µe µy ( e µy dy + e (λ+µy dy µ + y + λe λx dx = f (xf (y dx dy = A + µe (λ+µy ( e µy dy = e (λ+µy dy = µ λ + µ µ λ + µ = 5 5 = 48 Quindi, nonostante in media duri più, la probabilità che il primo componente resti funzionante più a lungo del secondo è minore di Naturalmente l integrale doppio precedente si sarebbe anche potuto calcolare integrando prima in y e poi in x, cioè P(T > T = A f (xf (y dx dy = + x λe λx dx µe µy ( e µy dy Il risultato naturalmente resta lo stesso, ma i conti sono un po più complicati Da segnalare in questo esercizio il calcolo della probabilità di eventi della forma {T > T } effettuato usando la densità congiunta, che è un metodo di uso frequente 34 a I dati del problema permettono di affermare che la densità condizionale di Y dato X = x deve essere f Y X (y x = xe xy per y > e f Y X (y x = altrimenti Poiché conosciamo anche la legge di X, possiamo calcolare la legge congiunta di (X, Y, da cui potremo ricavare la legge di Y, che ne è una marginale, e poi la legge condizionale di X dato Y = y La legge congiunta di (X, Y è { λ α f (x, y = f X (x f Y X (y x = Ŵ(α xα e (λ+yx se x >, y > altrimenti Calcoliamo la densità di Y come marginale di f Per y f Y (y =, mentre per y > f Y (y = + + f (x, y dx = λα x α e (λ+yx dx = λα Ŵ(α Ŵ(α αλ α = (λ + y α+ Ŵ(α + (λ + y α+ =

59 Esercizio Il valore dell integrale è stato ottenuto immediatamente riconoscendo che l integrando è, a meno della costante, una densità Ŵ(α +, λ + y b Y ha speranza matematica finita se e solo se è convergente l integrale + y dy (λ + y α+ L integrando tende a per y + come y α ed è quindi convergente se e solo se α > Quindi Y non ha speranza matematica finita se α Se invece α >, integrando per parti si ha E(Y = αλ α + y (λ + y α+ dy = λα y = λα α + (λ + y α }{{} = + (λ + y α = λ α + + λ α (λ + y α dy = c La legge condizionale di X dato Y = y, y >, si ottiene facendo il quoziente tra la densità congiunta e quella di Y, cioè f (λ + yα+ X Y (x y = x α e (λ+yx αŵ(α per x >, mentre è uguale a per x Riconosciamo che la legge condizionale è una Ŵ(α +, λ + y Quindi la sua media vale α+ λ+y Due sono gli aspetti interessanti di questo esercizio: in primo luogo come si usano i dati del problema per indicare le leggi marginali e/o condizionali delle va che si considerano e come da queste si ottiene la densità congiunta; poi come dalla densità congiunta si riesce a calcolare tutto il resto 35 a La va X Y si può scrivere X Y = X + ( Y Le va X e Y sono ancora indipendenti ed inoltre Y ha legge N(, Per la regola della somma di va normali indipendenti, X Y ha legge N(, b Per calcolare la legge di (X, Y basta osservare che X e Y sono ancora va indipendenti La prima è N(, mentre la seconda è N(, Dunque la densità congiunta è g(x, y = π e x / e y /4 Avremmo anche potuto osservare che il vettore aleatorio (X, Y segue una legge normale multivariata, essendo una funzione lineare del vettore (X, Y La sua legge risulta determinata dal fatto che la matrice di covarianza è ( K =

60 6 Parte : soluzioni come risulta dal calcolo delle varianze di X e Y e dal fatto che X e Y sono indipendenti e quindi non correlate Per il calcolo della legge di (X, X Y osserviamo che si tratta di una va congiuntamente gaussiana, essendo una funzione lineare delle va X, Y che sono esse stesse gaussiane La legge di (X, X Y resta dunque determinata una volta che se ne conoscano media e matrice di covarianza È chiaro che E(X = E(X Y = e dunque anche (X, X Y è centrata Per la matrice di covarianza C basta osservare che Dunque Var(X = Var(X Y = Var(X + Var( Y = Cov(X, X Y = Cov(X, X Cov(X, Y = }{{}}{{} =Var(X= = C = ( Avremmo anche potuto ricavare la matrice di covarianza C mediante la formula ( ( ( C = AIA = = (I indica sempre la matrice identità I = ( che è la matrice di covarianza del vettore (X, Y In conclusione (X, X Y ha legge N(, C Il calcolo delle marginali si fa immediatamente, poiché sappiamo che X N(,, Y N(,, X Y N(, In particolare le due va (X, X Y e (X, Y hanno le stesse distribuzioni marginali ma leggi congiunte diverse Per calcolare la legge condizionale di X dato X Y = z si può usare la definizione, secondo la quale g(x, z ḡ X X Y (x z = g X Y (z dove g indica la densità congiunta di X e X Y, appena calcolata Dunque ( ḡ X X Y (x z = π e (x xz+z e z /4 = π e (x xz 4 z In generale però conviene ricordare che per le leggi condizionali di variabili congiuntamente normali valgono le (389 e (39, cioè se U e Z hanno legge congiunta normale, allora la legge condizionale di U dato Z = z è ancora normale di varianza σ = Var(U Cov(U, Z Var(Z

61 Esercizio 36 6 e media µ = E(U + Cov(U, Z (z E(Z Var(Z Nel nostro caso, in cui U = X e Z = X Y, la densità condizionale x ḡ X X Y (x z è dunque normale di media µ = z e varianza σ = Un calcolo diretto mostrerebbe che l espressione di questa densità è data proprio dalla ( Questo secondo modo di derivare la densità condizionale, che vale solo per le va congiuntamente normali, è molto più pratico, ad esempio perché fornisce immediatamente il valore della media condizionale, z, che altrimenti avrebbe richiesto il calcolo diretto della media della densità data dalla ( c Per mostrare che X Y e X + Y sono indipendenti si può calcolare, con il teorema di cambio di variabile, la legge congiunta di X Y e X + Y e vedere che la si può spezzare nel prodotto di due funzioni che dipendono ciascuna da una sola delle variabili Ma in questo caso sappiamo che le va X Y e X + Y sono congiuntamente normali, essendo funzioni lineari delle va X, Y che sono congiuntamente normali Sappiamo inoltre che va congiuntamente normali e non correlate sono indipendenti Ora Cov(X Y, X + Y = Cov(X, X + Cov(X, Y + Cov( Y, X + Cov( Y, Y = }{{}}{{}}{{}}{{} =Var(X= = = = Var(Y= e dunque X Y e X + Y sono non correlate e indipendenti Il fatto che X Y e X + Y siano non correlate si può vedere anche calcolandone matrice di covarianza C con la formula ( ( ( C = AIA = = Poiché C è diagonale le due va sono non correlate Questo esercizio mette bene in evidenza alcuni fatti che rendono semplici i calcoli con le leggi normali: a La proprietà che la somma di va (reali normali indipendenti è ancora normale con media pari alla somma delle medie e varianza uguale alla somma delle varianze b La proprietà che trasformazioni lineari trasformano leggi normali in leggi normali Questo fatto è particolarmente utile perché la legge cercata rimane determinata non appena si sappiano calcolare matrice di covarianza e media (che in questo esercizio era sempre uguale a Il calcolo della matrice di covarianza si fa facilmente o calcolando una per una varianze e covarianze oppure usando la formula che dice che se la va m-dimensionale Z ha matrice di covarianza C Z e A è una matrice n m, allora la va W = AZ ha matrice di covarianza C W = AC Z A (A è la trasposta, il che riduce il calcolo della matrice di covarianza a quello di un prodotto di matrici c Per ultimo ricordiamo che esistono formule molto semplici che danno, per va congiuntamente normali, le leggi condizionali (vedi le (389 e (39 Esse in particolare danno immediatamente il valore della media condizionale (che non è altro che la media della legge condizionale e che quindi è data dalla (39 36 a Calcoliamo la fr di T Indichiamo con A l evento il pezzo prescelto è stato prodotto dalla prima linea e con B l evento il pezzo prescelto è stato prodotto dalla seconda

62 6 Parte : soluzioni linea A e B hanno probabilità p e q rispettivamente, mentre, condizionalmente a A e B, T ha legge esponenziale di parametri λ e µ rispettivamente Dunque, ricordando l espressione della fr delle leggi esponenziali si ha, per t P(T t = P(T t AP(A + P(T t BP(B = = p( e λt + q( e µt = pe λt qe µt Naturalmente la fr è nulla per t Derivando si ottiene la densità di T, che vale { f (t = pλe λt + qµe µt se t > altrimenti e quindi E(T = + t(pλe λt + qµe µt dt = p λ + q µ b Si tratta di calcolare P(A T > s Con la formula di Bayes si trova P(A T > s = P(T > s AP(A P(T > s = pe λs pe λs + qe µs = p p + qe (µ λs Per s che tende all infinito, ricordando che supponiamo µ > λ, questa probabilità tende a e dunque più s è grande e più è probabile che il componente provenga dalla linea A Questo è in accordo con l intuizione: infatti la condizione λ > µ implica che i pezzi della prima linea di produzione hanno in media vita più lunga Dunque era ragionevole aspettarsi che più il pezzo risulta longevo, più è probabile che provenga dalla prima linea 37 a Se Z e W sono i tempi d esecuzione della prima e della seconda fase rispettivamente, il tempo di esecuzione totale è T = Z + W ; basta ora ricordare che la speranza matematica di una va esponenziale di parametro λ vale λ, per cui E(T = E(Z + E(W = λ + µ b Se λ = µ possiamo usare la proprietà di somma delle leggi gamma: T è dunque Ŵ(, λ e, per x >, ha densità f (x = λ xe λx Se invece λ µ calcoliamo la densità di T con la formula f (x = + f (tf (x t dt dove f e f sono densità esponenziali di parametri λ e µ rispettivamente Ricordando che le densità esponenziali sono uguali a per valori negativi della variabile, si ha f (x = λµ x x e λt e µ(x t dt = λµe µx e (λ µt dt = = λµ λ µ e µx ( e (λ µx = λµ λ µ (e µx e λx

63 Esercizio c La probabilità che il programma non sia terminato ancora al tempo t +s sapendo che esso non era terminato al tempo s P(T > t + s T > s = dove F è la fr di T Calcoliamola: dunque F(t = t P(T > t + s, T > s P(T > s = P(T > t + s P(T > s = F(t + s F(s λµ λ µ (e µx e λx dx = λ λ µ ( e µt µ λ µ ( e λt = = λe µt µe λt λ µ P(T > t + s T > s = λe µ(t+s µe λ(t+s λe µs µe λs Sostituendo i valori numerici si hanno i valori 4 per s =, 38 per s = d La probabilità che la prima fase non sia ancora terminata, sapendo che il programma stesso è ancora in corso al tempo s, è la probabilità condizionale P(Z > s Z +W > s Ora l evento {Z > s} è contenuto nell evento {Z + W > s}, perché W è comunque una quantità > Dunque, se λ µ, P(Z > s Z + W > s = P(Z > s, Z + W > s P(Z + W > s = F Z(s F(s = e λs λe µs (λ µ µe λs = P(Z > s P(Z + W > s = dove abbiamo utilizzato il fatto che Z è esponenziale di parametro λ (la fr F di T = Z + W è stata calcolata in c Dunque P(Z > s Z + W > s = λ µ λe (λ µs µ Possiamo ora analizzare il comportamento di questa probabilità condizionale per s grande Abbiamo due casi: i Se λ > µ (cioè se in media l esecuzione della prima fase è più rapida della seconda allora e (λ µs + e dunque P(Z > s Z + W > s per s + ii Se λ < µ allora e (λ µs e quindi P(Z > s Z+W > s µ λ Con i dati numerici indicati la probabilità che la prima fase non sia ancora terminata tende a 3 per s + Se invece fosse λ = µ, lo svolgimento dell esercizio è lo stesso, solo che ora la fr di Z è F(s = e λs ( + λs come afferma la formula (35 del libro Dunque P(Z > s Z + W > s = F Z(s F(s = e λs e λs ( + λs = + λs

64 64 Parte : soluzioni che è una quantità che tende a per s 38 La quantità P(X + Y t che dà la fr di X + Y è pari all area ombreggiata nella Figura 8 Dunque F(t = { t se t ( t se t ւ(, t ւ x + y = t Figura 8 e F(t = altrove Derivando si ottiene la densità f (t = { t se t t se t e f (t = per t al di fuori dell intervallo [, ]; f ha il caratteristico grafico a casetta della Figura 9 Figura 9 Naturalmente sarebbe stato possibile anche usare la Proposizione 33: la densità f di X + Y è data da ( f (t = g(t sg(s ds dove g(t = { se t altrimenti

65 Esercizio Però il calcolo esplicito dell integrale della ( è abbastanza antipatico: la determinazione, al variare di t, dei valori di s per i quali l integrando vale (esso può valere solo oppure è poco agevole 39 a X e Y hanno distribuzione congiunta uniforme sul quadrato [, ] [, ] La probabilità richiesta è P((X, Y A dove A R è la regione dei punti (x, y tali che x y > Cioè l area della regione ombreggiata nella Figura, che vale 4 տ Figura b Calcoliamo la fr di Z Se t, allora P(Z > t = P( X Y > t non è altro che la probabilità che il punto (X, Y si trovi in una regione simile a quella della Figura (solo con il valore t al posto di Dunque, sempre per t, P(Z > t = ( t La fr di Z è dunque F Z (t = { ( t se t altrimenti per cui la densità è f Z (t = ( t per t, f Z (t = altrimenti La distanza media tra X e Y è quindi E(Z = t( t dt = 3 33 Indichiamo con Y la va che rappresenta il valore assunto da θ La legge congiunta di X, Y è dunque data dalla densità mista g(θ, k = λe λθ e θ θk k!, θ >, k =,, La legge di X è la seconda marginale, cioè p X (k = + g(θ, k dθ = λ k! + e λθ e θ θ k dθ = λ k! + e θ(λ+ θ k dθ Paolo Baldi Calcolo delle Probabilità McGraw-Hill

66 66 Parte : soluzioni dove k =,, Dunque, a meno della costante, l integrando è una densità Ŵ(k +, λ + L integrale vale dunque Ŵ(k + (λ + k+ = k! (λ + k+ da cui p X (k = λ (λ + k+, k =,, Con un po d immaginazione si riconosce una legge geometrica di parametro p = λ+ λ Ricordando che la media di una va geometrica di parametro p è p p otteniamo E(X = λ b La legge condizionale di Y dato X = k si ottiene facendo il quoziente tra la densità congiunta e la marginale di X: se θ > p Y X (θ k = g(θ, k p X (k = λe θ(λ+ θk k! λ (λ+ k+ = (λ + k+ θ k e θ(λ+ k! Cioè la legge condizionale di Y dato X = k è Ŵ(k +, λ + Quindi la media condizionale vale k+ λ+ 33 a Naturalmente Y ha legge N(, + σ, per la regola sulla somma di va normali indipendenti La legge congiunta dix ey si può calcolare osservando che(x, Y è una funzione lineare di (X, W Dunque anche (X, Y ha legge normale multivariata; per determinarla basta calcolarne media e matrice di covarianza Entrambe le componenti hanno media nulla mentre Var(X =, Var(Y = + σ e E(X =, E(Y = E(X + W = Cov(X, Y = Cov(X, X + W = Cov(X, X + Cov(X, W = }{{}}{{} =Var(X = Quindi (X, Y ha matrice di covarianza C = ( + σ La legge di Y risulta quindi individuata: è N(, C Volendo, ciò permette di calcolare la densità congiunta (cosa che però non è esplicitamente richiesta dall enunciato Indicando z = (x, y essa è infatti f (z = π det C e C z,z Ora det C = σ mentre C = σ ( + σ

67 Esercizio e quindi f (x, y = [ πσ exp ] σ (( + σ x xy + y b Sappiamo, vedi le (389 e (39, che la legge condizionale di X dato Y è normale di varianza Cov(X, Y Var(X = Var(Y + σ = σ + σ e media Cov(X, Y E(X + (y E[Y ] = y Var(Y + σ che è quindi la speranza condizionale richiesta c Abbiamo visto nel punto precedente che la legge condizionale di X dato Y = y = e per σ y = è normale di media = +σ e varianza σ = +σ, ovvero che è N(, Dunque la probabilità che X si trovi in [ 4, 4 3 ] sapendo che Y = è pari alla probabilità che una va Z N(, si trovi in [ 4, 4 3 ] Ma se Z N(, allora Z è della forma Z = W + dove W N(, e quindi P ( 4 Z 4 3 ( = P 4 W 4 = P( 8 Z 8 = = (8 ( 8 = a Le va X, X, X 3 sono congiuntamente normali, dunque anche le va U, V, W lo sono, come funzioni lineari di va congiuntamente normali In particolare ciascuna delle tre ha legge normale e per determinarla basta calcolarne media e varianza Le tre va hanno tutte media nulla, mentre Var(U = Var(X X X 3 = 4 Var(X + Var( X + Var( X 3 = 6 Var(V = Var(X + X + X 3 = Var(X + Var(X + Var(X 3 = 3 Var(W = Var(X 3X + X 3 = Var(X + 9 Var( X + 4 Var( X 3 = 4 b Poiché, come abbiamo osservato, U, V e W sono congiuntamente normali, le coppie sono indipendenti se e solo se sono non correlate Ora sappiamo che Cov(X, X = Cov(X, X 3 = Cov(X, X 3 =, mentre Cov(X i, X i = Var(X i =, i =,, 3 Dunque Cov(U, V = Cov(X X X 3, X + X + X 3 = = Cov(X, X + Cov(X }{{}, X + Cov(X }{{}, X 3 Cov(X }{{}, X }{{} = = = = Cov(X, X Cov(X }{{}, X 3 Cov(X }{{} 3, X Cov(X }{{} 3, X Cov(X }{{} 3, X 3 = }{{} = = = = = = = e quindi U e V sono indipendenti Analogamente Cov(U, W = Cov(X X X 3, X 3X + X 3 = + 3 = 3 Cov(V, W = Cov(X + X + X 3, X 3X + X 3 = 3 + =

68 68 Parte : soluzioni per cui V e W sono indipendenti, mentre U e W non lo sono Alternativamente si sarebbe potuto ragionare nel modo seguente: (U, V, W si ottiene da (X, X, X 3 mediante la trasformazione lineare associata alla matrice A = cioè ( 3 ( 3 ( X X X 3 = ( U V W Dunque il vettore(u, V, W ha legge congiunta normale e tutte le sue componenti sono centrate Poiché la matrice di covarianza di (X, X, X 3 è la matrice identità, (U, V, W ha matrice di covarianza C = A A = ( 3 ( 3 = ( da cui si può rispondere insieme alle questioni dei punti a e b: U N(, 6, V N(, 3, W N(, 4 (gli elementi sulla diagonale di C sono le varianze di U, V e W ; inoltre U, V e V, W sono coppie di va indipendenti, mentre U e W non sono indipendenti (le covarianze delle variabili si trovano, nella matrice di covarianza, fuori della diagonale 333 a Poiché S = T +W, si tratta di calcolare la legge della somma di due va esponenziali indipendenti di parametri rispettivamente λ e µ Se indichiamo con f T, f W le densità di T e W rispettivamente, la densità f S di S si può calcolare come indicato dalla Proposizione 33, cioè f S (x = + f T (tf W (x t dt Il calcolo di questo integrale è già stato effettuato nel punto b dell Esercizio 37 e dà come risultato f S (s = λµ µ λ (e λs e µs Il calcolo della legge congiunta di S e T si può fare osservando che (T, S = (T, T + W Poiché T e W sono indipendenti, la loro densità congiunta è g(z, w = { λµe λz e µw se z, w altrimenti La va (T, S è quindi una trasformazione di (T, W tramite l applicazione lineare associata alla matrice ( A =

69 Esercizio e per il teorema di cambio di variabile negli integrali multipli la densità f di (T, S è data da Ma det A = e f (t, s = A = det A g( A ( t s ( per cui A ( t ( s = t s t e f (t, s = g(t, s t Quindi intanto f (t, s = a meno che non sia t s (se fosse t > s allora sarebbe s t < e dunque g(t, s t = Sostituendo nell espressione di g a z e w i valori t e s t rispettivamente, otteniamo f (s, t = { λµe λt e µ(s t se t s altrimenti b La densità condizionale di T dato S = s è, per definizione, f T S (t s = f (t, s f S (s Sostituendo le espressioni per f e per f S calcolate in a otteniamo per s > f T S (t s = { (µ λe µs e λs e(µ λt se t s e µs altrimenti La speranza condizionale di T dato S = s è dunque uguale a Ē(T S = s = Integrando per parti e semplificando (µ λe µs s e λs e µs t e (µ λt dt (µ ( λe µs s Ē(T S = s = e λs e µs µ λ e(µ λs + (µ λ ( e(µ λs = Sostituendo i valori si ottiene = s e (µ λs µ λ per s = per s = 574 c La retta di regressione di T rispetto a S è y = ax + b, dove i valori di a e b sono dati dalle (5 e (53 Dunque, poiché Cov(T, S = Cov(T, T +Cov(T, S = Cov(T, T = Var(T a = Cov(T, S Var(S = Var(T Var(S = λ + = µ λ + µ λ µ

70 7 Parte : soluzioni mentre, con un po di semplificazioni, b = E(T ae(s = λ µ ( λ + µ µ + = λ µ λ λ + µ Calcolando il valore di y in corrispondenza di s = 5 e di s =, si trova per s = (3889 per s = 99 (574 Si vede che per valori molto piccoli di s la retta di regressione e la funzione s Ē(T S = s sono abbastanza diverse 334 a Si vede subito che f è una densità: poiché si tratta di una funzione pari + f (x dx = + e x dx = + e x dx = Si tratta del resto della densità di Laplace di parametroλ =, che s incontra anche negli Esercizi 34, 346, 355, 356, 358 e 363 Il grafico di questa densità si può vedere nella Figura λ 3 3 Figura Calcoliamo la sua funzione caratteristica Dato che x sin θx è una funzione dispari, mentre x cos θx è pari, φ X (θ = + e integrando due volte per parti + + θe x sin θx e x e iθx dx = + e x cos θx dx = e x cos θx + e x cos θx dx = + θ + + e x cos θx dx e x sin θx dx = + + θ e x cos θx dx = + θ e x cos θx dx da cui si ricava φ X (θ = + θ

71 Esercizio 4 7 b θ +θ è una funzione integrabile su R; dunque, per il Teorema 38 d inversione delle funzioni caratteristiche, f (x = e x = π Scambiando x con θ si ricava + π e ixθ φ X (θ dθ = + e ixθ π + θ dθ e ixθ dx = e θ + x dunque φ Y (θ = e θ b Calcoliamo la funzione caratteristica di Z = (Y +Y : per i punti e 3 del paragrafo 33, φ Z (θ = φ Y ( θ φ Y ( θ = e θ / e θ / = e θ Dunque (Y + Y ha ancora legge di Cauchy Osserviamo che φ Y non è derivabile in ; d altra parte abbiamo visto nell Esercizio 34 che Y non ha speranza matematica finita Si tratta quindi di un esempio di va che non ha speranza matematica finita e non ha funzione caratteristica derivabile 4 Primo metodo Calcoliamo media e varianza delle va χ (n ha media n e varianza n (vedi la (349, E [ n X n ] = n n = Var ( n X n = n n = n n n X n: ricordando che una va Le va n X n, n =,, hanno tutte la stessa media µ = e varianza che tende a per n Per la disuguaglianza di Chebyshev dunque per ogni η > P ( n X n > η Var ( n X n = n e ciò, per definizione, implica che ( n X n n converge in probabilità alla costante La convergenza ha luogo anche in legge (la convergenza in probabilità implica sempre quella in legge, vedi l Osservazione 4 Secondo metodo Se (Z n n è una successione di va indipendenti tutte di legge Ŵ(,, allora, per ogni n, Z + + Z n ha legge χ (n, cioè la stessa di X n ; dunque le due va (3 n X n e η n (Z + + Z n hanno la stessa legge Ma di queste la seconda converge in probabilità alla media E(Z = per la Legge dei Grandi Numeri Dunque, per ogni η >, P ( n X n > η = P ( n (Z + + Z n > η n

72 7 Parte : soluzioni che, ancora, permette di affermare la convergenza in legge della successione ( n X n n alla costante Il primo dei due metodi che abbiamo visto fornisce un criterio semplice per provare la convergenza in probabilità verso una costante µ di una successione di va: si calcola, per ciascun termine media e varianza (cosa che è spesso facile; se la media è costante = µ e la varianza tende a zero allora la disuguaglianza di Chebyshev permette di concludere che la successione converge in probabilità alla costante µ 4 a Per la disuguaglianza di Chebyshev e ricordando che la varianza di una va di Poisson di parametro λ vale appunto λ, P( X n λ η Var( X n η = λ nη b Basta usare l approssimazione normale nella forma (48: ( nη P( X n λ η λ c La disuguaglianza di Chebyshev afferma che la probabilità in (47 è maggiorata da λ nη = che non è una stima particolarmente utile (che una probabilità sia più piccola di lo sapevamo già da prima Con l approssimazione normale invece ( nη P( X n λ η = ( = 373 λ Il risultato esatto (ottenuto, ad esempio, con uno dei software menzionati a pag 45 è 373; dunque in questo caso l approssimazione normale dà un valore preciso fino alle prime 4 cifre decimali Non è male però ricordare che la Disuguaglianza di Chebyshev ha applicazioni comunque importanti (la Legge dei Grandi Numeri ne è un esempio ed è vera per ogni valore di n, mentre l approssimazione normale è, appunto, un approssimazione e vale solo se n è abbastanza grande 43 a Poiché X è una va Ŵ(, λ (cioè esponenziale di parametro λ, se indichiamo con F la sua fr, P ( X > λ = F ( λ = e λ λ = e = 37 Per X 3 sappiamo che la fr di una va Ŵ(3, λ è data da F 3 (t = e λt( + λt + (λt

73 Esercizio e quindi P(X 3 > λ 3 = e 3( = 4 b Usiamo il Teorema Limite Centrale: siano Z, Z, delle va indipendenti e tutte di legge Ŵ(, λ Allora Z + + Z n Ŵ(n, λ Osservando che n λ è proprio il valore della media di X n e che Var(X n = n λ, P ( n X n > λ ( = P Xn > λ n ( = P Xn λ n > = P ( Z + + Z n λ n > = ( Z + + Z n n λ = P > ( = n/λ n 44 Se indichiamo con X i la va che rappresenta il risultato dello i-esimo lancio, cioè la va che vale se allo i-esimo lancio Marco vince e altrimenti, allora il numero di volte che Marco vince in prove si modellizza con la va X = X + + X Se la moneta è equilibrata le va X i hanno ciascuna legge di Bernoulli B(, e dunque media e varianza 4 Usando l approssimazione normale (47, la probabilità che Marco vinca meno ( di 36 volte è ( P(X + + X 36 = ( 7 = 35 = 35% 5 Una probabilità un po troppo piccola perché si possa pensare a semplice sfortuna In questo esercizio essenzialmente l approssimazione normale si usa per stimare la fr di una legge binomiale B(n, p con n grande La stessa idea può servire per avere dei valori approssimati di altre leggi di probabilità per le quali non ci sono formule semplici della fr (Poisson, Gamma, 45 Indichiamo con X una va N(, (e quindi tale che σx N(, σ Per il Teorema Limite Centrale si ha ( (X + + X P(Z n t = P n n t ( t = P σ X + + X n σ n σ t = n ( t σ ( t σ Dunque le fr delle va Z n convergono Occorre ora verificare che il limite sia la fr di una va e individuarla Ma ( t ( σ t ( t t σ = P σ X = P( t σx t = P((σX t σ Dunque Z n converge in legge verso la va (σx, che è una va Ŵ(, σ (Esempio 34

74 74 Parte : soluzioni 46 a Si ha E(X i = a E(X i = a a a x dx = a x dx = 4 3 a Var(X i = E(X E(X = a 3 b Per il Teorema Limite Centrale P(X + + X n > na + x n = ( X + + X P n na > x a n 3 3 a ( x n 3 a dove indica al solito la fr di una legge N(, Con i valori numerici assegnati e le tavole si ottiene x = a ( 3 = (73 = 4 x = a ( 3 = ( 866 = Se indichiamo con X i l errore commesso nella i-esima addizione, allora l errore complessivo è X = X + + X 6 Osserviamo che le va X i hanno densità (discreta { f (t = se 5 t 5 altrimenti Esse hanno dunque media nulla (per simmetria, chi non ci crede può calcolare l integrale Inoltre 5 Var(X i = E(Xi = t dt = 5 := σ Dunque con l approssimazione normale e scrivendo n = 6, Ora P( 5 7 X 5 7 = P(X 5 7 P(X 5 7 = = P(X + + X n 5 7 P(X + + X n 5 7 ( 5 7 ( 5 7 n σ n σ ( 5 7 = ( = ( 3 = (73 = 958 n σ ( 5 7 = ( = ( 3 = ( 73 = 4 n σ

75 Esercizio e dunque la probabilità che la settima cifra sia significativa è = 97 Ripetendo i calcoli per 5 8 si ha facilmente P( 5 8 < X 5 8 (73 ( 73 = = 37 La probabilità che la settima cifra decimale sia corretta è molto elevata, mentre per l ottava non si può dire lo stesso 48 a Poniamo { se lo i-esimo lancio ha dato 6 X i = altrimenti Allora il numero totale di 6 in 9 lanci è X = X + + X 9, dove le va X i sono indipendenti e di Bernoulli B(, p, p = 6 Poiché E(X i = 6 e Var(X i = = 36 5, usando l approssimazione normale ( P(X 8 = P(X + + X 9 > = = (63 = 44 = 44% b Se un dado è truccato allora il numero totale X di 6 ottenuti in 9 lanci si può ancora scrivere X = X + + X 9, dove però ora le va X,, X 9 sono di Bernoulli B(, 9 Dunque, ancora con l approssimazione normale ( P(X 8 = P(X + + X 9 > = = ( 64 = 95 Dunque un dado truccato viene individuato con una probabilità del 95% 49 a Se X è il numero di bit distorti, è chiaro che X segue una legge B(, (numero di successi in prove indipendenti con probabilità di successo p = in ogni singola prova Dunque E(X = = La probabilità che vi siano bit distorti è P(X = P(X = = ( (99 = 43 5, mentre la probabilità che vi siano almeno bit distorti è (4 P(X = P(X 9 = 9 ( i 99 i i i=

76 76 Parte : soluzioni Per calcolarla conviene usare l approssimazione normale: P(X = P(X > 95 = P(X 95 = ( 95 = ( 59 = A titolo di paragone la somma in (4, che viene ottenuta facilmente con un software adatto, vale 543 In questo caso l approssimazione normale è discreta, ma non particolarmente precisa b Un singolo bit risulta distorto se almeno due delle tre ritrasmissioni vengono distorte Ognuna di queste lo è con probabilità e dunque il numero di ritrasmissioni distorte, per un singolo bit, segue una distribuzione B(3, La probabilità che almeno due ritrasmissioni siano distorte per un singolo bit è ( ( 3 3 q := = ( = La probabilità che vi siano bit distorti ora è ( q = 58 La probabilità che vi siano più di bit distorti, che abbiamo ottenuto in a, si potrebbe calcolare anche approssimando la legge B(, con una legge di Poisson di parametro λ = (ricordiamo che una densità B(n, p per n grande e p piccolo si può approssimare con una densità di Poisson di parametro np, vedi l Osservazione 49 Un calcolo numerico avrebbe dato (5 P(X = e 9 i= λ i! = 543 e 543 è lo stesso valore che avremmo ottenuto se avessimo effettuato la somma in (4 In questo caso dunque l approssimazione con le leggi di Poisson dà risultati migliori che l approssimazione normale Quest ultima rimane comunque più pratica perché il calcolo della fr in (5 richiede comunque un certo lavoro numerico (inoltre, di solito, per le leggi di Poisson non ci sono tavole, anche se i pacchetti software statistici sono in grado di fornire le fr anche delle leggi di Poisson Si potrebbe pensare di usare l approssimazione normale per stimare, nella situazione del punto b, quale sia la probabilità che vi siano più ( di k bit distorti, per qualche valore di k fissato In realtà in questo caso l approssimazione normale non funziona bene Ad esempio per k = la probabilità di avere più (> di un bit distorto è ( q q( q 999 = 365 mentre l approssimazione normale dà ( 5 q = ( = 38 q( q che è un approssimazione abbastanza scadente dal vero valore 365 In effetti una regola accettata in pratica per potere utilizzare l approssimazione normale con leggi binomiali B(n, p è

77 Esercizio 4 77 che i numerinp en( p siano entrambi più grandi di 5, mentre in questo caso (p = 98 4 np = 98 4 a Fissiamo l attenzione su un singolo pixel e indichiamo con A i, i =,, 8, l evento lo i-esimo bit è non distorto e con A l evento nessuno degli 8 bit è distorto Per le ipotesi del problema, gli eventi A,, A 8 sono indipendenti e A = A A 8 Dunque P(A = P(A P(A 8 = ( p 8 = 9984 b Se poniamo { se lo i-esimo pixel è distorto X i = altrimenti per i =,, 3 7, allora il numero di pixel distorti nell immagine è X = X + + X 3 7 Inoltre le va X i sono di Bernoulli (possono prendere solo i valori oppure B(, 6 (6 = 9984 è la probabilità che un singolo pixel venga distorto nella trasmissione Dunque E(X = = 97 Per calcolare la probabilità che vi siano più di pixel distorti si può usare l approssimazione normale In effetti la va X è la somma di n = 3 7 va di Bernoulli di parametro q = 6 Sappiamo che in questo caso una regola euristica per la validità dell approssimazione normale è che i due numerinq en( q siano entrambi 5 Abbiamo già visto chenq = 97, mentre n( q è certo un numero molto grande L approssimazione normale dà quindi P(X = P(X < = P(X 995 = ( 995 nq = = ( 76 = 773 nq( q 4 a Una va Beta(α, β ha media Dunque E(X n = α α+β e varianza α α + β, Var(X n = αβ (vedi il paragrafo 39 (α+β (α+β+ αβ (α + β (nα + nβ + Dunque le va X n hanno tutte la stessa media α+β, mentre la loro varianza tende a per n Come abbiamo visto nell osservazione successiva all Esercizio 4, ciò implica, per la disuguaglianza di Chebyshev, P( X n α+β α η Var(X n η n α e dunque X n P n α α + β 4 Ricordiamo che vi sono vari modi per studiare il limite in legge: calcolando il limite delle funzioni di ripartizione oppure delle funzioni caratteristiche, soprattutto

78 78 Parte : soluzioni Figura Andamento della densità Beta(nα, nβ per α =, β = 3 e n = (tratto pieno, n = 3 (trattini e n = 8 (puntini La densità tende a concentrarsi intorno alla media Primo modo: funzioni di ripartizione Se indichiamo con F n la fr di Y n = n X n, allora F n (t = per t <, mentre per t, calcolando la somma geometrica come indicato a pag 39 del libro, F n (t = P(X n nt = P(X n nt = e dunque per ogni t nt k= ( = λ n ( λ ( λ k λ = n n n nt + lim F n n(t = e λt λ n ( λ n nt + = Riconosciamo ora nel termine a destra la fr di una legge esponenziale di parametro λ Dunque Y n converge in legge ad una va che ha questa distribuzione Secondo modo: funzioni caratteristiche Ricordando l espressione della funzione caratteristica di una va geometrica (Esempi 377 b a pag55, si ha φ Xn (θ = λ n ( λ n eiθ = λ n( e iθ + λe iθ e dunque Osservando che φ Yn (θ = φ Xn ( θn = λ n( e iθ/n + λe iθ/n lim n( e iθ/n n eiθ/n = θ lim = θ d n θ dθ eiθ θ= = iθ n

79 Esercizio si ha lim φ n Y n (θ = λ λ iθ che è appunto la funzione caratteristica di una legge esponenziale di parametro λ Come si vede, in questo caso tutti e due i metodi si possono applicare in maniera semplice 43 Poniamo S n = X + + X n Per la Legge dei Grandi Numeri la va S n n converge in probabilità a E(X = λ Possiamo scrivere P(X + + X n n = P ( n S n = F n ( dove F n indica la fr di S n n La va costante uguale a λ ha fr data da F(t = { se t < λ se t λ Ora, se λ, è un punto di continuità per F e poiché la convergenza in probabilità implica quella in legge (Osservazione 4 { se λ > lim P(X n + + X n n = lim F n n( = F( = se λ < Se invece λ = il valore non è un punto di continuità per F e questo ragionamento non basta, perché la definizione di convergenza in legge e la Legge dei Grandi Numeri non permettono di stabilire quanto valga il limite Si ha però per il Teorema Limite Centrale P(X + + X n n = P(X + + X n n = ( X + + X = P n n ( = n n (ricordiamo che stiamo supponendo λ =, per cui le va X i hanno tutte media e varianza uguali a In conclusione { se λ > lim P(X n + + X n n = se λ = se λ < 44 a Calcoliamo la densità f di X : è chiaro che la fr F è F(x = P(X > x = { x λ se x se x < Dunque la densità di X è f (x = F (x = λx (λ+ per x, mentre f (x = per x < Quindi E(X = + tf (t dt = λ + t λ dt

80 8 Parte : soluzioni Si vede dunque che X ha speranza matematica finita se e solo se λ > e in questo caso Inoltre E(X = λ λ + E(X = λ t λ+ dt per cui la varianza è finita solo se λ > In questo caso si ha E(X = λ λ, Var(X = E(X E(X = λ ( λ λ λ = λ (λ (λ b Usiamo il metodo della funzione di ripartizione Poiché P(Y i = P(X i =, la densità di Y i è nulla per t Per t > invece la fr G di Y i è data da G(t = P(Y i t = P(log X i t = P(X i e t = e λt La densità di Y i si può calcolare come al solito per derivazione Qui però basta riconoscere che G è la fr di una legge esponenziale di parametro λ c Osserviamo che log ( (X X X n /n = n Dunque per la Legge dei Grandi Numeri n log(x i = n i= n Y i i= log ( (X X X n /n P n E(Y = λ e quindi (Osservazione 4 (X X X n /n P n e /λ 45 La va X X è il prodotto di due va indipendenti, aventi entrambe speranza matematica finita Sappiamo quindi (Proposizioni 338 oppure 4 che anch essa ha speranza matematica finita e anzi che E(X X = E(X E(X = Anche la va X X è il prodotto delle due va X e X che sono indipendenti ed hanno speranza matematica finita (perché per ipotesi X e X hanno varianza finita Dunque Var(X X = E(X X = E(X E(X < +

81 Esercizio 46 8 b Le va X X,, X n X n sono indipendenti, centrate ed hanno varianza finita Inoltre hanno tutte la stessa legge Dunque per la Legge dei Grandi Numeri V n = n (X X + X 3 X X n X n P n E(X X = c La normalizzazione con n invece che n deve far pensare al Teorema Limite Centrale: applicandolo alle va X X,, X n X n, che sono indipendenti, equidistribuite e centrate si ha X X + + X n X n σ n n N(, dove σ = Var(X X Dunque V n N(, σ d Le va X 4, X4, hanno tutte varianza finita (perché E(X8 i < + per ipotesi e sono indipendenti Per la Legge dei Grandi Numeri dunque W n = n (X4 + + X4 n P n E(X4 Inoltre si può scrivere U n = X + + X n X = X4 n n (X + + X n n (X4 + + X4 n e dunque per la Legge dei Grandi Numeri applicata al numeratore e al denominatore U n P E(X n E(X 4, (vedi l Osservazione 4 46 Le va Z n che intervengono in questo esercizio sono definite come il minimo delle va X,, X n Siamo dunque in una situazione in cui è facile calcolare le fr, mentre lo stesso non si può dire per le funzioni caratteristiche Nel calcolo dei limiti in legge proposti useremo quindi piuttosto il metodo basato sulle fr a Si ha, per t, e dunque la fr F n di Z n vale P(Z n > t = P(X > t,, X n > t = ( t n F n (t = P(Z n > t = { per t < ( t n per t per t >

82 8 Parte : soluzioni È chiaro quindi che { per t lim F n n(t = per t > Ora la fr di una va che assume il solo valore con probabilità è { per t < F(t = per t Poiché F n (t F(t per n per ogni t, tranne che per t =, che non è punto di continuità per F, possiamo concludere che Z n converge in legge ad una va che ha questa distribuzione La convergenza ha luogo anche in probabilità, dato che, se η >, e dunque P( X n η = P( η X n η = F n (η F n ( η P( X n > η = P( X n η b Se G n è la fr di nz n, allora, se t n, n n G n (t = P(nZ n t = P ( Z n t n = Fn ( tn = ( t n n Basta ora applicare un limite ben noto per avere lim G n n(t = G(t = { per t e t per t > Dunque la successione (nz n n converge ad una legge esponenziale di parametro λ = Per n grande dunque P ( min(x,, X n n e = a Le va X, X, assumono tutte due valori, il che rende semplice lo studio della convergenza in legge sia con le funzioni di ripartizione che con le funzioni caratteristiche Usando quest ultimo metodo vediamo che e quindi, se α n per n, φ Xn (θ = ( α n e iθ + α n e iθn = α n + α n e iθn φ Xn (θ, n per ogni θ che è la funzione caratteristica di una va X che assume il valore con probabilità b Le va del punto a hanno media e varianza date da E(X n = ( α n + α n n = nα n E(X n = ( α n + α n n = n α n Var(X n = E(X n E(X n = n α n ( α n

83 Esercizio Dunque se, ad esempio, α n = n allora Var(X n +, mentre la varianza del limite in legge X è uguale a zero Ed inoltre E(X n, mentre E(X = 48 a Poniamo X i = { se lo i-esimo bit vale altrimenti Il numero totale di bit che assumono il valore nel segnale è S n = X + + X n, mentre la proporzione di bit che valgono è p n = n S n Per il Teorema Limite Centrale la va S n n n( 8 segue una legge che, per n abbastanza grande, è approssimativamente N(, Dunque, con l approssimazione normale, ( n Sn n (3 P( p n > 3 = P(S n > 3 n = P > n( 8 8 ( 3 n 6 sostituendo il valore numerico n = si ottiene (37 = 9 b Poniamo per comodità p = Allora ripetendo il ragionamento del punto a e usando la (48 si ha, poiché σ = p( p = 6 = 4, ( ( n ( n P( p n p > ε = 4 4 Perché questa quantità sia più piccola di η = 4 3 occorre (dopo uno sguardo alle tavole che sia n 4 88 ovvero n > (4 88 = a log S i assume i valori log( + σ n e log( + σ n, entrambi con probabilità La funzione caratteristica di S i è dunque φ(θ = ( e iθ log(+ σ iθ log(+ σ n + e n = cos (θ log ( + σ n La va log X n è uguale a log(x t + log S + + log S n La sua funzione caratteristica vale dunque φ n (θ = e iθ log(x t ( cos (θ log ( + σ n n

84 84 Parte : soluzioni b Nel calcolo del limite per n di φ n (θ siamo quindi ricondotti ad una forma Ricordando gli sviluppi di Taylor per x e z vicini a si ottiene facilmente, per n, e dunque Dunque cos x = x + o(x log( + z = z + o(z ( cos θ log ( + σ = θ σ n n ( cos (θ log ( + σ n ( = θ σ n n φ n (θ + o ( θ n n e iθ log(x t e θ σ / n + o ( θ n = n e θ σ / Se ne deduce che log(x n converge in legge ad una va normale di media log(x t e varianza σ c Sia Z una va normale N(log(x t, σ Abbiamo appena visto che log X n Z, dunque, poiché la fr di Z è continua, P(log X n x P(Z x n per ogni x R Da ciò si ricava P(X n x = P(log X n log x P(Z log x = P(e Z x n Dunque X n converge in legge ad una va lognormale di parametri log(x t e σ La media di questa legge è x te σ / Hanno quindi un rendimento medio maggiore gli effetti finanziari per cui σ è grande Uno sguardo all andamento delle densità lognormali, come nella Figura 4, fa però pensare che il valore medio non sia forse qui il criterio giusto di valutazione 4 a Per provare una convergenza in legge abbiamo a disposizione due metodi: quello della funzione di ripartizione e quello delle funzioni caratteristiche In questo caso, dato che le funzioni caratteristiche delle leggi normali sono ben note, è quest ultimo probabilmente il metodo più semplice Infatti φ Xn (θ = e ib nθ e σ n θ / n e ibθ e σ θ / }{{} fc di una va N(b,σ

85 Esercizio 4 85 Anche il metodo delle funzioni di ripartizione comunque non crea problemi: basta ricordare che se b,σ e indicano le fr di va N(b, σ e N(, rispettivamente, allora si ha e dunque, poiché è continua, bn,σ n (t = ( t bn σ n ( t b b,σ (t = σ ( t b = n σ b,σ (t b Cominciamo con l osservare che X ha legge normale (è una funzione lineare-affine della va normale Z di media αx e varianza σ Anche X = αx + Z è normale, essendo la somma delle due va αx e Z, che sono normali e indipendenti Poiché media e varianza sono date da E(X = E(αX + E(Z = α x }{{} = Var(X = Var(αX + Var(Z = α σ + σ se ne deduce che X N(α x, σ ( + α b Lo stesso ragionamento, per ricorrenza, prova chex n N(α n x, σ (+α + +α n : supponiamo che ciò sia vero per un valore n e dimostriamolo per n + Poiché X n+ = αx n + Z n+ e le due va X n e Z n+ sono indipendenti e entrambe di legge normale, anche X n+ ha legge normale Restano da controllare i valori della media e della varianza di X n+ : E(X n+ = E(αX n + E(Z n = α α n x = α n+ x }{{} = Var(X n+ = Var(αX n + Var(Z n = α σ ( + α + + α n + σ = = σ ( + α + + α (n+ Poiché α < abbiamo (vedi il riquadro a pag 39 α n x n σ ( + α + + α n σ n α e per il punto a (X n n converge in legge ad una va N(, σ α b3 Con i valori numerici assegnati X n converge ad una va N(, 4 3 Dunque per n grande 4 X n ha approssimativamente la stessa legge di 3 Z, dove Z N(, e quindi P( X n = P ( Z 3 4 ( 3 4 ( 3 4 = = (866 ( 866 = = 64

86 86 Parte : soluzioni 5 a Le probabilità di transizione in due passi si possono calcolare facendo il prodotto di matrici P = P P, che dà P = (p ( ij ij = Dunque si è in dopo due passi con probabilità p ( = 4 partendo da e con probabilità p ( 3 = partendo da 3 b Sappiamo che uno stato i è transitorio se esso comunica con uno stato j che però non comunica con i; questa è una condizione sufficiente per la transitorietà di uno stato, che è anche necessaria se per di più la catena, come in questo caso, è finita Uno stato è ricorrente se non è transitorio La determinazione di ricorrenza e transitorietà consiste quindi nel verificare, per ogni stato i, con quali altri stati esso comunica e se questi altri stati a loro volta comunichino con i Ora partendo da si può solo restare in oppure andare in 3; invece partendo da 3 si può solo restare in 3 oppure passare in Gli stati e 3 costituiscono quindi una classe chiusa e sono ricorrenti, poiché non soddisfano alla condizione di transitorietà che abbiamo appena ricordato (non comunicano con un altro stato j che non comunica con loro Invece lo stato comunica sia con che con 3 che, come abbiamo visto, non comunicano con che quindi è transitorio Per lo stesso motivo anche 4, che comunica con e 3, è transitorio Partendo da la catena può restare in oppure passare in uno degli stati oppure 3 In questa eventualità la catena non tornerà mai più in, perché abbiamo visto che e 3 costituiscono una classe chiusa Dunque la sola possibilità di essere in dopo passi consiste nel restare in in tutte le transizioni; quindi la probabilità richiesta è p ( = c La nuova matrice di transizione è Ma ora si vede facilmente che tutti gli stati comunicano tra loro, e sono quindi ricorrenti 5 a Abbiamo già ricordato che uno stato i è transitorio se esso comunica con uno stato j che a sua volta non comunica con i comunica con (p = > ma non comunica con (in effetti la probabilità p i è uguale a per ogni stato i e dunque è transitorio 4 comunica con 4 e 5 e lo stesso vale per 5; 4 e 5 sono dunque ricorrenti e costituiscono una classe irriducibile

87 Esercizio 5 87 comunica con 4 che, come abbiamo visto, non comunica con : è transitorio 3 comunica con che comunica con 4 Dunque 3 comunica con 4, che però non comunica con 3: 3 è transitorio Avremmo anche potuto osservare che 3 comunica con, che sappiamo già essere transitorio, e ciò basta a stabilire la transitorietà di 3 (uno stato ricorrente non può comunicare con uno transitorio Osserviamo che in tutti questi ragionamenti non era importante conoscere i valori dei numeri p ij, ma solo se essi fossero o no > In particolare la classificazione degli stati che abbiamo ottenuta è valida per ogni matrice della forma dove gli asterischi indicano numeri qualunque, purché > Per tutte le matrici di questa forma gli stati,, 3 saranno transitori, mentre 4 e 5 ricorrenti b Sappiamo che una distribuzione invariante è data da dei numeri v,, v 5, tutti, tali che v + + v 5 = e che siano soluzione del sistema di equazioni lineari ovvero in forma matriciale (6 v p j + + v 5 p 5j = v j j =,, 5 (v,, v 5 p p 5 p 5 p 55 = (v,, v 5 Sostituendo i valori di p ij si tratta di risolvere il sistema composto dalle equazioni (7 più l equazione = v v + 4 v + v 3 = v v + 4 v + v 3 = v 3 v + 4 v 4 + v 5 = v v 4 + v 5 = v 5 v + v + v 3 + v 4 + v 5 = Questo sistema si semplifica però considerevolmente ricordando che una distribuzione invariante è sempre nulla sugli stati transitori Dunque v = v = v 3 = e il sistema diviene (8 4 v 4 + v 5 = v v 4 + v 5 = v 5 v 4 + v 5 =

88 88 Parte : soluzioni Esprimendo v 5 = v 4 dalla terza equazione e sostituendo nella prima, questa dà cioè e quindi v 4 = 5 e v 5 = v 4 = 3 5 Quindi 4 v 4 + v 4 = v 4 = 5 4 v 4 v =, v =, v 3 =, v 4 = 5, v 5 = 3 5 è una distribuzione invariante Essa è anche unica, perché il sistema (8 ammette solo questa soluzione c Gli stati 4 e 5 sono i soli stati ricorrenti Sappiamo che una catena di Markov con probabilità lascia prima o poi l insieme costituito dagli stati transitori Quindi la probabilità di giungere in {4, 5} è uguale a Un errore molto comune nel calcolo della distribuzione invariante consiste nel considerare il sistema (9 p j v + + p jn v N = v j j =,, N (N è il numero degli stati, cioè in forma matriciale invece di quello corretto (6 p p N v v = p N p NN v N v N ( p j v + + p Nj v N = v j j =,, N cioè nel considerare il sistema i cui coefficienti sono dati dalla matrice P invece che dalla sua trasposta C è però un modo facile per accorgersi di questo errore: la soluzione del sistema (9 è infatti sempre data da v = = v N = N, cioè dalla distribuzione uniforme, come è facile accorgersi osservando che p j + + p jn = (la somma degli elementi di ogni riga della matrice di transizione vale Si può però dimostrare che la distribuzione uniforme è invariante se e solo se la matrice P è bistocastica, cioè se e solo se anche la somma degli elementi di ogni colonna vale In conclusione: se trovate come distribuzione invariante la legge uniforme, verificate che P sia effettivamente bistocastica, altrimenti rivedete i vostri conti, probabilmente avete commesso l errore di considerare il sistema (9 invece di quello corretto ( In pratica nel calcolo della distribuzione stazionaria occorre risolvere il sistema ( con in più l equazione ( v + + v N =

89 Esercizio Infatti ( non ha soluzione unica (se v = (v,, v N è soluzione, allora anche αv, α R è soluzione Ciò vuole dire che tra le equazioni ( ce n è sempre almeno una che è linearmente dipendente dalle altre (nel caso di (8 la seconda equazione è uguale alla prima Concretamente per trovare la distribuzione invariante occorre risolvere il sistema che si ottiene dalla ( eliminando una equazione che dipende dalle altre ed aggiungendo la ( Nei casi in cui c è una sola distribuzione invariante in questo modo si ottiene un sistema che ha soluzione unica 53 a La matrice di transizione di questa catena è P = ( p p p p p p La catena è irriducibile perché, per ipotesi, sia p che p sono numeri > e dunque ogni stato comunica con tutti gli altri Per mostrare che la catena è regolare basta mostrare che esiste un n tale che la matrice P n abbia tutti gli elementi > In questo caso basta n = : infatti P = ( p( p ( p p p p( p ( p ( p p p( p Calcoliamo la distribuzione invariante Prima però di lanciarsi nella risoluzione del sistema lineare (che in questo caso è in 3 incognite conviene controllare che non vi siano scorciatoie, come succede ad esempio con le matrici di transizione bistocastiche (per le quali anche la somma degli elementi delle colonne sono = In effetti questa è la situazione e sappiamo dunque che la distribuzione stazionaria è quella uniforme v = ( 3, 3, 3 b Si ha P(X n =, X n+ = = P(X n+ = X n = P(X n = = = p P(X n = = pp(x n = Poiché per n grande P(X n = 3, P(X n =, X n+ = p 3 Allo stesso modo P(X n =, X n+ = = P(X n+ = X n = P(X n = = p P(X n = p 3 c Perché la catena sia reversibile occorre che sia v i p ij = v j p ji per tutti gli stati i, j In questo caso i valori v i della distribuzione stazionaria non dipendono da i Dunque abbiamo la reversibilità se p ij = p ji per ogni i, j, cioè se e solo se la matrice di transizione è simmetrica Uno sguardo a P e si vede subito che ciò si verifica se e solo se p = (che è anche il valore per cui le due probabilità calcolate in b sono uguali

90 9 Parte : soluzioni 54 a Il problema si può chiaramente modellizzare con una catena di Markov del tipo della rovina del giocatore, avente cioè come insieme degli stati E = {,,, } e matrice di transizione { p se j = i + p ij = q se j = i altrimenti se < i < dove p = , mentre invece gli stati i = e i = sono assorbenti Si vede subito che tutti gli stati, tranne e, sono transitori, poiché comunicano con gli stati assorbenti e che non comunicano con altri stati Dunque per n la catena converge (viene assorbita in oppure in Se indichiamo con λ i la probabilità di passaggio in della catena con stato iniziale i allora la probabilità che il giocatore vinca è λ Le formule per le probabilità di passaggio della rovina del giocatore danno λ i = γ i + + γ + + γ dove γ = q p = 9 8 Per calcolare λ conviene effettuare qualche manipolazione algebrica per evitare gli errori di arrotondamento: λ = γ + + γ = γ + + = γ γ 9 = 53 (γ = Quindi la probabilità che il giocatore vinca è 53 = 947 Invece con probabilità del 53% il giocatore finisce rovinato b La va Y può assumere i soli valori oppure, poiché sappiamo che con probabilità il gioco finisce dopo un numero finito di giocate Più precisamente, considerando come stato iniziale i = P(Y = = λ = 53 Quindi P(Y = = λ = 947 E(Y = = 9479 In media dunque, come ci si poteva aspettare, il giocatore perde (alla fine ha un capitale inferiore a quello iniziale 55 Il problema in realtà più difficile in questo tipo di esercizi consiste nella modellizzazione del problema, cioè nello scrivere la matrice di transizione della catena di Markov da usare come modello Ciò del resto si può fare in molti modi In questo caso il più semplice consiste nel considerare una catena di Markov con 6 stati: A tiene il gioco B tiene il gioco 3 C tiene il gioco 4 A vince 5 B vince 6 C vince

91 Esercizio 56 9 Gli stati 4, 5, 6 saranno assorbenti, il che equivale a dire che il gioco si ferma non appena un giocatore vince Se supponiamo che A, B, C siano seduti in senso antiorario intorno al tavolo, dovrà essere p = 8 3 (probabilità che il giocatore A conservi il gioco p = 3 8 (probabilità che A passi il gioco a destra p 3 = 8 (probabilità che A passi il gioco a sinistra p 4 = 8 (probabilità che A vinca p 5 = p 6 = (B e C non possono vincere in un passo se è A a tenere il gioco Le relazioni precedenti determinano la prima riga della matrice di transizione (in esse 3 8 è la probabilità di ottenere teste e una croce e anche quella di ottenere una croce e due teste, mentre 8 è la probabilità di tre teste o tre croci Le altre righe si determinano in maniera analoga La matrice di transizione risulta P = La probabilità che il giocatore che inizia il gioco vinca è chiaramente la stessa qualunque sia il giocatore che inizia Dunque questa probabilità è la stessa che la probabilità di assorbimento in 4 partendo da Il calcolo di λ i =probabilità di assorbimento in 4 partendo da i, si effettua risolvendo il sistema (59 che qui diventa e cioè λ i = p i4 + p i λ + p i λ + p i3 λ 3 i =,, 3 λ = λ λ + 8 λ 3 λ = λ 3 = 8 λ λ λ λ + 8 λ λ 3 La soluzione del sistema è λ = 6, λ = 6 7, λ 3 = 6 8 Dunque la probabilità che il giocatore che inizia il gioco vinca è 6 56 a Indichiamo con X n il numero di palline nere nell urna dopo n estrazioni Se X n = nell urna si trovano pallina N e R e da essa verrà dunque estratta una pallina N con probabilità 3 ed una pallina R con probabilità 3 ; dunque X n+ = con probabilità 3 e X n+ = con probabilità 3 Ripetendo questo ragionamento si vede che

92 9 Parte : soluzioni se X n = allora X n+ = con probabiltà e X n+ = 3 con probabilità ; se X n = 3 allora X n+ = 4 con probabilità 5 e X n+ = con probabilità 3 5 Gli stati e 4 vengono scelti assorbenti in quanto corrispondono alla fine della partita In conclusione la matrice di transizione è b Si richiede di calcolare P (X 3 (P è la probabilità partendo dallo stato Ricordiamo che se p (n ij indica la probabilità di fare una transizione in n passi da i a j, allora P i (X n = j = p (n ij Dunque P (X 3 = P (X 3 = + P (X 3 = 3 + P (X 3 = 4 = p (3 + p(3 3 + p(3 4 Le probabilità p (3 ij si determinano calcolando il prodotto P 3 = P P P della matrice di transizione per se stessa 3 volte Un calcolo paziente dà P = dunque la probabilità che vi siano almeno due palline N nell urna dopo tre estrazioni è = 3 6 (bisogna guardare la terza riga, perché gli stati sono numerati a partire da Attenzione anche a non confondere P (probabilità partendo dallo stato con P (matrice di transizione in due passi c La probabilità richiesta non è altro che la probabilità di assorbimento in 4 partendo da Se λ i è la probabilità di assorbimento in 4 partendo da i, allora i numeri λ, λ, λ 3 sono soluzione del sistema lineare λ = 3 λ λ = λ + λ 3 λ 3 = λ La soluzione è ( 4, 6, 8 e quindi la probabilità che A vinca è λ = 6 La probabilità che B vinca sarà invece 6 = 5 Il giocatore A è favorito

93 Esercizio d Se indichiamo con ζ i il tempo medio di assorbimento in {, 4} partendo da i, allora i numeri ζ i, i =,, 3 sono soluzione di ζ = + 3 ζ ζ = + ζ + ζ 3 ζ 3 = ζ Il sistema ha per soluzione ( 5, 6, 47 Poiché supponiamo di partire inizialmente dallo stato (due palline nere nell urna, la partita dura in media 6 = 545 estrazioni 57 a r p q q r p q r p q r p q r p p q r b Ricordiamo che, per definizione, una catena è irriducibile se tutti gli stati comunicano tra loro Supponiamo che sia p > Allora lo stato comunica ( con Poiché 3 per lo stesso motivo, anche 3 Ripetendo lo stesso ragionamento vediamo che comunica con 4, 5,, N Dunque comunica con tutti gli altri stati Lo stesso ragionamento si può ripetere per ogni altro stato, ottenendo che tutti gli stati comunicano tra loro e quindi la catena è irriducibile Lo stesso ragionamento permette di provare l irriducibilità nell ipotesi che sia q > c Ricordiamo che una matrice di transizione è regolare se esiste un numero m tale che P m abbia tutti i suoi elementi > ; una condizione semplice (ma è solo una condizione sufficiente è che la catena sia irriducibile e vi sia almeno un elemento sulla diagonale di P che sia > Se uno almeno tra i numeri p e q è > abbiamo visto che la catena è irriducibile; se per di più r >, dato che tutti gli elementi della diagonale di P sono uguali a r (come si vede anche dal punto a, sono soddisfatte le condizioni del criterio di regolarità: catena irriducibile ed almeno un elemento sulla diagonale > ; la catena è quindi regolare Se invece r = il criterio non è soddisfatto ed occorre verificare direttamente la definizione, cioè se esista un numero m tale che p (m ij >, tale cioè che la probabilità di passare da i a j in m passi, sia > per ogni coppia di stati i, j Se N è pari la catena non è regolare Basta osservare che ad ogni transizione da uno stato i si può passare solo in uno stato contiguo Se il poligono ha un numero N pari di vertici, allora se i è uno stato di indice pari gli stati ad esso contigui hanno indice dispari e, viceversa, se i è di indice dispari gli stati ad esso contigui sono di indice pari (Vedi la Figura 58 Quindi se si parte dallo stato iniziale i dispari, dopo un numero pari di passi ci troveremo certamente in uno stato dispari, mentre dopo un numero dispari di passi la catena si troverà in uno stato pari

94 94 Parte : soluzioni Quindi, nell esempio dell esagono, la matrice di transizione in m passi P m sarà della forma oppure a seconda che m sia dispari o pari rispettivamente P m non può dunque mai avere tutti i suoi elementi > Se invece il numero di vertici N è dispari, allora il ragionamento appena svolto non si può ripetere perché lo stato è contiguo sia a uno stato pari che a uno dispari Del resto nell Esercizio 53, dove avevamo N = 3, si aveva r = ma la catena era regolare In realtà si potrebbe dimostrare che se il numero di vertici è dispari, allora se p >, q >, la catena è sempre regolare (anche se r = d È facile rendersi conto che la matrice di transizione è bistocastica Dunque la distribuzione uniforme π i = N è stazionaria Poiché con i valori di p, r, q assegnati la catena è regolare, questa è anche l unica distribuzione invariante Inoltre, per n grande P(X n =, X n+ = = P(X n+ = X n = P(X n = p N = p N Allo stesso modo si vede che P(X n =, X n+ = = q N La relazione di reversibilità π i p ij = π j p ji diviene qui p = q: la catena è reversibile se e solo se sono uguali le probabilità di spostarsi in senso orario e antiorario 58 a La descrizione dell evoluzione dello stato della stampante determina subito la matrice di transizione che è ( b b P = a a b Se a =, b = la matrice di transizione diventa P = ( e i due stati e sono assorbenti La catena non è dunque irriducibile e non può essere regolare Se invece a =, b = la matrice di transizione è ( P = La catena è ora irriducibile (gli stati comunicano, ma non può essere regolare: ad ogni intervallo di tempo essa cambia di stato con probabilità Dunque se lo stato iniziale è, la catena si

95 Esercizio troverà in ai tempi dispari ed in ai tempi pari Non è quindi possibile che P n possa avere tutti i suoi elementi > Se a =, b = invece P = ( La catena è regolare Infatti essa è irriducibile e vi è almeno un elemento > sulla diagonale Se infine < a <, < b < la catena è certo regolare perché già P ha tutti i suoi elementi > In quest ultima situazione la probabilità che la catena si trovi nello stato per n grande si può valutare approssimativamente con il valore π, dove π = (π, π è la distribuzione stazionaria, la cui unicità è garantita dal Teorema di Markov 55 Essa si ottiene risolvendo il sistema (59, più la condizione π + π = Cioè il sistema lineare ( bπ + aπ = π π + π = che ha come soluzione π = ( a+b a, b a+b Dunque la probabilità che la stampante sia occupata ad un tempo n grande è a+b b Coi valori numerici proposti si ottiene π = 7 = 636 c La catena è irriducibile (abbiamo anzi visto che è regolare Dunque, per il Teorema ergodico 58, N n converge in probabilità al valore della distribuzione stazionaria in, che abbiamo calcolato in b Con i valori numerici proposti la stampate risulterebbe dunque occupata il 636% del tempo 59 a La va D può assumere i valori: 4 se le coccinelle si spostano entrambe in senso orario oppure entrambe in senso antiorario; se la prima si sposta in senso orario e la seconda in senso antiorario oppure, viceversa, la prima in senso antiorario e la seconda in senso orario Poiché ognuna delle coccinelle sceglie una delle due eventualità con probabilità e in maniera indipendente dall altra, è presto visto che P(D = 4 = P(D = = b Abbiamo già calcolato in a che se D n = 4 allora D n+ può assumere i valori 4 oppure con probabilità D altra parte se a un determinato istante la distanza tra le due coccinelle vale, allora all istante successivo essa potrà essere: se esse si spostano l una verso l altra (cioè una in senso orario e l altra in senso antiorario, ma dalla parte in cui esse sono più vicine (probabilità 4 se esse si spostano entrambe in senso orario oppure entrambe in senso antiorario (probabilità ; 4 se esse si spostano in sensi opposti, ma allontanandosi (probabilità 4 Se invece D n = (cioè le due coccinelle si trovano sullo stesso vertice allora D n+ = se esse si spostano insieme nella stessa direzione (probabilità oppure D n+ = se esse si spostano in direzioni opposte (probabilità ancora

96 96 Parte : soluzioni In conclusione abbiamo visto tre stati possibili, {,, 4}, con la matrice di transizione: P = c La matrice di transizione P è regolare, perché tutti gli stati comunicano tra di loro ed inoltre vi sono elementi non nulli sulla diagonale Per il Teorema di Markov esiste dunque un unica distribuzione invariante π = (π, π, π 4 e la probabilità P(D n = per n grande si può approssimare con il valore π della distribuzione invariante nello stato Calcoliamo la distribuzione invariante Essa è soluzione del sistema π = πp, ovvero π = π + 4 π π = π + π + π 4 π 4 = 4 π + π 4 π + π + π 4 = La soluzione è facile perché dalla seconda equazione si ha π = π + π + π 4 = (π + π + π 4 = da cui si ricava facilmente π = π 4 = 4 Quindi per n grande le due coccinelle si trovano nello stesso vertice con probabilità 4 (qualunque sia lo stato iniziale d Per calcolare il tempo medio necessario perché le due coccinelle si trovino nello stesso vertice possiamo ragionare così: rendiamo lo stato assorbente (il che equivale ad arrestare la catena nel momento in cui essa giunge in Se indichiamo con ζ, ζ 4 i tempi medi di assorbimento in partendo da e 4 rispettivamente, allora sappiamo che ζ e ζ 4 sono soluzione di ζ = + ζ + 4 ζ 4 ζ 4 = + ζ + ζ 4 che ha soluzione ζ = 6, ζ 4 = 8 Poiché supponiamo che le coccinelle partano da vertici opposti, il tempo medio perché esse si ritrovino sullo stesso vertice è ζ 4 = 8 5 a È chiaro che, se chiamiamo 5 lo stato fine del programma, la matrice di transizione è

97 Esercizio 5 97 b Se indichiamo con ζ i il tempo medio di assorbimento in 5 partendo da i allora i numeri ζ i sono soluzione di ζ = + ζ + ζ 3 che ha per soluzione ζ = + ζ + 4 ζ 4 ζ 3 = ζ + 4 ζ 4 ζ 4 = + ζ 3 ( 36 5, 4 5, 46 5, 8 = (96, 693, 9, 56 5 Il tempo medio partendo da vale 96 ed è minore di quello partendo da 3 c Con i nuovi valori la matrice di transizione diviene mentre ora il sistema lineare che dà i tempi medi di assorbimento è che ha per soluzione ζ = + ζ + ζ 3 ζ = + ζ + 4 ζ 4 ζ 3 = + 4 ζ ζ 4 ζ 4 = + ζ 3 ( 8, 4,, 76 = (69, 495, 53, 36 Quindi ora l esecuzione è più veloce, qualunque sia lo stato iniziale 5 a Se X n = i ciò vuole dire che nelle due urne la situazione è la seguente palline bianche palline rosse urna A i r i urna B r i i La probabilità che sia X n+ = i + è dunque uguale a (r i : infatti si ha X r n+ = i + solo se nell urna A viene scelta una pallina rossa (probabilità r i r e simultaneamente nell urna B

98 98 Parte : soluzioni viene scelta una pallina bianca (ancora r i r Ripetendo questo genere di ragionamenti si vede che, per i =,, r, deve essere (r i se j = i + r i(r i p ij = se j = i r i se j = i r altrimenti Naturalmente se i = oppure i = r si ha p =, p r,r = b L insieme degli stati è E = {,,, r} Tutti gli stati comunicano tra loro: ogni stato infatti comunica con i suoi vicini a destra e a sinistra; quindi se i, j E e supponiamo per semplicità i < j, allora i i + j, da cui segue che i j D altra parte si ha anche j j i e dunque j i Quindi ogni stato comunica con tutti gli stati alla sua destra e con tutti quelli alla sua sinistra, ovvero tutti gli stati comunicano tra di loro e la catena è irriducibile Poiché vi è almeno uno stato ricorrente (la catena è finita, tutti gli stati sono ricorrenti Essa è anche regolare perché nella matrice di transizione vi sono degli elementi > sulla diagonale c Primo modo Intanto osserviamo che la somma delle probabilità π k, k =,, n è uguale a (è l ultima delle (6 Per mostrare che π è invariante proviamo prima di vedere se per caso è reversibile Infatti, anche se la reversibilità è solo una condizione sufficiente per la stazionarietà, d altra parte verificare la reversibilità è più facile La distribuzione π è reversibile se si ha π k p kj = π j p jk per ogni j, k E Poiché p kj è uguale a a meno che j non sia uno dei tre numeri k, k, k +, basta fare la verifica per j = k + Ma, ponendo c = / ( n n, ( r (r k ( (r! π k p k,k+ = c = c k r k!(r k! ( r (k + ( (r! π k+ p k+,k = c = c k + r k!(r k! e dunque π è reversibile Secondo modo Il lettore attento avrà osservato che questa è una catena di nascita e morte e per queste catene ci sono delle formule esplicite per la distribuzione stazionaria (vedi l Esempio 56 La formula (53 afferma infatti che la distribuzione stazionarie (che per queste catene è sempre reversibile è data da ξ v i = i h= ξ h dove Qui si ha p i = p i,i+ = ξ j = p p j q q j (r i r, q i = p i,i = i r

99 Esercizio Dunque ξ j = r (r (r j + j = ed ora la (53 e l ultima delle (6 permettono di concludere ( r j 5 a Se X n = k, al tempo n + nell urna vi saranno k palline se la pallina prescelta è una delle k che si trovano nella prima urna, oppure k + se la pallina prescelta è una delle m k che si trovano nell altra urna Si tratta dunque di una catena di nascita e morte su E = {,,, m} con p k = p k,k+ = m k m r k = p k,k = q k = p k,k = k m per k =,,, m b Trattandosi di una catena di nascita e morte, sappiamo (Esempio 56 che la distribuzione stazionaria è ξ π i = i mh= ξ h dove i numeri ξ i sono definiti da ξ = e Evidentemente si ha (vedi il riquadro a pag 8 e dunque ξ i = p p i m(m (m i + = = q q i i m ξ h = h= π i = m h= ( m = m h ( m m i ( m i Le distribuzioni stazionarie delle catene di nascita e morte sono sempre reversibili c Se al tempo la catena si trova in uno stato pari, al tempo successivo essa si troverà in uno stato dispari e poi in uno pari e così via Quindi, qualunque sia n, la matrice di transizione in n passi P n non può avere tutti gli elementi positivi: la catena non è regolare 53 a Tutti gli stati comunicano tra loro, perché il grafo è connesso; dunque la catena è irriducibile e la distribuzione stazionaria è unica Per calcolarla ci sono due possibilità: la prima consiste nel risolvere il sistema lineare πp = π più la condizione π + +π = Non è una via troppo complicata perché per motivi di simmetria è chiaro che deve essere π = π 3 = π 4 e π 5 = π 6 = π 7 = π 8 = π 9 = π Ci si riconduce quindi a un sistema lineare in tre incognite

100 Parte : soluzioni La seconda possibilità consiste nel ricordare che per una catena di Markov sui vertici di un grafo c è una formula esplicita della distribuzione stazionaria: se k i è il numero di spigoli del grafo che arrivano nel vertice i e k è la somma dei numeri k i, allora π i = k i k è la distribuzione invariante Qui k i è uguale a 3 per 4 vertici e uguale a per 6 Dunque k = 8 La distribuzione invariante vale 6 per gli stati,, 3, 4 e 8 per gli altri La catena non è regolare Basta osservare che gli stati si possono suddividere in due classi: la prima formata da, 5, 6, 7, 8, 9, e la seconda da, 3, 4 Se la catena si trova in uno stato della prima classe, all istante successivo si troverà in uno della seconda e viceversa Non è dunque possibile che esista n tale che, partendo da i, si possa essere in ognuno degli stati con probabilità positiva b Con le nuove regole di transizione la catena è ora regolare: essa è infatti ancora irriducibile e per di più p ii = per gli stati da 5 a Vi sono dunque degli elementi > sulla diagonale della matrice di transizione e questo, insieme alla irriducibilità, assicura la regolarità della catena La formula della distribuzione invariante per le catene sui vertici di un grafo dà ora k = 4 e quindi { 8 se i =,, 3, 4 π i = se i = 5,, c Il tempo medio di passaggio nella classe {5,, } partendo da i, i =,, 3, 4, indicato ζ i, si ottiene risolvendo il sistema ζ i = + 4 p ij ζ j, i =,, 3, 4 j= Questo si risolve facilmente osservando che, per motivi di simmetria, deve essere ζ = ζ 3 = ζ 4 Giungiamo quindi al sistema ζ = + 3 ζ ζ = + ζ che dà facilmente ζ = 3, ζ = Partendo da dunque si giunge in uno degli stati 5,, in media in 3 passi 54 Come nell Esempio 536, si possono modellizzare i lanci successivi con una catena di Markov formata dagli stati C CT n CT n dove con CT i indichiamo che negli ultimi i + lanci si sono avute una croce seguita da i teste consecutive Ad ogni lancio si può passare da CT i a CT i+ con probabilità (se il lancio

101 Esercizio 54 dà ancora testa e a C con probabilità (se invece dà croce, se i n Imporremo invece che lo stato n sia assorbente Dire che con probabilità si ottengono prima o poi n teste consecutive significa dire che la catena appena descritta passa prima o poi nello stato CT n Ma questo è immediato perché tutti gli stati comunicano con lo stato CT n, che è l unico stato assorbente Quindi tutti gli stati tranne CT n sono transitori e la catena con probabilità entra nello stato CT n Il tempo medio di assorbimento ζ i nello stato n partendo dallo stato i, i =,,, n si ottiene risolvendo il sistema lineare n ζ i = + p ij ζ j j= che in questo caso diventa ζ n = + ζ ζ n = + ζ + ζ n ζ i = + ζ + ζ i+ ζ = + ζ + ζ Il tempo medio per ottenere n teste consecutive è ζ Sostituendo il valore di ζ n dato dalla prima equazione nella seconda si ottiene ζ n = + ζ + ( + ζ = + + ( + ζ Sostituendo questo valore nell equazione per ζ n 3 e più in generale, per ricorrenza, da cui per i = ζ n 3 = ( + + ζ 4 ζ i = n i + ( n i ζ ( ζ = n + = n + n ζ = ( n + n ζ = ( n ζ Quindi, finalmente, ζ = ( n = n+

102 Parte : soluzioni Ad esempio per n = 6 sono necessari in media 7 = 6 lanci 55 a Ricordiamo che una catena di nascita e morte è ricorrente se e solo se è divergente la serie di termine generale γ i = q q i p p i = ( + 3 k( + 3 k (i + 3 k ( + k( + k (i + k Cominciamo con il caso k = : nell espressione di γ i il numeratore è il prodotto di tutti i numeri interi da 4 a i + 3, mentre il denominatore è il prodotto dei numeri da a i Semplificando i fattori comuni al numeratore e al denominatore otteniamo γ i = (i + (i + (i (k = che è il termine generale di una serie divergente (anzi γ i stesso tende all infinito per i Ripetendo lo stesso argomento, semplificando cioè numeratore e denominatore che contengono sempre molti termini in comune, si ottengono le espressioni di γ i per gli altri valori di k: γ i = i + γ i = i + 6 γ i = (i + (i + (i + 3 (k = (k = (k = 3 La serie di termine generale γ i è dunque ancora divergente per k =,, ma è convergente per k = 3 In conclusione la catena è ricorrente per k =,, e transitoria per k = 3 Per stabilire quando la catena sia ricorrente positiva oppure ricorrente nulla basta vedere quando essa ammetta una distribuzione invariante La catena ammette una distribuzione invariante se e solo se è convergente la serie di termine generale ξ j = p p j = ( + k (j + k (j + 3 q q j (4 k (j + 3 k (vedi l Esempio 56 Per k = il numeratore nella frazione a destra nell espressione precedente è il prodotto dei numeri interi da a j, mentre il denominatore contiene i prodotti da 4 a j + 3 Dunque per k = ξ j = 3(j + 3 j(j + (j + (j + 3 che è il termine generale di una serie convergente (va a all infinito come j 3 Ripetendo lo stesso ragionamento per k =, e semplificando numeratore e denominatore abbiamo j + 3 ξ j = (j + (j + ξ j = j (k = (k =

103 Esercizio 55 3 Dunque la serie di termine generale ξ j è divergente per k =, ; in conclusione la catena è ricorrente positiva per k = e ricorrente nulla per k =, b Il limite in (56 è certamente = per k = 3, perché la catena è transitoria e così pure per k = e k = (ricorrente nulla Per k = invece esiste una distribuzione invariante che indicheremo π Sappiamo che lim n Pi (X n = 3 = π 3 qualunque sia lo stato iniziale i, a condizione che la catena sia aperiodica Questa condizione è verificata in questo caso, poiché l ipotesi che sia r = implica p(n, rn > Dunque lo stato è aperiodico, e, poiché la catena è irriducibile, tutti gli stati sono aperiodici Come noto la distribuzione stazionaria è data da π j = ξ j h= ξ h (dove si pone ξ =

104

105 Risultati degli esercizi proposti 9 a 5 b = 46 a 5 a b C = (A B c (B A c b3 a ( = 36, che è una probabilità non trascurabile, ma non particolarmente alta b 5%: 5 giorni, 9%: 76 giorni c 5%: 6 partecipanti, 9%: 5 partecipanti 3 a = 5 b = 8 c ( = 9 4 a = 6 b è più probabile che sia equilibrata b c n = 56 5 a n 3 b 8 n, 8n n c 8 n Paolo Baldi Calcolo delle Probabilità McGraw-Hill

106 6 Parte : risultati degli esercizi proposti 6 a 3 b 7 a Le sequenze sono equiprobabili b T T T T T T T T 8 a (3 ( 39 3 ( 5 3 = 3 b 4 ( 3 ( 39 3 ( ( 6 ( 6 3 ( ( 39 ( 3 3 ( 5 3 = 5 9 a 6 b 6 c 3 4 ( ( 8 ( 4 6 ( ( 8 ( 4 4 ( ( 8 ( 4 = 6 3 a (8 ( 4 7 ( 5 6 troppo piccola = 96 b (8 ( 7 6+( 8 ( 7 5+( 8 ( 7 4 ( 5 6 = 3 c 34; è una probabilità un po 3 a b 4 7 c 3 33 a (4 ( 6 ( 4 = 3 7 b 4 c 4 34 a (3 ( 3 ( 3 ( 3 ( 5 4 4( 6 = 55 ( 5 4 ( 6 = b (3 ( 3 ( 3 ( 3 ( 5 4 = c 6 (3 ( 3 ( 3 ( 3 ( 5 4 = 3 d 35 a q k = (3 ( k 7 ( k, k =,, 7, q 8 = b p k = 3 massima per k = c p + p 3 + p 5 + p 7 = ( k(9 k, k =, 8, 36 a b 6 37 (n! n

107 Esercizio n! 4 La probabilità di estrarre palline dello stesso colore è 4 9, quella di estrarre palline di colori diversi 9 5 ed è più grande 4 a ( ( ( = 44 b ( ( ( a (5 ( 7 ( n b n = 5 oppure n = 6 ( +n 3 44 a P(N = 3, P(R = 4, P(G = 5 b 3 b a (6 ( 3 = 3 b (45 ( 45 = 56 4 ( 9 ( 9 46 a 3 R R e B R e B 3 B ( ( ( 5 = = 5 ( ( ( 5 = = 9 ( ( ( 5 = = = = ( ( 5 ( 5 47 a 3 ( ( ( ( ( a (4 ( 48 c ( ( 3 r = 49 b 3 ( 3( ( ( ( 39 3 = 696 b (4 ( 35 = 88 c + 3 ( ( ( ( 3 5 ( 4 48 ( 4 48 ( ( 3 3 ( 6 + ( 39 = 748 := r ( 5 3 ( 4 35 ( ( 4 3 ( 39 3 ( 48 3 ( 5 3 ( 5 6 ( 5 39 ( ( 4 3 ( ( 4 3 ( 6 3 ( 48 6 ( 5 6 = 68 ( ( 39 = 83 ( 5 39

108 8 Parte : risultati degli esercizi proposti (A è calcolata in c 49 a Figura a: p p 4 ; Figura b: p + p p 4 p 3 + p 5 b p + p 3 5p 4 + p 5 c a: 59, b: 84, : 66 5 a Vero b Vero c Falso (possono essere indipendenti d Falso e Falso f Vero g Vero h Falso i Vero 5 a ( ( ( ( = 45 b ( 8 3 = 4 6 a ( 4 ( ( 67 ( ( ( 4 ( = 46 b 84 4 = 65 7 a ( n b ( n c n(n ( n d (n + ( n e ( m m ( m 8 a 4 9 b 4n (3n (3n, n a E(T = 37 4 = 3545 b E(T = 6 4 = 4856 Cambia, cambia 3 a ( 3 k, ( 3 k b 3 ( 3 k 3 ( 3 k, k = 4 k = k = c P(T = k = ( 3 k ( 3 k, E(T = 3 a ( p n b λ( p ( p( λ 3 X n B(, p, X X n B(, p n 33 a voto medio= 3 4 = 75, ( 3 6 ( 4 6 ( 34 4 = 6 b Voto medio=, ( 3 6 ( 3 6 ( 3 4 = 6

109 Esercizio E(e X = ep (e +p, ex non ha speranza matematica finita per p e, E(eX = p e( p per p > e 35 a (5 ( 5 ( 5 ( 5 6 = b 6!!!! ( 3 6 = 36 a{w = k, W = m} = {X = C,, X k = C, X k = T, X k+ = C,, X k+m = C, X k+m = T }; P(W = k, W = m = p ( p m+k = p( p k p( p m 37 a P(X + Y = k = (k p ( p k, k =, 3, b p X X+Y (k m = m, per m > k c = m per ogni k =,, m Tutti i possibili valori sono equiprobabili 38 a 6 per A, 8 per B b q i ( q i q 7 n, dove q i è la probabilità di ottenere i come somma del lancio di due dadi, q i = i 36 per i =,, 7, q i = i+ 36 per i = 8,, c q 7 + q i i,7, q i +q 7 = 465; conviene giocare come B 39 a (p + ( p n p( p b 4 a 5 a 8 3 a È più probabile che si tratti di un dado equilibrato 4 a P(Y k = ( n k m b P(Y = k = n m (k m (k m, massima per k = n c P(Y k = k (k m+ m n (n m+, P(Y = k = n (n m+ (k (k m +, massima ancora per k = n 4 a P(X = k = 6 per k =,, 4, P(X = 5 = 35 8 ; E(X = 6 b P(Y = 4 =, E(Y = 4, Var(Y = c a (r m( b k m ( r+b k k m ( r+b 3, k = b (r m ( b, = 5 per b = 7, r = 3, k = e m = b r b+r, = 3 per b = 7, r = k, = 36 per b = 7, r = 3, k = e m = 44 a p = 6 5 b n = 3 n = 4 p 3 = = 36

110 Parte : risultati degli esercizi proposti 46 a E(X = E(X 3 = b { P Y X (r k = se r = k + oppure r = k altrimenti; Ē(Y X = k = k c a = 47 a P(X = k X + Y = n = ( n k n che è una legge binomiale B(n, ; la speranza condizionale vale b Cov(X + Y, X + Z = Var(X = λ; X+Y,X+Z = c P(X + Y =, X + Z = 3 = e 3λ( λ 3 + λ4 + λ5 48 a Falso b Falso c Vero d No e Falso 49 a k 6 b Usando un software adatto si trova che la probabilità che una va binomiale B(, 3 assuma valori < 6 (ovvero 6 vale 5 a H(p λ ; p λ = λ log λ λ +λ λ b H(µ p ; µ p = n { p log p p +( p log p p } 5 a P(X = 3 = 5 8 b E(X =, Var(X = c X+Y è geometrica di parametro 53 P(S N = = e λ( p, P(S N = = λp( pe λ( p 5 a Binomiale negativa di parametri p, α + β b E(X = α p p p, Var(X = α p 335 b e 7 4 = 336 Y è esponenziale di parametro λ f Z (t = 3t e λt3 per t > 337 a F X (x = x θ per x, = per x e = per x b P(X 3 =, P(X 3 = 3 θ c Y è esponenziale di parametro θ d E(X = θ+ θ, Var(X = θ (θ+ (θ+

111 Esercizio af(t = (θ+t θα α b Speranza matematica= α θ perα >, varianza= αθ per α > (α (α 339 a f Y (t = nel caso a, E(Y = nel caso b π t, t b f Y(t = π ( t/ ( + t / c E(Y = 34 a E(X =, Var(X = b αx è di Laplace di parametro λ λ α, X è esponenziale di parametro λ 34 a P(X t = ( t n, f X (t = n( t n, t b f X (t = nt n d E(X = n+ n, E(X = n+ t 34 F Y (t = se t, F Y (t = e λt se t < M, F Y (t = se t M No 343 a 977 b 668 c 477 d a ( 66 = 38 b 54 c a F X (t = (t n b 6 c n 7 d a 7 b e = α = 4, λ = 4 nel primo caso e α = 4, λ = 4 nel secondo 348 a f W (t = c t 3/4 e t, che è una Ŵ( 4, b Ŵ( 4 c E(X =, Var(X = Ŵ( 3 4 Ŵ( a e per α =, e per α =, 5 e per α = 3 b = (44 ( 44 = 843 per α = ; = Ŵ( 3 e + (44 ( 44 = 43 per α = 3 ( ; = + e + (44 ( 44( = 5 per α = 5 Ŵ( 5 Ŵ( 3 35 a f Y (t = n/ Ŵ( n tn e t / b E( X = Ŵ( n+ ( Ŵ( n, Var(Y = n Ŵ( n+ ; Ŵ( n

112 Parte : risultati degli esercizi proposti per n = 3 E(Y = π,var(y = 3 π 8 ; per n = 4 E(Y = 3 4 π, Var(Y = π 35 f Z (t = e λt (λ t + λ 3 t, E(Z = 5 4λ 35 a E[ X ] = α λ per α > Var( X = λ per α > (α (α b g(t = Ŵ(α λα t (+α e λ/t 353 a Ŵ(α, λ a λ q β b Ŵ(, b a = 8, b = 354 a g è ancora esponenziale di parametro λ b g(x = (λ+λ xe λx c g è di Pareto di parametri α e λ 355 b 3 c a F(x = { e λt se t e λt se t a Se X è uniforme su [, ], allora F (X è di Laplace di parametri λ, dove F (y = λ log(y per y e F (y = λ log(( y per y b Se X è uniforme su [, ], allora F (X è di Weibull di parametri β e λ se F (y = ( λ log( y /β 357 a µ = σ b X X è lognormale di parametri µ +µ e σ +σ c Lognormale di parametri e σ 358 a m(t = λ, t λ b m λ t Y W (t = λ, Y W è di Laplace di parametro λ t λ c Y W è esponenziale di parametro λ, E( Y W = λ d = m X( = E(X, = m X( = Var(X λ 359 r(t = θ+t α, decrescente in t; no 36 a f Z (t = λe λt ( e λt b E(Z = λ 3, Var(Z = 5 c r(t = 4λ e λt ; sì d m Z (t = λ t λ λ t λ

113 Esercizio a = E(X 36 b (b + a b m = [ (b + a b3 E[ X z ] = (b a (z a + (b z ] b4 z = (b + a c E(X = λ, m = λ log, E[ X z ] = z λ ( e λz, z = λ log 363 a Se X è una va di densità f, E(X = ψ (, Var(X = ψ ( b Se Y è una va di densità f γ, E(Y = ψ (γ, Var(Y = ψ (γ b3 ψ (γ = Var(X b4 f γ N(σ γ, σ b5 f γ Ŵ(α, λ γ b6 f γ (x = λ γ λ e λ x +γx, m γ (t = λ γ λ (t+γ 364 a r R b ( r R n b ( r nr n e r R 365 a P(Y = = 4 3 6, P(Y = 5 = 5, P(Y = = a E(Y = 8 b c = π, l area più probabile resta quella relativa al punteggio b E(Y = e 367 a P( X Y > λ = e b X Y èesponenziale di parametroλ cg X Y(t = λ e λ t (di Laplace di parametro λ 368 a c = b f X (x = log x per < x <, Y è uniforme su [, ]; X e Y non sono indipendenti d P(Y > X = 369 a 3 b 3 c 3 37 X, Y Ŵ(, 37 a X è esponenziale di parametro λ, f Y (y = di parametro λ d (y+, f X Y (x y = λ x(y + e λx(y+, E[X Y = y] = y > b Sì c Esponenziale λ(y +

114 4 Parte : risultati degli esercizi proposti 37 a Ŵ(α + β, λ b g(x, y = Ŵ(αŴ(β λα+β xα (y x β e λy per < x < y c g X X+Y (x z = Ŵ(α+β Ŵ(αŴ(β z (x z α ( x z β d Ē(X X + Y = z = α α+β z La retta di regressione è x = az + b dove a = α α+β, b = 373 a Ē(Z X = x = α+n+β α+x nα b E(X = α+β 374 a g(u, v = Ŵ(αŴ(β λα+β uα v α+β ( u α+ b f U (u = Ŵ(α+β λ exp ( λ v u, per x >, y > Ŵ(αŴ(β uα ( u β cioè U Beta(α, β λ c f Y U (v t = α+β v α+β exp ( λ Ŵ(α+β( t α+β t v d Ē[U U = t] = λ (α + β( t La retta di regressione di Y rispetto a U è y = (α + β( t (cioè coincide con la speranza condizionale 375 a p X (k = αŵ(α+βŵ(β+k β Ŵ(βŴ(α+β+k+ b E(X = α, se α > ; X non ha speranza matematica finita se α c Ē(Y X = k = α+β+k+ α+ 376 a E(X = E(Y = b P(Y X = a f X (x = αλxα (λ+x α b f Y X (y x = (λ + x α ye y(λ+xα E[Y X = x] = λ+x α 378 f X (x = Ŵ( n + Ŵ( n πn (+ x n n+ 379 a g(u, v = 8 (u v e u b g X Y (v = 4 e v ( + v 38 a P(X Y = n b f (t = { λ4 e λt se t < λ 4 e λt ( + λt se t 38 a E(X =, Var(X = b E[(X +Y 4 ] = 4! = 4 c Sì X +Y +Z ha una densità continua, P(X + Y + Z =

115 Esercizio a E(X =, E(X =, E(X 3 = b E[(X+Y ] = 4, E[(X+Y 4 ] = 3 4! = a φ X (θ = sin θ θ b φ Y (θ = φ X (θ X + X Y ( cos θ c φ θ Y (θ = ( cos θ+sin θ θ = sin θ θ = 384 a φ(θ = e (θ +θ +θ θ, f (x = 3 π e 3 (x +x x x b X Ŵ(, 4 c U N(, 6, U N(, ; U e U N(, sono indipendenti d C non è una matrice definita positiva ( 385 a f (x = 4 π 5 e 5 8x +3x +8x x 4x x + b 5 8 b 6, sia per X = che per X = 4 b a (X + Y, X + Y è congiuntamente gaussiana, centrata e di matrice di covarianza b 3 t C = 387 a Sì b No b Sì c g(y, z = no ( ( π exp ( 8 6 3y + 9z 6yz d No, 388 a Var(X = σ 4 ψ X (t = per t < b σ t σ O = ( Z N(, 3, Z N(, b Var(Z + Z =, b3 Y + Y = Z + Z ψ Z +Z, = ( 6t( t, per t a x b y n c n = 4: 733, n = 8: 79 Le probabilità non cambiano passando da X a X n

116 6 Parte : risultati degli esercizi proposti 4 a ( n X n n converge in probabilità verso la va costante p b (X n n converge in probabilità verso la va costante α λ 43 a 6 44 a ( = 34 b 3333; l approssimazione di Poisson dà 33336, l approssimazione normale a Probabilità di superare il test: 37 4, di prendere un voto inferiore a 5: b 66 c p = a Approssimazione normale: 5, risultato esatto (vedi Esempio 345: 55 b 57 c Skewness di X: 5 / = 89, skewness di Y : 5 / = 4 47 a ( 67 = 878 (con correzione di continuità b n a 67 b 8 49 a lim n P(X n n + n = ( = 84, lim n P(X n n = ( = b 43 a Vero b Vero c Vero 43 a Z n P n b a S n n N(, 5 b 433 a S n n N(, b Y n Ŵ(,

117 Esercizio a E(log X n = b Y n in probabilità c W n W, con W di densità f W (t = e (log t /((log π t log 436 b W n Ŵ(n, n b U n n N(, a Y n n N(, 437 a 3 b 9 c Sì, affidabile 438 a 6 b n c n a (86 = b (68 = 7 44 a (Z n n converge in legge e in probabilità ad una va che prende il valore con probabilità b (Y n n converge in legge e in probabilità ad una va che prende il valore λ con probabilità 44 a (M n n converge in legge e in probabilità ad una va che prende il valore con probabilità b (Z n n converge in legge ad una va esponenziale di parametro 44 a(ny n n converge in legge a una legge esponenziale di parametro b(ny n n converge in legge ad una va che prende il valore con probabilità 443 Converge in legge alla fr F(x = e e x Se le X i hanno fr F(x = e e x, allora M n ha fr F per ogni n 444 a c = α b Converge in legge ad una va avente fr G(t = e t α per t > 445 Converge ad una va di funzione caratteristica φ(θ = e θ, cioè di Cauchy 56 P è irriducibile ma non regolare, P e P 3 sono regolari Per P e P 3 la distribuzione stazionaria è la probabilità uniforme Per P la distribuzione stazionaria è (, 4, 4 57 a P non è irriducibile, P è regolare b Per P si ha P (X n = = per ogni n, per P lim n P (X n = = 7 c No

118 8 Parte : risultati degli esercizi proposti 58 a è transitorio, gli altri sono ricorrenti La catena non è irriducibile b Ci sono infinite distribuzioni stazionarie, della forma ( α 5,, 3α 5, 3( α 7, 4( α 7, α 59 a La catena è regolare b ( 7, 7, 3 7, P (X n = a La catena è regolare b ( 9, 9 9, 9 9 c 7 d Ora la catena è irriducibile ma non è più regolare La distribuzione stazionaria è ( 8, 4 9, 5 a La catena è regolare b ( 7, 7, a e sono transitori, 3, 4, 5 ricorrenti b 3 c (,,,,, (,,,, e (,,, 4, 4, ad esempio 53 a Irriducibile ma non regolare La distribuzione stazionaria è uniforme ed è reversibile b Ora la catena è regolare La distribuzione stazionaria è sempre quella uniforme c 54 a b 3, 55 a P = b La catena è irriducibile ma non regolare π = ( 8, 8, 6 3, 6 3, 8, 6 3, 6 c La catena è regolare π = ( 9, 9, 6, 6, 6, 6, 9 d 9 4 La probabilità più piccola si ha per lo stato i =

119 Esercizio a ( p p 3 ( p P = ( p p ( p ( p p 5 ( p 4 b 6 (non dipende da p c 6 ( p 57 a La catena è irriducibile ma non regolare b La distribuzione stazionaria vale 4 per gli stati negli angoli, 6 per quelli sui lati che non sono negli angoli, per quelli in mezzo c La catena è regolare La distribuzione stazionaria vale 84 3 per gli stati negli angoli, 5 84 per quelli 8 sui lati che non sono negli angoli, 84 per quelli in mezzo d La catena è irriducibile ma non regolare La distribuzione stazionaria vale 68 per gli stati negli angoli, 3 68 per quelli sui lati che non sono negli angoli, per quelli in mezzo a La distribuzione invariante vale per gli stati, 5, 6, 7, 8, 9, e 36 5 per gli altri La catena non è regolare b 4 59 a p i,i+ = ( p( N i, per i N, p i,i = p, p i,i = ( p N i, per i N, p ij = altrimenti b Irriducibile se p <, regolare se < p < c π i = N( N i (come per il modello di Ehrenfest, Esercizio 5 e non dipende da p Per n grande l urna è vuota con probabilità N 53 b q i = ( p N i, p i = p N i N, r i = p + N i ( p b la catena è irriducibile e regolare b3 π i = ( N i p i ( p N i ; per n grande la proporzione di tempo in cui la l urna è stata composta di sole palline bianche (risp rosse è π N = p N (risp π = ( p N c NN N! 53 a P =

120 Parte : risultati degli esercizi proposti a Irriducibile ma non regolare a3 v = 8, v = 8 3, v = 3 8, v 3 = 8 b P = b Irriducibile e regolare b3 v = 8, v = 3 8, v = 8 3, v 3 = 8 (la stessa che in a3 53 b ( 3, 3, 3 c ( 7, 7, b p +q qp c Se p = con le condizioni proposte in realtà B ci guadagna d b La distribuzione stazionaria è l uniforme π = ( 3, 3, 3 La catena è reversibile c è assorbente, e 3 sono transitori d π = ( +8α 4α, +8α, 4α +8α, reversibile per ogni α, α ; π è minima per α = e Se α > lim n P (X n = = π = 3 Se α = lim n P (X n = = 535 a p N = p; la legge di X n è data dal vettore a per ogni n c π = a d Gli stati transitori sono quelli tali che a i = Gli altri sono ricorrenti e formano un classe chiusa irriducibile 537 a Vero, b falso, c vero, d falso, e falso

UNIVERSITÀ di ROMA TOR VERGATA

UNIVERSITÀ di ROMA TOR VERGATA UNIVERSITÀ di ROMA TOR VERGATA Corso di Laurea Magistrale in Scienze della Nutrizione Umana Corso di Statistica Medica, anno 05-6 P.Baldi Lista di esercizi, 8 gennaio 06. Esercizio Si sa che in una schedina

Dettagli

UNIVERSITÀ di ROMA TOR VERGATA

UNIVERSITÀ di ROMA TOR VERGATA UNIVERSITÀ di ROMA TOR VERGATA Corso di Statistica, anno 00- P.Baldi Lista di esercizi. Corso di Laurea in Biotecnologie Esercizio Si sa che in una schedina del totocalcio i tre simboli, X, compaiono con

Dettagli

Esercizi svolti di statistica. Gianpaolo Gabutti

Esercizi svolti di statistica. Gianpaolo Gabutti Esercizi svolti di statistica Gianpaolo Gabutti ([email protected]) 1 Introduzione Questo breve documento contiene lo svolgimento di alcuni esercizi di statistica da me svolti durante la preparazione

Dettagli

CP110 Probabilità: Esonero 1. Testo e soluzione

CP110 Probabilità: Esonero 1. Testo e soluzione Dipartimento di Matematica, Roma Tre Pietro Caputo 2009-2010, II semestre 1 aprile, 2010 CP110 Probabilità: Esonero 1 Testo e soluzione 1. (7 pt Una scatola contiene 15 palle numerate da 1 a 15. Le palle

Dettagli

UNIVERSITÀ di ROMA TOR VERGATA

UNIVERSITÀ di ROMA TOR VERGATA UNIVERSITÀ di ROMA TOR VERGATA Corso di Statistica, anno 2010-11 P.Baldi Lista di esercizi 3. Corso di Laurea in Biotecnologie Esercizio 1 Una v.a. X segue una legge N(2, ). Calcolare a1) P(X 1) a2) P(2

Dettagli

SOLUZIONI DEL 1 0 TEST DI PREPARAZIONE ALLA 1 a PROVA INTERMEDIA

SOLUZIONI DEL 1 0 TEST DI PREPARAZIONE ALLA 1 a PROVA INTERMEDIA SOLUZIONI DEL 1 0 TEST DI PREPARAZIONE ALLA 1 a PROVA INTERMEDIA 1 Esercizio 0.1 Dato P (A) = 0.5 e P (A B) = 0.6, determinare P (B) nei casi in cui: a] A e B sono incompatibili; b] A e B sono indipendenti;

Dettagli

Esercizi di Calcolo delle Probabilità

Esercizi di Calcolo delle Probabilità Esercizi di Calcolo delle Probabilità Versione del 1/05/005 Corso di Statistica Anno Accademico 00/05 Antonio Giannitrapani, Simone Paoletti Calcolo delle probabilità Esercizio 1. Un dado viene lanciato

Dettagli

p k q n k = p n (k) = n 12 = 1 = 12 1 12 11 10 9 1 0,1208. q = 1 2 e si ha: p 12 (8) = 12 8 4

p k q n k = p n (k) = n 12 = 1 = 12 1 12 11 10 9 1 0,1208. q = 1 2 e si ha: p 12 (8) = 12 8 4 CAPITOLO QUARTO DISTRIBUZIONE BINOMIALE (O DI BERNOULLI) Molti degli esempi che abbiamo presentato nei capitoli precedenti possono essere pensati come casi particolari di uno schema generale di prove ripetute,

Dettagli

Esercizi su variabili discrete: binomiali e ipergeometriche

Esercizi su variabili discrete: binomiali e ipergeometriche CORSO DI CALCOLO DELLE PROBABILITÀ E STATISTICA Esercizi su variabili discrete: binomiali e ipergeometriche Es1 Due squadre di rugby si sfidano giocando fra loro varie partite La squadra che vince 4 partite

Dettagli

STATISTICA ESERCITAZIONE 9

STATISTICA ESERCITAZIONE 9 STATISTICA ESERCITAZIONE 9 Dott. Giuseppe Pandolfo 19 Gennaio 2015 REGOLE DI CONTEGGIO Sequenze ordinate Sequenze non ordinate Estrazioni con ripetizione Estrazioni senza ripetizione Estrazioni con ripetizione

Dettagli

Calcolo delle Probabilità 2013/14 Foglio di esercizi 3

Calcolo delle Probabilità 2013/14 Foglio di esercizi 3 Calcolo delle Probabilità 203/4 Foglio di esercizi 3 Probabilità condizionale e indipendenza. Esercizio. Per rilevare la presenza di una certa malattia, si effettua un test. Se la persona sottoposta al

Dettagli

Variabili casuali ad una dimensione Testi degli esercizi. Variabili casuali ad una dimensione a.a. 2012/2013 1

Variabili casuali ad una dimensione Testi degli esercizi. Variabili casuali ad una dimensione a.a. 2012/2013 1 Variabili casuali ad una dimensione Testi degli esercizi 1 Costruzione di variabile casuale discreta Esercizio 1. Sia data un urna contenente 3 biglie rosse, 2 biglie bianche ed una biglia nera. Ad ogni

Dettagli

Probabilità 1, laurea triennale in Matematica I prova scritta sessione estiva a.a. 2008/09

Probabilità 1, laurea triennale in Matematica I prova scritta sessione estiva a.a. 2008/09 Probabilità, laurea triennale in Matematica I prova scritta sessione estiva a.a. 2008/09. Due roulette regolari vengono azionate più volte; sia T il numero di volte che occorre azionare la prima roulette

Dettagli

ESERCIZI SU EVENTI E VARIABILI ALEATORIE DISCRETE

ESERCIZI SU EVENTI E VARIABILI ALEATORIE DISCRETE ESERCIZI SU EVENTI E VARIABILI ALEATORIE DISCRETE Docente titolare: Irene Crimaldi 26 novembre 2009 Es.1 Supponendo che la probabilità di nascita maschile e femminile sia la stessa, calcolare la probabilità

Dettagli

Calcolo della probabilità

Calcolo della probabilità Calcolo della probabilità GLI EVENTI Un evento è un fatto che può accadere o non accadere. Se esso avviene con certezza si dice evento certo, mentre se non può mai accadere si dice evento impossibile.

Dettagli

Metodi quantitativi per i mercati finanziari

Metodi quantitativi per i mercati finanziari Metodi quantitativi per i mercati finanziari Esercizi di probabilità Spazi di probabilità Ex. 1 Sia Ω = {1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}. Siano A e B sottoinsiemi di Ω tali che A = {numeri pari},

Dettagli

Calcolo Combinatorio e Probabilità

Calcolo Combinatorio e Probabilità Calcolo Combinatorio e Probabilità Andrea Galasso 1 Calcolo Combinatorio Definizione 1 Fissati n, k N, con k n, indicheremo con D n,k := n! (n k)! le disposizioni di n oggetti in k posti e con DR n,k :=

Dettagli

Correzione primo compitino, testo B

Correzione primo compitino, testo B Correzione primo compitino, testo B gennaio 20 Parte Esercizio Facciamo riferimento alle pagine 22 e 2 del libro di testo Quando si ha a che fare con la moltiplicazione o la divisione di misure bisogna

Dettagli

I diritti d autore sono riservati. Ogni sfruttamento commerciale non autorizzato sarà perseguito.

I diritti d autore sono riservati. Ogni sfruttamento commerciale non autorizzato sarà perseguito. TEST DI AUTOVALUTAZIONE - SETTIMANA I diritti d autore sono riservati. Ogni sfruttamento commerciale non autorizzato sarà perseguito. Metodi statistici per la biologia 1 Parte A 1.1 Si considerino gli

Dettagli

Esercitazione del 31/01/2012 Istituzioni di Calcolo delle Probabilità

Esercitazione del 31/01/2012 Istituzioni di Calcolo delle Probabilità Esercitazione del 1/01/2012 Istituzioni di Calcolo delle Probabilità Esercizio 1 Vengono lanciati due dadi regolari a 6 facce. (a) Calcolare la probabilità che la somma dei valori ottenuti sia 9? (b) Calcolare

Dettagli

Statistica ARGOMENTI. Calcolo combinatorio

Statistica ARGOMENTI. Calcolo combinatorio Statistica ARGOMENTI Calcolo combinatorio Probabilità Disposizioni semplici Disposizioni con ripetizione Permutazioni semplici Permutazioni con ripetizioni Combinazioni semplici Assiomi di probabilità

Dettagli

Esercitazione 4 del corso di Statistica 2 Prof. Domenico Vistocco

Esercitazione 4 del corso di Statistica 2 Prof. Domenico Vistocco Esercitazione 4 del corso di Statistica 2 Prof. Domenico Vistocco Alfonso Iodice D Enza May 23, 2007 1 Esercizio Si consideri un mazzo di carte francesi di 2 carte e si supponga di stare giocando a poker.

Dettagli

STATISTICA: esercizi svolti sulle VARIABILI CASUALI

STATISTICA: esercizi svolti sulle VARIABILI CASUALI STATISTICA: esercizi svolti sulle VARIABILI CASUALI VARIABILI CASUALI 2 VARIABILI CASUALI. Variabili casuali generiche. Si supponga che un dado truccato, formato da sei facce contrassegnate dai numeri

Dettagli

Calcolo delle Probabilità 2013/14 Foglio di esercizi 2

Calcolo delle Probabilità 2013/14 Foglio di esercizi 2 Calcolo delle Probabilità 2013/1 Foglio di esercizi 2 Calcolo combinatorio. Esercizio 1. In un mazzo di 52 carte da Poker ogni carta è identificata da un seme (cuori, quadri, fiori, picche e da un tipo

Dettagli

Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana /16

Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana /16 Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana - 015/16 Esercizio 1 Per quali valori n Z \ {0} l espressione è un numero intero positivo? (n + 5)(n + 6) 6n Soluzione. Il problema

Dettagli

ESERCIZI DI PROBABILITA

ESERCIZI DI PROBABILITA ESERCIZI DI PROBABILITA Quest'opera è stata rilasciata sotto la licenza Creative Commons Attribuzione-Non commerciale-condividi allo stesso modo 2.5 Italia. Per leggere una copia della licenza visita il

Dettagli

Statistica 1 A.A. 2015/2016

Statistica 1 A.A. 2015/2016 Corso di Laurea in Economia e Finanza Statistica 1 A.A. 2015/2016 (8 CFU, corrispondenti a 48 ore di lezione frontale e 24 ore di esercitazione) Prof. Luigi Augugliaro 1 / 51 Introduzione Il Calcolo delle

Dettagli

È l insieme di tutti i possibili esiti di un esperimento aleatorio; si indica generalmente con il simbolo.

È l insieme di tutti i possibili esiti di un esperimento aleatorio; si indica generalmente con il simbolo. A Ripasso Terminologia DOMADE Spazio campionario Evento Evento certo Evento elementare Evento impossibile Evento unione Evento intersezione Eventi incompatibili Evento contrario RISPOSTE È l insieme di

Dettagli

STATISTICA A K (63 ore) Marco Riani

STATISTICA A K (63 ore) Marco Riani STATISTICA A K (63 ore) Marco Riani [email protected] http://www.riani.it Esempio totocalcio Gioco la schedina mettendo a caso i segni 1 X 2 Qual è la prob. di fare 14? Esempio Gioco la schedina mettendo

Dettagli

Corso di Calcolo delle Probabilità e Statistica. Esercizi su variabili aleatorie discrete

Corso di Calcolo delle Probabilità e Statistica. Esercizi su variabili aleatorie discrete Corso di Calcolo delle Probabilità e Statistica Esercizi su variabili aleatorie discrete Es.1 Da un urna con 10 pallina bianche e 15 palline nere, si eseguono estrazioni con reimbussolamento fino all estrazione

Dettagli

UNITÀ DIDATTICA 5 LA RETTA

UNITÀ DIDATTICA 5 LA RETTA UNITÀ DIDATTICA 5 LA RETTA 5.1 - La retta Equazione generica della retta Dalle considerazioni emerse nel precedente capitolo abbiamo compreso come una funzione possa essere rappresentata da un insieme

Dettagli

Lezione 12. Statistica. Alfonso Iodice D Enza Università degli studi di Cassino. Lezione 12. A. Iodice.

Lezione 12. Statistica. Alfonso Iodice D Enza Università degli studi di Cassino. Lezione 12. A. Iodice. discrete uniforme Bernoulli Poisson Statistica Alfonso Iodice D Enza [email protected] Università degli studi di Cassino () Statistica 1 / 56 Outline discrete uniforme Bernoulli Poisson 1 2 discrete 3

Dettagli

Ψ PSICOMETRIA. Corso di laurea triennale (classe 34) STATISTICA INFERENZIALE

Ψ PSICOMETRIA. Corso di laurea triennale (classe 34) STATISTICA INFERENZIALE Ψ PSICOMETRIA Corso di laurea triennale (classe 34) STATISTICA INFERENZIALE STATISTICA INFERENZIALE CAMPIONE caratteristiche conosciute POPOLAZIONE caratteristiche sconosciute STATISTICA INFERENZIALE STIMA

Dettagli

Probabilità esempi. Aiutiamoci con una rappresentazione grafica:

Probabilità esempi. Aiutiamoci con una rappresentazione grafica: Probabilità esempi Paolo e Francesca giocano a dadi. Paolo scommette che, lanciando due dadi, si otterrà come somma 8 oppure 9. Francesca scommette che si otterrà come somma un numero minore o uguale a

Dettagli

ESERCITAZIONE 20 : VARIABILI ALEATORIE DISCRETE

ESERCITAZIONE 20 : VARIABILI ALEATORIE DISCRETE ESERCITAZIONE 20 : VARIABILI ALEATORIE DISCRETE e-mail: [email protected] web: www.dm.unipi.it/ tommei Ricevimento: su appuntamento Dipartimento di Matematica, piano terra, studio 114 30 Aprile 2013 Esercizio

Dettagli

COMBINATORIA E PROBABILITA

COMBINATORIA E PROBABILITA Liceo Scientifico G. Salvemini Corso di preparazione per la gara provinciale delle OLIMPIADI DELLA MATEMATICA INTRO COMBINATORIA E PROBABILITA CALCOLO COMBINATORIO Il Calcolo Combinatorio è lo studio dei

Dettagli

PROBABILITÁ e CALCOLO COMBINATORIO

PROBABILITÁ e CALCOLO COMBINATORIO PROBABILITÁ e CALCOLO COMBINATORIO Prof. Enrico Terrone A. S: 2008/09 Probabilità e calcolo combinatorio Abbiamo visto la definizione classica di probabilità: probabilità dell evento = (casi favorevoli)

Dettagli

Precorsi di matematica

Precorsi di matematica Precorsi di matematica Francesco Dinuzzo 12 settembre 2005 1 Insiemi Il concetto di base nella matematica moderna è l insieme. Un insieme è una collezione di elementi. Gli elementi di un insieme vengono

Dettagli

PROBLEMI DI PROBABILITÀ

PROBLEMI DI PROBABILITÀ PROBLEMI DI PROBABILITÀ 1. Si dispongono a caso su uno scaffale sette libri, dei quali tre trattano di matematica. Qual è la probabilità che i tre libri di matematica si vengano a trovare l uno accanto

Dettagli

Domande di teoria. Esercizi

Domande di teoria. Esercizi 1 Domande di teoria 1. Vedi pp. 131-132 2. Vedi pp. 132-134 3. Vedi p. 134 4. Vedi p. 135 5. Vedi pp. 136-142 6. Vedi pp. 138-139 7. Vedi pp. 141-142 8. Vedi pp. 143-146 9. Vedi pp. 146-148 Esercizi Esercizio

Dettagli

STATISTICA (2) ESERCITAZIONE 1. Dott.ssa Antonella Costanzo

STATISTICA (2) ESERCITAZIONE 1. Dott.ssa Antonella Costanzo STATISTICA (2) ESERCITAZIONE 1 29.01.2014 Dott.ssa Antonella Costanzo Esercizio 1. Modelli discreti di probabilità: le v.c. binomiale e geometrica (come caso particolare della v.c. binomiale negativa)

Dettagli

Elementi di Analisi Combinatoria

Elementi di Analisi Combinatoria Elementi di Analisi Combinatoria Angelica Malaspina Dipartimento di Matematica, Informatica ed Economia Università degli Studi della Basilicata, Italy [email protected] Lo studio dei vari raggruppamenti

Dettagli

Probabilità classica. Distribuzioni e leggi di probabilità. Probabilità frequentista. Probabilità soggettiva

Probabilità classica. Distribuzioni e leggi di probabilità. Probabilità frequentista. Probabilità soggettiva Probabilità classica Distribuzioni e leggi di probabilità La probabilità di un evento casuale è il rapporto tra il numero dei casi favorevoli ed il numero dei casi possibili, purchè siano tutti equiprobabili.

Dettagli

Due variabili aleatorie X ed Y si dicono indipendenti se comunque dati due numeri reali a e b si ha. P {X = a, Y = b} = P {X = a}p {Y = b}

Due variabili aleatorie X ed Y si dicono indipendenti se comunque dati due numeri reali a e b si ha. P {X = a, Y = b} = P {X = a}p {Y = b} Due variabili aleatorie X ed Y si dicono indipendenti se comunque dati due numeri reali a e b si ha P {X = a, Y = b} = P {X = a}p {Y = b} Una variabile aleatoria χ che assume i soli valori 1, 2,..., n

Dettagli

IL CALCOLO DELLE PROBABILITA

IL CALCOLO DELLE PROBABILITA IL CALCOLO DELLE PROBABILITA INTRODUZIONE Già 3000 anni fa gli Egizi praticavano un antenato del gioco dei dadi, che si svolgeva lanciando una pietra. Il gioco dei dadi era diffuso anche nell antica Roma,

Dettagli

Binomio di Newton. Pertanto, il numero di sottoinsiemi di S, compreso il sottoinsieme vuoto ; elostessos, è dato da. = 2 n, r. (a + b) n = a r b n r,

Binomio di Newton. Pertanto, il numero di sottoinsiemi di S, compreso il sottoinsieme vuoto ; elostessos, è dato da. = 2 n, r. (a + b) n = a r b n r, Binomio di Newton Osserviamo che, volendo costruire un generico sottoinsieme I S, si deve eseguire una procedura di n passi, con alternative in ogni passo. Infatti, occorre decidere per ciascuno degli

Dettagli

NOZIONI DI CALCOLO DELLE PROBABILITÀ

NOZIONI DI CALCOLO DELLE PROBABILITÀ NOZIONI DI CALCOLO DELLE PROBABILITÀ ESPERIMENTO CASUALE: un esperimento si dice casuale quando gli esiti (manifestazioni o eventi) non possono essere previsti con certezza. PROVA: le ripetizioni, o occasioni

Dettagli

Correzione primo compitino, testo A

Correzione primo compitino, testo A Correzione primo compitino, testo A Parte Esercizio Facciamo riferimento alle pagine 22 e 2 del libro di testo Quando si ha a che fare con la moltiplicazione o la divisione di misure bisogna fare attenzione,

Dettagli

La circonferenza nel piano cartesiano

La circonferenza nel piano cartesiano 6 La circonferenza nel piano cartesiano onsideriamo la circonferenza in figura in cui il centro è ; e il raggio 5 r : se indichiamo con P ; un punto della circonferenza avremo, per definizione, che la

Dettagli

PROBABILITA : TERNO AL LOTTO

PROBABILITA : TERNO AL LOTTO PROBABILITA : TERNO AL LOTTO Qual è la probabilità di fare un terno al lotto? Possiamo dare una valutazione di equiprobabilità degli eventi Casi possibili 90 5 Casi favorevoli Probabilità 87 2 87 2 90

Dettagli

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2006/07

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2006/07 PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 006/07 Esercizio 1 Prova scritta del 16/1/006 In un ufficio postale lavorano due impiegati che svolgono lo stesso compito in maniera indipendente, sbrigando

Dettagli

MATEMATICA E STATISTICA CORSO B PROF. MARCO ABATE. 23 novembre 2006

MATEMATICA E STATISTICA CORSO B PROF. MARCO ABATE. 23 novembre 2006 MATEMATICA E STATISTICA CORSO B PROF. MARCO ABATE PRIMO COMPITINO FILA A SOLUZIONI 3 novembre 006. Parte I Esercizio.. Se 99 < x < 0 e 9 < y

Dettagli

Esercizi di Calcolo combinatorio: disposizioni

Esercizi di Calcolo combinatorio: disposizioni Calcolo combinatorio: disposizioni La Big Triple all ippodromo del luogo consiste nell indicare il corretto ordine di arrivo dei cavalli classificati tra i primi tre nella nona corsa. Se ci sono 12 cavalli

Dettagli

Calcolo delle Probabilità 2

Calcolo delle Probabilità 2 Prova d esame di Calcolo delle Probabilità 2 Maggio 2006 Sia X una variabile aleatoria distribuita secondo la densità seguente ke x 1 x < 0 f X (x) = 1/2 0 x 1. 1. Determinare il valore del parametro reale

Dettagli

1 4 Esempio 2. Si determini la distribuzione di probabilità della variabile casuale X = punteggio ottenuto lanciando un dado. Si ha immediatamente:

1 4 Esempio 2. Si determini la distribuzione di probabilità della variabile casuale X = punteggio ottenuto lanciando un dado. Si ha immediatamente: CAPITOLO TERZO VARIABILI CASUALI. Le variabili casuali e la loro distribuzione di probabilità In molte situazioni, dato uno spazio di probabilità S, si è interessati non tanto agli eventi elementari (o

Dettagli

Matematica con elementi di statistica ESERCIZI: probabilità

Matematica con elementi di statistica ESERCIZI: probabilità Matematica con elementi di statistica ESERCIZI: probabilità Esercizi sulla Probabilità Esercizio 1. In un corso di laurea uno studente deve scegliere un esame fra 8 di matematica e un esame fra 5 di fisica.

Dettagli

PROBABILITA. ESERCIZIO: In un urna ci sono 2 biglie rosse, 2 biglie bianche ed 1 biglia gialla.

PROBABILITA. ESERCIZIO: In un urna ci sono 2 biglie rosse, 2 biglie bianche ed 1 biglia gialla. PROBABILITA ESERCIZIO: In un urna ci sono 2 biglie rosse, 2 biglie bianche ed 1 biglia gialla. a) Si eseguono due estrazioni con rimessa, calcolare la probabilità che le biglie estratte abbiano lo stesso

Dettagli

Disequazioni di secondo grado

Disequazioni di secondo grado Disequazioni di secondo grado. Disequazioni Definizione: una disequazione è una relazione di disuguaglianza tra due espressioni. Detti p() e g() due polinomi definiti in un insieme A, una disequazione

Dettagli

ESERCIZI PROBABILITA E CALCOLO COMBINATORIO CON RISULTATI 1. P che estraendo a caso 1 carta da un mazzo di 52 sia una regina?

ESERCIZI PROBABILITA E CALCOLO COMBINATORIO CON RISULTATI 1. P che estraendo a caso 1 carta da un mazzo di 52 sia una regina? ESERCIZI PROBABILITA E CALCOLO COMBINATORIO CON RISULTATI 1. P che estraendo a caso 1 carta da un mazzo di 52 sia una regina? [4/52] 2. Estratta una Q, P che ad una seconda estrazione si presenti ancora

Dettagli

Lanciando un dado, il tuo compagno esclama: uscirà 1, 2, 3, 4, 5 o 6 oppure: uscirà il numero 4. uscirà il numero 9

Lanciando un dado, il tuo compagno esclama: uscirà 1, 2, 3, 4, 5 o 6 oppure: uscirà il numero 4. uscirà il numero 9 Lanciando un dado, il tuo compagno esclama: uscirà 1, 2, 3, 4, 5 o 6 oppure: uscirà il numero 4 o ancora: uscirà il numero 9 Possiamo dire che le previsione del tuo compagno sono la prima certa, la seconda

Dettagli

prima urna seconda urna

prima urna seconda urna Un po di fortuna Considera il seguente gioco: ci sono due urne contenenti delle palline perfettamente uguali tra loro, ma colorate diversamente, alcune bianche, altre nere. Nella prima urna ci sono una

Dettagli

Corso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza

Corso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza Corso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza CALCOLO DELLE PROBABILITÀ E STATISTICA ESAME DEL 16/06/2016 NOME: COGNOME: MATRICOLA: Esercizio 1 Cinque lettere

Dettagli

La PROBABILITA è un numero che si associa ad un evento E ed esprime il grado di aspettativa circa il suo verificarsi.

La PROBABILITA è un numero che si associa ad un evento E ed esprime il grado di aspettativa circa il suo verificarsi. La maggior parte dei fenomeni, ai quali assistiamo quotidianamente, può manifestarsi in vari modi, ma è quasi sempre impossibile stabilire a priori quale di essi si presenterà ogni volta. La PROBABILITA

Dettagli

Matematica II: Calcolo delle Probabilità e Statistica Matematica

Matematica II: Calcolo delle Probabilità e Statistica Matematica Matematica II: Calcolo delle Probabilità e Statistica Matematica ELT A-Z Docente: dott. F. Zucca Esercitazione # 3 1 Distribuzione di Bernoulli e Distribuzione Binomiale Esercizio 1 Sia n un intero maggiore

Dettagli

Piano cartesiano e retta

Piano cartesiano e retta Piano cartesiano e retta Il punto, la retta e il piano sono concetti primitivi di cui non si da una definizione rigorosa, essi sono i tre enti geometrici fondamentali della geometria euclidea. Osservazione

Dettagli

Esperimentazioni di Fisica 1 Elementi di Calcolo delle Probabilità

Esperimentazioni di Fisica 1 Elementi di Calcolo delle Probabilità Esperimentazioni di Fisica 1 Elementi di Calcolo delle Probabilità Università Roma Tre - Dipartimento di Matematica e Fisica 3 novembre 2016 Introduzione La probabilità nel linguaggio comune I E probabile

Dettagli

IL CALCOLO DELLA PROBABILITÀ

IL CALCOLO DELLA PROBABILITÀ IL LOLO LL PROILITÀ 1 Una scatola contiene quattro dischetti rossi numerati da 1 a 4, sei dischetti verdi numerati da 1 a e cinque dischetti bianchi numerati da 1 a 5. Si estrae un dischetto. Scrivi gli

Dettagli

Figura 7: Ruota della Fortuna. Quanti sono i casi possibili? G. Sanfilippo - CdP - STAD - Lezione 2 del 12 Aprile pag. 15

Figura 7: Ruota della Fortuna. Quanti sono i casi possibili? G. Sanfilippo - CdP - STAD - Lezione 2 del 12 Aprile pag. 15 Figura 7: Ruota della Fortuna. Quanti sono i casi possibili? G. Sanfilippo - CdP - STAD - Lezione 2 del 12 Aprile 2012- pag. 15 Casi Possibili B= La lancetta indica il Blu V= La lancetta indica il Verde

Dettagli

Probabilità discreta

Probabilità discreta CAPITOLO 2 Probabilità discreta Esercizio 2.1 Eventi Un opportuno spazio degli eventi è dato da: Ω{(M,M), (M,F), (F, M), (F, F)}. L evento unione di primo figlio femmina e secondo figlio maschio è dato

Dettagli

Cosa dobbiamo già conoscere?

Cosa dobbiamo già conoscere? Cosa dobbiamo già conoscere? Come opera la matematica: dagli ai teoremi. Che cosa è una funzione, il suo dominio e il suo codominio. Che cosa significa n j=1 A j dove A j sono insiemi. Che cosa significa

Dettagli

esperimento casuale: è un esperimento condotto sotto l effetto del caso; evento elementare: ciascuno dei possibili esiti di un esperimento casuale;

esperimento casuale: è un esperimento condotto sotto l effetto del caso; evento elementare: ciascuno dei possibili esiti di un esperimento casuale; Capitolo 15 Suggerimenti agli esercizi a cura di Elena Siletti Esercizio 15.1: Suggerimento Si ricordi che: esperimento casuale: è un esperimento condotto sotto l effetto del caso; evento elementare: ciascuno

Dettagli

3 CERTAMEN NAZIONALE DI PROBABILITA E STATISTICA FELICE FUSATO Fase di Istituto 7 febbraio 2012

3 CERTAMEN NAZIONALE DI PROBABILITA E STATISTICA FELICE FUSATO Fase di Istituto 7 febbraio 2012 3 CERTAMEN NAZIONALE DI PROBABILITA E STATISTICA FELICE FUSATO Fase di Istituto 7 febbraio 2012 1) Non sfogliare questo fascicolo finché l insegnante non ti dice di farlo. 2) E ammesso l utilizzo di calcolatrici

Dettagli

ALGEBRA DEGLI EVENTI

ALGEBRA DEGLI EVENTI ALGEBRA DEGLI EVENTI Appunti introduttivi al Calcolo Combinatorio e al Calcolo delle Probabilità Classe Terza a cura di Franca Gressini Novembre 2008 1 Conosciamo tante algebre. quella letterale (gli oggetti

Dettagli

La probabilità composta

La probabilità composta La probabilità composta DEFINIZIONE. Un evento E si dice composto se il suo verificarsi è legato al verificarsi contemporaneo (o in successione) degli eventi E 1, E 2 che lo compongono. Consideriamo il

Dettagli

Estrazioni senza restituzione da un urna di composizione incognita. P(E i)=

Estrazioni senza restituzione da un urna di composizione incognita. P(E i)= Estrazioni senza restituzione da un urna di composizione incognita. Consideriamo n estrazioni senza restituzione da un urna contenente N palline, di cui r sono bianche, con r incognito. Introdotta la partizione

Dettagli

NOTE DI CALCOLO COMBINATORIO

NOTE DI CALCOLO COMBINATORIO NOTE DI CALCOLO COMBINATORIO VINCENZO C. NARDOZZA 1. Richiami Ricordiamo molto brevemente gli strumenti di calcolo combinatorio esaminati durante le lezioni e i risultati ottenuti. Se X n, il suo insieme

Dettagli

Calcolo combinatorio

Calcolo combinatorio 1 Calcolo combinatorio Ricordiamo che uno spazio di probabilità (Ω, P(Ω), P) si dice uniforme se Ω è un insieme finito e si ha P(A) = A Ω, per ogni A Ω. Pertanto, il calcolo della probabilità di un evento

Dettagli

0.1 Esercizi calcolo combinatorio

0.1 Esercizi calcolo combinatorio 0.1 Esercizi calcolo combinatorio Esercizio 1. Sia T l insieme dei primi 100 numeri naturali. Calcolare: 1. Il numero di sottoinsiemi A di T che contengono esattamente 8 pari.. Il numero di coppie (A,

Dettagli

Esercitazione 7 del corso di Statistica (parte 1)

Esercitazione 7 del corso di Statistica (parte 1) Esercitazione 7 del corso di Statistica (parte 1) Dott.ssa Paola Costantini 5 Marzo 011 Esercizio 1 Sullo spazio campionario: = 1,,,, 5,, 7,,, considerando l esperimento casuale estrazione di un numero,

Dettagli

ESERCIZI DI CALCOLO PROBABILITÀ DISTRIBUZIONI DOPPIE E NOTEVOLI

ESERCIZI DI CALCOLO PROBABILITÀ DISTRIBUZIONI DOPPIE E NOTEVOLI Variabili bidimensionali ESERCIZI DI CALCOLO PROBABILITÀ DISTRIBUZIONI DOPPIE E NOTEVOLI 1) Siano X 1 e X 2 due variabili casuali indipendenti che possono assumere valori 0, 1 e 3 rispettivamente con probabilità

Dettagli

combiniamo le lettere, ciascuna presa una sola volta per formare parole di n lettere;

combiniamo le lettere, ciascuna presa una sola volta per formare parole di n lettere; CALCOLO COMBINATORIO Il calcolo combinatorio si occupa di contare i raggruppamenti che si possono fare con n oggetti di un insieme finito, secondo determinate regole. Vediamo di seguito come, a seconda

Dettagli

UNIVERSITÀ di ROMA TOR VERGATA

UNIVERSITÀ di ROMA TOR VERGATA UNIVERSITÀ di ROMA TOR VERGATA Corso di PS-Probabilità P.Baldi Tutorato 9, 19 maggio 11 Corso di Laurea in Matematica Esercizio 1 a) Volendo modellizzare l evoluzione della disoccupazione in un certo ambito

Dettagli

ESERCIZI DI CALCOLO COMBINATORIO

ESERCIZI DI CALCOLO COMBINATORIO ESERCIZI DI CALCOLO COMBINATORIO (G.T.Bagni) Sintesi delle nozioni teoriche da utilizzare a) Dati n elementi e k n, si dicono disposizioni semplici di n elementi di classe k tutti i raggruppamenti ottenuti

Dettagli

Analisi. Calcolo Combinatorio. Ing. Ivano Coccorullo

Analisi. Calcolo Combinatorio. Ing. Ivano Coccorullo Analisi Ing. Ivano Coccorullo Prof. Ivano Coccorullo ü Molti dei problemi classici di calcolo delle probabilità si riducono al calcolo dei casi favorevoli e di quelli possibili. Quando le situazioni diventano

Dettagli

Note di probabilità. Mauro Saita Versione provvisoria, maggio 2014.

Note di probabilità. Mauro Saita Versione provvisoria, maggio 2014. Note di probabilità Mauro Saita Versione provvisoria, maggio 2014. Indice 1 Note di probabilità. 2 1.1 Eventi elementari. Spazio degli eventi.............................. 2 1.2 Definizione assiomatica

Dettagli

Prof.ssa Laura Pagnozzi Prof. Ivano Coccorullo. Calcolo Combinatorio

Prof.ssa Laura Pagnozzi Prof. Ivano Coccorullo. Calcolo Combinatorio Prof.ssa Laura Pagnozzi Prof. Ivano Coccorullo Calcolo Combinatorio Calcolo Combinatorio ü Molti dei problemi classici di calcolo delle probabilità si riducono al calcolo dei casi favorevoli e di quelli

Dettagli

22/07/2013 PRECORSO Dipartimento di Scienze Biomediche, Sperimentali e Cliniche. Numeri, frazioni, operazioni fondamentali

22/07/2013 PRECORSO Dipartimento di Scienze Biomediche, Sperimentali e Cliniche. Numeri, frazioni, operazioni fondamentali PRECORSO 2013 Problemi di Matematica Alessandro Passeri Dipartimento di Scienze Biomediche, Sperimentali e Cliniche PRECORSO 2013: ciclo formativo di orientamento alle prove di ammissione ai Corsi di studio

Dettagli

Funzioni elementari: funzioni potenza

Funzioni elementari: funzioni potenza Funzioni elementari: funzioni potenza Lezione per Studenti di Agraria Università di Bologna (Università di Bologna) Funzioni elementari: funzioni potenza 1 / 36 Funzioni lineari Come abbiamo già visto,

Dettagli