I Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 03/4 Nome: 6 febbraio 04 Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile usare tutti i risultati visti a lezione (compresi quelli di cui non è stata fornita la dimostrazione). PARTE I (Esercizi,, 3) Esercizio. Se estraggo casualmente due numeri distinti dall insieme {,, 3, 4, 5, 6}, qual è la probabilità che il più grande valga 4? Più in generale, se estraggo casualmente due numeri distinti dall insieme {,..., n}, qual è la probabilità che il più grande valga k (con k n)? Soluzione. Trattiamo direttamente il caso generale. Estrarre due numeri distinti in {,..., n} equivale a estrarre un sottoinsieme di {,..., n} di cardinalità pari a due. Ci sono ( n ) tali sottoinsiemi, mentre quelli in cui k è il più grande sono tanti quanti i sottoinsiemi di un elemento di {,..., k }, ossia k. La risposta è dunque k ( n ) = (k ) n(n ).
Esercizio. Un urna contiene n palline bianche e k palline rosse. Pesco una pallina, ne osservo il colore, la reinserisco nell urna insieme a un altra dello stesso colore di quella estratta (ora nell urna ci sono dunque n + k + palline), dopodiché pesco una seconda pallina. Indicando con X il colore della prima pallina estratta e con Y il colore della seconda pallina estratta, possiamo descrivere X e Y come due variabili aleatorie a valori nell insieme E := {r, b}. (a) Si determini il valore di P(Y = y X = x) per ogni scelta di x, y E. (b) Si mostri che le variabili aleatorie X e Y hanno la stessa distribuzione. (c) Si determini la distribuzione del numero totale N di palline rosse estratte. (d) Le variabili aleatorie (X, Y, N) sono indipendenti? Soluzione. (a) Si ha P(Y = r X = r) = k + n + k +, P(Y = r X = b) = k n + k +, da cui segue che n P(Y = b X = r) = P(Y = r X = r) = n + k +, P(Y = b X = b) = P(Y = r X = b) = n + n + k +. (b) La densità marginale di X è data da P(X = r) = k n, P(X = b) = n + k n + k. Di conseguenza la distribuzione congiunta di (X, Y ) è data da P(X = r, Y = r) = P(X = r)p(y = r X = r) = k k + n + k n + k +, P(X = r, Y = b) = P(X = r)p(y = b X = r) = k n n + k n + k +, P(X = b, Y = r) = P(X = b)p(y = r X = b) = n k n + k n + k +, P(X = b, Y = b) = P(X = b)p(y = b X = b) = n n + n + k n + k +. La distribuzione marginale di Y si ricava facilmente: P(Y = r) = P(Y = r, X = r) + P(Y = r, X = b) = k n + k k + n + k + + P(Y = b) = P(Y = r) = Quindi X e Y hanno la stessa distribuzione. (c) Chiaramente N assume valori in {0,, } e n n n + k n + k. k n + k + = k n + k, n(n + ) P(N = 0) = P(X = b, Y = b) = (n + k)(n + k + ), k(k + ) P(N = ) = P(X = r, Y = r) = (n + k)(n + k + ), da cui P(N = ) = P(N = 0) P(N = ) = nk (n+k)(n+k+). (d) Le variabili aleatorie non sono indipendenti perché si ha P(X = r) > 0, P(Y = r) > 0, P(N = 0) > 0 ma P(X = r, Y = r, N = 0) = 0 P(X = r)p(y = r)p(n = 0).
3 Esercizio 3. Due particelle puntiformi, che indichiamo con le lettere α e β, si muovono lungo una retta, entrambe di moto (rettilineo) uniforme. All istante iniziale t = 0 la particella α si trova nell origine x = 0, mentre la particella β si trova nel punto x =. Le due particelle si muovono l una in direzione dell altra, con velocità rispettive U e V, dove U e V sono variabili aleatorie indipendenti con distribuzione Exp(). α U V β x = 0 x = Definiamo T come l istante in cui le due particelle si incontrano, e poniamo Y := T. (a) Si mostri che Y ha distribuzione Gamma(, ), ossia f Y (y) = y e y (0, ) (y). (b) Si deduca che T ha distribuzione assolutamente continua, con densità f T (t) = t 3 e /t (0, ) (t). (c) Si dica se T L e/o T L. Si mostri che Cov(T, Y ) è ben definita, e la si calcoli. (d) Si mostri che il vettore aleatorio (T, Y ) non è assolutamente continuo. Soluzione 3. (a) All istante t > 0 la posizione della particella A è data da Ut, mentre quella della particella B è data da V t, pertanto l istante T si ottiene dall equazione UT = V T = T = U + V, da cui Y = /T = U +V. Dato che U, V sono variabili aleatorie indipendenti con distribuzione Exp() = Gamma(, ), per un teorema visto a lezione la loro somma U + V = Y ha distribuzione Gamma(, ), ossia f Y (y) = y e y (0, ) (y). (b) La funzione di ripartizione di T è data da F T (t) = P(T t) = 0 se t 0, mentre per t > 0 F T (t) = P(T t) = P( Y = [ y e y ] t + t t) = P(Y t ) = f Y (y) dy = t e y dy = t e t + e t. t y e y dy Dato che F T ( ) è C a tratti, la variabile aleatoria T è assolutamente continua, con densità f T (t) = F T (t) = t 3 e t (0, ) (t). In alternativa, dato che ϕ(y) := y è un diffeomorfismo di (0, ) in sé, per un teorema visto a lezione si ha che T = ϕ(y ) è una variabile aleatoria assolutamente continua con densità f T (t) = f Y (ϕ (t)) (ϕ ) (t) = f Y ( t ) t = t 3 e t (0, ) (t).
4 (c) Per ogni p (0, ) si ha E( T p ) = E(T p ) = R t p f T (t) dt = 0 t 3 p e /t dt. La funzione t e /t è continua in (0, ) e inoltre ha limite 0 per t 0, grazie t 3 p all esponenziale. I problemi di integrabilità possono pertanto arrivare solo dal comportamento all infinito: dato che e /t per t, si ha E( T p ) <, ossia T L p, se e solo t 3 p t 3 p se 3 p >, ossia p <. In particolare, T L ma T L. Affinché Cov(T, Y ) sia ben definita, occorre verificare che: T L : questo è stato appena mostrato; Y L : questo segue dal fatto che Y Gamma(, ); T Y L : questo segue dal fatto che Y := T per definizione, e dunque Y T =. In particolare E(T Y ) =, perché Y T =, mentre E(Y ) =, perché E(Gamma(n, λ)) = n λ. Resta da calcolare [ ] E(T ) = 0 t e /t dt = e /t = 0 da cui segue che Cov(T, Y ) = E(T Y ) E(T )E(Y ) = =. (d) Dato che T Y =, introducendo il sottoinsieme A := {(t, y) R : t > 0, y = t } si ha che P((T, Y ) A) =. Se (T, Y ) avesse distribuzione assolutamente continua, si dovrebbe avere P((T, Y ) A) = f T,Y (t, y) dt dy = 0, A perché l insieme A ha misura di Lebesgue bidimensionale nulla, ottenendo una contraddizione.
5 PARTE II (Esercizi 4, 5, 6) Esercizio 4. Siano (X n ) n N variabili aleatorie reali i.i.d., definite su uno spazio di probabilità (Ω, A, P), la cui distribuzione è assolutamente continua con densità f(x) > 0 per ogni x R. Fissati a, b R con a < b, introduciamo gli eventi D n = D (a,b) n := {X n (a, b)} = {ω Ω : X n (ω) (a, b)}, per n N, e la variabile aleatoria N (a,b), a valori in N 0 {+ }, definita da N (ω) = N (a,b) (ω) := {n N : X n (ω) (a, b)}, dove indica la cardinalità di un insieme. In tutte le domande seguenti, i parametri a, b R con a < b sono arbitrari ma fissati. (a) Si mostri che 0 < P(D n ) <. (b) Si calcolino P ( lim sup n N D n ) e P ( lim supn N D c n). (c) Si mostri che P(N = ) =. (d) Si mostri che la successione Y n := Dn converge in legge, ma non q.c.. Definiamo infine, per ogni ω Ω, il sottoinsieme Z(ω) R ponendo Z(ω) := { X n (ω) : n N } = { X (ω), X (ω), X 3 (ω),... }. In altri termini, il sottoinsieme Z(ω) è l immagine della successione reale (X n (ω)) n N. (e) Si mostri che, per q.o. ω Ω, l insieme Z(ω) è denso in R. Soluzione 4. (a) Avendo le variabili aleatorie X n la stessa distribuzione, gli eventi D n hanno la stessa probabilità p = p (a,b) (0, ): infatti, per ogni a < b, P(D n ) = P(X n (a, b)) = µ Xn ((a, b)) = b a f(x) dx =: p (0, ), perché per ipotesi f(x) > 0 per ogni x R, quindi (a,b) f(x) dx > 0 e R\(a,b) f(x) dx > 0. (b) Per definizione di indipendenza delle variabili aleatorie X n, gli eventi D n sono indipendenti. Dato che P(D n ) = p > 0 per ogni n N, n N P(D n) = n N p =. Essendo gli eventi D n indipendenti, segue dal Lemma di Borel-Cantelli che P ( ) lim sup n N D n =. Analogamente, dato che P(Dn) c = p > 0 per ogni n N, si ha n N P(Dc n) = n N ( p) = e quindi P ( lim sup n N Dn) c = ancora per Borel-Cantelli. (c) Basta notare che l evento {N = } coincide con l evento lim sup n N D n : infatti {N = } = {ω Ω : N (ω) = } = {ω Ω : X n (ω) (a, b) per infiniti valori di n N} = {ω Ω : ω D n per infiniti valori di n N} = lim sup D n. n N Segue dunque che P(N = ) =. (d) Dato che P(D n ) = p (0, ), la variabile aleatoria Y n = Dn ha distribuzione Be(p) che non dipende da n, quindi banalmente converge in legge (verso la distribuzione Be(p)). Essa non converge q.c. perché, per i punti precedenti, q.o. ω Ω appartiene a infiniti degli eventi D n e anche a infiniti degli eventi Dn, c quindi si ha Y n (ω) = 0 per infiniti valori di n N e Y n (ω) = per infiniti valori di n N, dunque la successione (Y n (ω)) n N non ha limite. In alternativa, per la legge 0- di Kolmogorov, se Y n Y q.c. allora Y dovrebbe essere q.c. costante. Ma dato che la convergenza q.c. implica quella in legge, si dovrebbe allo stesso tempo avere Y Be(p) con p (0, ), dunque Y non può essere q.c. costante.
6 (e) Un insieme A R è denso se e solo se A (a, b), per ogni a < b. Mostriamo dunque che P ( ω Ω : Z(ω) (a, b) a < b ) ( ) = P {Z (a, b) } =, a,b R o equivalentemente, passando al complementare, ( ) P {Z (a, b) = } = 0. () a,b R Notiamo che, se (a, b ) (a, b), si ha A (a, b ) A (a, b); in particolare, se A (a, b) =, a maggior ragione A (a, b ) =. Vale dunque l inclusione di eventi {Z (a, b) = } {Z (a, b ) = }, se (a, b ) (a, b). Per ogni a, b R con a < b, è possibile scegliere a, b Q (razionali) con a < b tali che (a, b ) (a, b). Ciò mostra che vale l inclusione {Z (a, b) = } {Z (a, b ) = }. a,b R a,b Q a <b (Vale in realtà l uguaglianza, essendo l inclusione inversa banalmente vera.) In () è dunque sufficiente restringere l unione a valori razionali a, b Q, ossia basta mostrare che ( ) P {Z (a, b) = } = 0. a,b Q Essendoci ricondotti all unione di una famiglia numerabile di eventi, per subadditività ( ) P {Z (a, b) = } P ( Z (a, b) = ), a,b Q a,b Q e ci basta mostrare che P ( Z (a, b) = ) = 0, ossia P ( Z (a, b) ) =, per ogni a < b. Ma già sappiamo che P(N (a,b) = ) =, e chiaramente da cui la conclusione segue. {N (a,b) = } {Z (a, b) },
7 Esercizio 5. Nella città di Babilonia, alla fine di ogni anno, il governo distribuisce un premio in denaro (euro) ai suoi N = 40 000 cittadini, con la seguente modalità: per ciascun cittadino vengono estratti tre numeri reali, i primi due uniformemente in (0, 0) e il terzo uniformemente in (0, 0); l ammontare del premio è quindi determinato sommando i primi due numeri e sottraendo il terzo. Tutti i numeri vengono estratti indipendentemente l uno dall altro. (a) Si mostri che, fissato un cittadino qualunque, il premio X da lui ricevuto è una variabile aleatoria con valor medio µ = E(X) = 5 euro. Quanto vale la varianza σ = Var(X)? (b) Un associazione di consumatori svolge un indagine, scoprendo che la somma dei premi ricevuti da tutti i cittadini ammonta a meno di 997 000 euro. Osservando che tale valore è minore di quanto ci si sarebbe potuti aspettare, ossia N µ = 000 000 di euro, l associazione sostiene che non è ragionevole credere alle modalità descritte dal governo per l attribuzione del premio. Il portavoce del governo ribatte che una discrepanza di soli 3 000 euro è perfettamente plausibile, data la natura casuale del meccanismo di attribuzione dei premi, e dunque i sospetti di manipolazione non sono giustificati. Chi pensate che abbia ragione? [Sugg. Si usi l approssimazione normale fornita dal Teorema Limite Centrale. La tavola della distribuzione normale è riportata in fondo a questo plico.] Soluzione 5. (a) Siano U, V, W variabili aleatorie indipendenti, tali che U V U(0, 0) e W U(0, 0). Dato che il valor medio di una variabile aleatoria U(a, b) vale a+b e la sua varianza vale (b a), si ha E(U) = E(V ) = 5, E(W ) = 5, Var(U) = Var(V ) = Var(W ) = 00 = 5 3. Il premio ricevuto da un cittadino può essere espresso come X := U + V W. Per la linearità del valor medio e le proprietà della varianza (osservando che U, V e W sono variabili aleatorie indipendenti), si ha dunque µ = E(X) = E(U) + E(V ) E(W ) = 5, σ = Var(X) = Var(U) + Var(V ) + Var( W ) = Var(U) + Var(V ) + Var(W ) = 5. (b) Sia S N := X +... + X N la somma totale dei premi ricevuti da tutti i cittadini. Calcoliamo la probabilità che si verifichi l evento osservato, ossia ( ) SN Nµ P(S N < 997 000) = P σ 997 000 40 000 5 < N 5 = P(Z N < 3), 40 000 e applicando il Teorema Limite Centrale possiamo sostituire Z N Z N(0, ), ottenendo P(Z N < 3) P(Z < 3) = Φ( 3) = Φ(3) 0.9987 = 0.003 = 0.3%. Essendo la probabilità in questione piuttosto bassa (poco più di una su mille), è poco verosimile che le modalità descritte per l attribuzione del premio siano state rispettate.
8 Esercizio 6. Paolo si accinge a salire una scalinata (infinita), in cui i gradini sono etichettati (dal basso verso l alto) con i numeri 0,,,.... A ogni istante, Paolo lancia una moneta equilibrata: se esce testa, sale di un gradino, mentre se esce croce resta sul gradino in cui si trova. Indicando con X n la posizione di Paolo nell istante n, il processo (X n ) n 0 è un opportuna catena di Markov sull insieme E = {0,,,...} (con X 0 = 0). (a) Si scriva il valore p ij della matrice di transizione della catena di Markov, per ogni i, j E. Si disegni quindi il grafo corrispondente, completando la figura seguente con frecce e numeri, e si determinino le classi di comunicazione, classificando gli stati (transitori, ricorrenti positivi, ricorrenti nulli). 0 3 4 (b) Si determini una misura invariante. Si mostri che non esiste alcuna probabilità invariante. Quanto vale lim n (p n ) ij? Soluzione 6. (a) La matrice di transizione è data da { p ij = (δ ii + δ i i+ ) = se j = i oppure j = i + 0 altrimenti e il grafo corrispondente è, 0 3 4 È chiaro che i j se e solo se i j, pertanto si ha i j se e solo se i = j. In altri termini, ogni singoletto T i := {i}, per i E, è una classe di comunicazione. Chiaramente nessuna di tali classi è chiusa: infatti i i + ma i + i, per ogni i E. Dato che una classe ricorrente è necessariamente chiusa, segue che tutte le classi T i sono transitorie e dunque tutti gli stati sono transitori. (b) In generale, per quanto visto a lezione, una probabilità invariante (π i ) i E è tale che π i = 0 per ogni stato i E transitorio. Dato che ogni stato è transitorio in questo caso, si dovrebbe avere π i = 0 per ogni i E, il che è chiaramente impossibile, dovendo essere i E π i =. Quindi non possono esistere probabilità invarianti. Cerchiamo ora misure invarianti (x i ) i E, ossia soluzioni del sistema x i = j E x kp ki, con x i <, per ogni i E. Per i = 0, essendo p 00 = e p k0 = 0 per k 0, otteniamo x 0 = x 0, che ha come unica soluzione x 0 = 0. Per i, essendo p i i = p ii = e p ki = 0 per k {i, i}, si ottiene x i = (x i + x i ), ossia x i = x i. Quindi (x i ) i E è una misura invariante se e solo se x i = x i per ogni i E, ossia x i = x 0 = 0 per ogni i E. L unica misura invariante è dunque quella banale identicamente nulla. Ciò fornisce un altra dimostrazione del fatto che non ci sono probabilità invarianti. [Nella precedente correzione c era un errore.] Infine lim n (p n ) ij = 0 per ogni i, j E, perché ogni j E è transitorio.
9 Tavola della distribuzione normale La tabella seguente riporta i valori di Φ(z) := z e x π dx, la funzione di ripartizione della distribuzione normale standard N(0, ), per 0 z 3.5. Ricordiamo che I valori di Φ(z) per z < 0 possono essere ricavati grazie alla formula Φ(z) = Φ( z). z 0.00 0.0 0.0 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.0 0.5000 0.5040 0.5080 0.50 0.560 0.599 0.539 0.579 0.539 0.5359 0. 0.5398 0.5438 0.5478 0.557 0.5557 0.5596 0.5636 0.5675 0.574 0.5753 0. 0.5793 0.583 0.587 0.590 0.5948 0.5987 0.606 0.6064 0.603 0.64 0.3 0.679 0.67 0.655 0.693 0.633 0.6368 0.6406 0.6443 0.6480 0.657 0.4 0.6554 0.659 0.668 0.6664 0.6700 0.6736 0.677 0.6808 0.6844 0.6879 0.5 0.695 0.6950 0.6985 0.709 0.7054 0.7088 0.73 0.757 0.790 0.74 0.6 0.757 0.79 0.734 0.7357 0.7389 0.74 0.7454 0.7486 0.757 0.7549 0.7 0.7580 0.76 0.764 0.7673 0.7704 0.7734 0.7764 0.7794 0.783 0.785 0.8 0.788 0.790 0.7939 0.7967 0.7995 0.803 0.805 0.8078 0.806 0.833 0.9 0.859 0.886 0.8 0.838 0.864 0.889 0.835 0.8340 0.8365 0.8389.0 0.843 0.8438 0.846 0.8485 0.8508 0.853 0.8554 0.8577 0.8599 0.86. 0.8643 0.8665 0.8686 0.8708 0.879 0.8749 0.8770 0.8790 0.880 0.8830. 0.8849 0.8869 0.8888 0.8907 0.895 0.8944 0.896 0.8980 0.8997 0.905.3 0.903 0.9049 0.9066 0.908 0.9099 0.95 0.93 0.947 0.96 0.977.4 0.99 0.907 0.9 0.936 0.95 0.965 0.979 0.99 0.9306 0.939.5 0.933 0.9345 0.9357 0.9370 0.938 0.9394 0.9406 0.948 0.949 0.944.6 0.945 0.9463 0.9474 0.9484 0.9495 0.9505 0.955 0.955 0.9535 0.9545.7 0.9554 0.9564 0.9573 0.958 0.959 0.9599 0.9608 0.966 0.965 0.9633.8 0.964 0.9649 0.9656 0.9664 0.967 0.9678 0.9686 0.9693 0.9699 0.9706.9 0.973 0.979 0.976 0.973 0.9738 0.9744 0.9750 0.9756 0.976 0.9767.0 0.977 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.98 0.987. 0.98 0.986 0.9830 0.9834 0.9838 0.984 0.9846 0.9850 0.9854 0.9857. 0.986 0.9864 0.9868 0.987 0.9875 0.9878 0.988 0.9884 0.9887 0.9890.3 0.9893 0.9896 0.9898 0.990 0.9904 0.9906 0.9909 0.99 0.993 0.996.4 0.998 0.990 0.99 0.995 0.997 0.999 0.993 0.993 0.9934 0.9936.5 0.9938 0.9940 0.994 0.9943 0.9945 0.9946 0.9948 0.9949 0.995 0.995.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.996 0.996 0.9963 0.9964.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.997 0.997 0.9973 0.9974.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.998.9 0.998 0.998 0.998 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986 3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990 3. 0.9990 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.9993 0.9993 3. 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995 3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997 3.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998