Corso di Calcolo delle Probabilità e Statistica. Esercizi su variabili aleatorie discrete



Documenti analoghi
CORSO DI CALCOLO DELLE PROBABILITÀ E STATISTICA. Esercizi su eventi, previsioni e probabilità condizionate

Esercizi di Calcolo delle Probabilita (I)

Esercizi. Rappresentando le estrazioni con un grafo ad albero, calcolare la probabilità che:

Viene lanciata una moneta. Se esce testa vinco 100 euro, se esce croce non vinco niente. Quale è il valore della mia vincita?

Esercizi di Probabilità e Statistica

Tutorato di Probabilità e Statistica

Primi esercizi per gli studenti del corso di Statistica ed Elementi di Probabilita

A = { escono 2 teste e due croci (indipendentemente dall ordine) } B = { al primo tiro esce testa }.

Calcolo delle Probabilita, INGEGNERIA INFORMATICA, semestre II, laurea (ord. Leonardo.

Probabilità discreta

Analisi dei Dati 12/13 Esercizi proposti 3 soluzioni

Statistica e biometria. D. Bertacchi. Variabili aleatorie. V.a. discrete e continue. La densità di una v.a. discreta. Esempi.

Ancora sull indipendenza. Se A e B sono indipendenti allora lo sono anche

Esercizi sul calcolo delle probabilità

Dimensione di uno Spazio vettoriale

Test sul calcolo della probabilità

Per poter affrontare il problema abbiamo bisogno di parlare di probabilità (almeno in maniera intuitiva). Analizziamo alcune situazioni concrete.

PROVE D'ESAME DI CPS A.A. 2009/ altrimenti.

CP110 Probabilità: Esame del 3 giugno Testo e soluzione

Calcolo delle Probabilità

Somma logica di eventi

Calcolo delle probabilità

CORSO DI STATISTICA (parte 1) - ESERCITAZIONE 7

Corso di Matematica. Corso di Laurea in Farmacia, Facoltà di Farmacia. Università degli Studi di Pisa. Maria Luisa Chiofalo.

PROBABILITA' E VARIABILI CASUALI

ESERCIZI DI RIEPILOGO 2. 7 jj(addi

TEOREMI SULLA PROBABILITÀ

CALCOLO COMBINATORIO

1 Probabilità condizionata

Esercizi di calcolo combinatorio

PROBABILITÀ - SCHEDA N. 2 LE VARIABILI ALEATORIE

Probabilità e statistica

1. la probabilità che siano tutte state uccise con pistole; 2. la probabilità che nessuna sia stata uccisa con pistole;

COEFFICIENTI BINOMIALI

Si considerino gli eventi A = nessuno studente ha superato l esame e B = nessuno studente maschio ha superato l esame. Allora A c B è uguale a:

Probabilità e Statistica Esercitazioni. a.a. 2006/2007

Esercizi di Probabilità e Statistica

CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 1

ESERCIZI. x + 3 x 2 1. a) y = 4x2 + 3x 2x + 2 ; b) y = 6x2 x 1. (x + 2) 2 c) y =

(concetto classico di probabilità)

Esercizi di Probabilità e Statistica

Esercizio 1. Svolgimento

Teoria della probabilità Assiomi e teoremi

( x) ( x) 0. Equazioni irrazionali

PROBABILITA CONDIZIONALE

Corso di ELEMENTI DI STATISTICA Alcuni problemi di probabilità, con soluzioni

Esercizio 1 Dato il gioco ({1, 2, 3}, v) con v funzione caratteristica tale che:

La variabile casuale Binomiale

Complemento al corso di Fondamenti di Informatica I corsi di laurea in ingegneria, settore dell informazione Università la Sapienza Consorzio Nettuno

matematica probabilmente

Cosa dobbiamo già conoscere?

metodi matematici per l ingegneria prove scritte d esame 1 Indice

1. PRIME PROPRIETÀ 2

Esercizi di Calcolo delle Probabilità con Elementi di Statistica Matematica

= variazione diviso valore iniziale, il tutto moltiplicato per 100. \ Esempio: PIL del 2000 = 500; PIL del 2001 = 520:

Esercizi riassuntivi di probabilità

COMPITO DI SCIENZE NATURALI 23 gennaio Modulo di probabilità e statistica

Esercitazione 1 del corso di Statistica 2 Prof. Domenico Vistocco

PROBABILITA CONDIZIONALE

LA STATISTICA si interessa del rilevamento, dell elaborazione e dello studio dei dati; studia ciò che accade o come è fatto un gruppo numeroso di

Esercitazioni di Statistica

LE FUNZIONI A DUE VARIABILI

Consideriamo due polinomi

LEZIONE 23. Esempio Si consideri la matrice (si veda l Esempio ) A =

Probabilità II Variabili casuali discrete

Elementi di calcolo delle probabilità

Statistica 1. Esercitazioni. Dott. Luigi Augugliaro 1. Università di Palermo

1) Si consideri un esperimento che consiste nel lancio di 5 dadi. Lo spazio campionario:

Probabilità Calcolo combinatorio, probabilità elementare, probabilità condizionata, indipendenza, th delle probabilità totali, legge di Bayes

Tabella 7. Dado truccato

COMPITO n Siano X, Y due variabili aleatorie tali che il vettore (X, Y ) sia distribuito uniformemente

Iniziamo con un esercizio sul massimo comun divisore: Esercizio 1. Sia d = G.C.D.(a, b), allora:

DISTRIBUZIONI DI VARIABILI CASUALI DISCRETE

STATISTICA E PROBABILITá

ESERCIZI EVENTI E VARIABILI ALEATORIE

Esercitazioni 2013/14

2 CERTAMEN NAZIONALE DI PROBABILITA E STATISTICA FELICE FUSATO Fase di Istituto 15 febbraio 2011

Probabilità e Statistica Esercitazioni. a.a. 2009/2010. C.d.L.S.: Ingegneria Civile-Architettonico, Ingegneria Civile-Strutturistico.

4 3 4 = 4 x x x 10 0 aaa

Calcolo delle probabilitá: esercizi svolti fino all 8 febbraio

ESERCIZI DI ALGEBRA LINEARE E GEOMETRIA

SPECTER OPS. L'obiettivo del giocatore agente è quello che il suo agente completi 3 su 4 missioni obiettivo qualsiasi

Probabilità e Statistica Esercitazioni. a.a. 2006/2007

LA MASSIMIZZAZIONE DEL PROFITTO ATTRAVERSO LA FISSAZIONE DEL PREZZO IN FUNZIONE DELLE QUANTITÀ

Corso di Laurea in Ingegneria Informatica e Automatica (A-O) Università di Roma La Sapienza

1. Calcolare la probabilità che estratte a caso ed assieme tre carte da un mazzo di 40, fra di esse vi sia un solo asso, di qualunque seme.

13. Campi vettoriali

IGiochidiArchimede-SoluzioniBiennio 22 novembre 2006

Probabilità condizionata: p(a/b) che avvenga A, una volta accaduto B. Evento prodotto: Evento in cui si verifica sia A che B ; p(a&b) = p(a) x p(b/a)

Proof. Dimostrazione per assurdo. Consideriamo l insieme complementare di P nell insieme

Esercitazione n.1 (v.c. Binomiale, Poisson, Normale)

Note su quicksort per ASD (DRAFT)

Esempio II.1.2. Esempio II.1.3. Esercizi

PROBABILITA. Sono esempi di fenomeni la cui realizzazione non è certa a priori e vengono per questo detti eventi aleatori (dal latino alea, dado)

1 Applicazioni Lineari tra Spazi Vettoriali

Parte 2. Determinante e matrice inversa

Percorsi, strategie e geometrie in gioco Complementi e spunti di lavoro Primaria e Secondaria Inferiore

Esercitazione #5 di Statistica. Test ed Intervalli di Confidenza (per una popolazione)

4. Operazioni elementari per righe e colonne

Relazioni statistiche: regressione e correlazione

Transcript:

Corso di Calcolo delle Probabilità e Statistica Esercizi su variabili aleatorie discrete Es.1 Da un urna con 10 pallina bianche e 15 palline nere, si eseguono estrazioni con reimbussolamento fino all estrazione di una pallina nera. a) Calcolare la probabilità che servano 0 estrazioni. b) Calcolare la probabilità che servano almeno 10 estrazioni. Es. Ad una roulette, fatta di 7 numeri che vanno da 0 a 6, si scommette ripetutamente sull uscita di un numero compreso tra 1 e 1 (estremi inclusi). Calcolare: a) la probabilità di perdere le prime 5 giocate; b) la probabilità che la prima vincita accada nella sesta giocata. Es. Da un urna contenente 5 palline rosse, 4 palline verdi e 6 palline gialle vengono eseguite 5 estrazioni senza reimbussolamento. Sia X il numero di palline verdi estratte. a) Calcolare P(X), σ (X) e P((X + 1) ). b) Supponiamo di procedere ad estrazioni con reimbussolamento dalla stessa urna, e denotiamo con T il numero di estrazioni necessarie all estrazione di una pallina verde. Calcolare P(T ) e σ (T ). Es.4 Sia X una variabile con distribuzione geometrica di parametro p (in breve X Geo(p)), e p scelto in modo tale che P(X = 1) = P(X = ). Sia inoltre Y un numero aleatorio stocasticamente indipendente da X e con distribuzione Geo( 1 ), e definiamo Z := X + Y. a) Calcolare p. b) Calcolare la probabilità P(X > P(X)). c) Determinare i valori possibili di Z e la sua distribuzione. d) Calcolare la probabilità P(X = Z = 5). Es.5 Si sa che il numero di chiamate telefoniche che arrivano ad un centralino durante ogni periodo di 10 minuti è distribuito come un numero aleatorio con distribuzione di Poisson di parametro λ =. 1

a) Calcolare la probabilità che più di tre chiamate arrivino in un periodo di 10 minuti. b) Calcolare la probabilità che non arrivino chiamate durante un periodo di 10 minuti. Es.6 Siano X e Y due numeri aleatori stocasticamente indipendenti con distribuzione di Poisson di parametri λ e µ rispettivamente. Sia Z := X + Y. Calcolare per ogni n I(Z) la probabilità P (X = k Z = n). Si tratta di una distribuzione nota? Es.7 Un dado simmetrico con le facce contrassegnate dai numeri da 1 a 6 viene lanciato due volte. Siano X e Y i risultati ottenuti nei due lanci. a) Siano Z = XY, U = X Y. Calcolare le distribuzioni di Z e U. b) Dire se Z e U sono stocasticamente indipendenti. Es.8 L urna A contiene 10 palline bianche e 10 nere, l urna B contiene 5 palline bianche e 15 nere. Viene lanciata una moneta non truccata. Se esce testa, allora vengono fatte estrazioni senza reimbussolamento dall urna A; altrimenti, vengono fatte 5 estrazioni con reimbussolamento dall urna B. a) Calcolare la probabilità che vengano estratte esattamente palline bianche. b) Sapendo che sono state estratte esattamente palline bianche, calcolare la probabilità che sia uscita testa. c) Sapendo che è uscita testa, calcolare la probabilità che venga estratta almeno una pallina nera. Es.9 Da un mazzo di 40 carte si eseguono estrazioni con reimmissione. Calcolare: a) la probabilità di estrarre almeno due figure; b) la probabilità di estrarre almeno un asso; c) la probabilità di estrarre un asso e due figure. Rispondere alle stesse domande assumendo che le estrazioni dal mazzo avvengano senza reimmissione.

Es.10 Da un mazzo di 5 carte si eseguono estrazioni con reimmissione. a) Calcolare la probabilità di estrarre almeno un asso nelle prime tre estrazioni. b) Sia E l evento che nelle prime due estrazioni non viene estratto un asso. Calcolare la probabilità subordinata a E che nelle prime due estrazioni venga estratta esattamente una figura. c) Calcolare la probabilità di estrarre per la prima volta una figura esattamente alla terza estrazione. d) Sapendo che è stata estratta per la prima volta una figura esattamente alla terza estrazione, calcolare la probabilità subordinata che nelle prime due estrazioni venga estratto esattamente un asso. Es.11 La coppia di numeri aleatori (X, Y ) ha distribuzione congiunta P(X = 1, Y = 1) = 1 1 P(X = 1, Y = 1) = 1 6 P(X = 1, Y = ) = 1 4 P(X =, Y = 1) = 1 1 P(X =, Y = 1) = 1 4 P(X =, Y = ) = 1 6 a) Determinare la distribuzione di probabilità marginale di X e quella di Y. b) Calcolare la previsione e la varianza di X e la previsione e la varianza di Y. c) Sia Z = X + Y. Determinare la distribuzione di probabilità di Z. d) Sia U = X Y. Determinare la distribuzione di probabilità di U. Es.1 Si lanciano due dadi equilibrati. Calcolare: a) La probabilità che la somma dei risultati dei due lanci sia un numero primo. b) La probabilità che il prodotto dei risultati dei due lanci sia uguale alla loro somma. c) Sapendo che la somma dei risultati dei due lanci è 6, determinare la probabilità che i numeri ottenuti siano uguali. d) Sapendo che i numeri ottenuti lanciando i due dadi sono uguali, calcolare la probabilità che la somma dei risultati dei due lanci sia uguale a 6.

Es.1 In un concorso vengono assegnate le idoneità per un dato servizio. Si assuma che ogni partecipante, indipendentemente dagli altri, abbia probabilità p = 1/ di ottenere l idoneità. Al termine del concorso a 10 fra gli idonei viene assegnato un posto di lavoro (e se gli idonei sono meno di 10 vengono assegnati tanti posto di lavoro quanti sono gli idonei). Supponiamo che al concorso partecipino 15 persone e sia X il numero aleatorio dei partecipanti che ottengono l idoneità ma non il posto di lavoro. Determinare la distribuzione, la previsione e la varianza di X. Es.14 Si lanci 5 volte un dado simmetrico. Sia X il numero aleatorio che conta il numero di volte in cui esce il numero 4. a) Determinare l insieme dei valori possibili e la distribuzione di probabilità di X. b) Calcolare la previsione e la varianza di X. Sia Y un numero aleatorio stocasticamente indipendente da X con distribuzione binomiale di parametri n =, p = 1/6. Sia Z = X + Y. c) Calcolare P (Z = ). d) Calcolare la previsione di Z, la covarianza fra Z e X e la varianza di Z + Y. Es.15 Siano date due urne: l urna A contenente due gettoni rossi e due bianchi e l urna B contenente due gettoni rossi e tre bianchi. Si estrae un gettone da ciascuna delle due urne A e B. Sia X il numero aleatorio che indica il numero totale di gettoni rossi estratti. a) Determinare l insieme dei valori possibili e la distribuzione di probabilità di X. b) Calcolare la previsione e la varianza di X. Supponiamo di avere una terza urna C contenente in pari quantità gettoni rossi e gettoni bianchi e di estrarre un gettone da ciascuna delle tre urne A, B e C. Sia Y il numero aleatorio che indica il numero di gettoni rossi estratti dalle urne A e B e sia Z quello che indica il numero di gettoni rossi estratti dalle urne B e C. c) Trovare l insieme dei valori possibili per il vettore aleatorio (Y, Z) e 4

la distribuzione congiunta di (Y, Z). d) Calcolare la covarianza fra Y e Z. I numeri aleatori Y e Z sono indipendenti? Es.16 Un urna contiene 0 palline numerate da 1 a 0. Si eseguono quattro estrazioni senza reimbussolamento. La prima e la terza pallina estratte vengono poste in un urna A, mentre la seconda e la quarta pallina vengono poste in un urna B. a) Calcolare la probabilità che l urna A contenga palline contrassegnate entrambe con un numero pari. b) Calcolare la probabilità che entrambe le urne contengano palline contrassegnate tutte da un numero pari. c) Calcolare la probabilità che almeno una delle due urne contenga palline contrassegnate tutte da un numero dispari. d) Sapendo che l urna A contiene palline contrassegnate da un numero pari, calcolare la probabilità che l urna B contenga palline contrassegnate da un numero pari. Si considerino gli eventi F=(l urna A contiene palline contrassegnate da un numero pari) G=(l urna B contiene palline contrassegnate da un numero pari). e) Stabilire se gli eventi considerati sono stocasticamente indipendenti. Es.17 Un urna contiene 10 dadi di cui uno solo truccato in modo da dare 1 con probabilità 1/ e ognuno degli altri 5 risultati con probabilità 1/10. Gli altri 9 dadi sono equilibrati. Dall urna viene estratto a caso un dado che è poi lanciato volte. (Ogni dado ha la stessa probabilità di essere estratto.) a) Calcolare la probabilità che i risultati siano due volte 1 e una volta sola 6. b) Sia X il numero aleatorio che conta quanti dei tre lanci danno come risultato 1. Calcolare previsione e varianza di X. c) Calcolare la probabilità che il dado lanciato sia quello truccato sapendo che i tre lanci hanno dato due volte 1 e una volta sola 6. Soluzioni 5

Es. 1: Siano dati gli eventi E k = {alla k-esima scelta si estrae una pallina nera}, con k N. Trattandosi di estrazioni con reimbussolamento, gli eventi E k sono stocasticamente indipendenti ed hanno probabilità P(E k ) = 15 5 = 5. a) Con questa notazione possiamo indicare l istante di primo successo, ovvero il primo momento in cui viene estratta una pallina nera, come T = inf{k : E k = 1} con insieme di valori possibili I(T ) = {1,,,...}. La sua distribuzione è quindi geometrica di parametro p = 5, e vale P(T = 0) = ( ) 19 5 5. b) Nella notazione introdotta, la quantità richiesta è ( ) 9 P(T 10) = P(T > 9) =, 5 dove ci si è avvalsi della formula generale, valida per ogni variabile geometrica T di parametro p, P(T > k) = (1 p) k (verificare!). Es. : Siano dati gli eventi E k = {alla k-esima giocata esce un numero tra 1 e 1}, con k N. Gli eventi E k sono tutti stocasticamente indipendenti (se la roulette non è truccata) ed hanno probabilità P(E k ) = 1 7. a) Con questa notazione possiamo indicare l istante di primo successo, ovvero il primo momento in cui esce un numero tra 1 e 1 (vincita), come T = inf{k : E k = 1} con insieme di valori possibili I(T ) = {1,,,...}. Come nell esercizio precedente, la sua distribuzione è geometrica di parametro p = 1 7. Possiamo quindi indicare e calcolare la quantità richiesta come ( ) 5 5 P(T > 5) =. 7 b) Nella notazione introdotta, la quantità richiesta è ( ) 5 5 1 P(T = 5) = 7 7. 6

Es. : Siano dati gli eventi E k = {alla k-esima scelta si estrae un asso}, con k = 1,,. Con questa notazione possiamo indicare la variabile X che conta il numero di palline verdi estratte come X = E 1 + E + E + E 4 + E 5, con insieme di valori possibili I(X) = {0, 1,,, 4, 5}. a) Nel caso di estrazione senza reimbussolamento, gli eventi E k non sono stocasticamente indipendenti ma hanno tutti probabilità P(E k ) = 4 15. La variabile X ha in questo caso distribuzione ipergeometrica di parametri N = 15, n = 5 e H = 4. Ne segue (vedi formule sul libro o esercizi svolti nel foglio di esercizi precedente) che σ (X) = P(X) = n H N = 4 n(n n)h(n H) N (N 1) = 5 10 4 11 (15) 14 = 44 6. Inoltre, per la linearità della previsione, vale che P((x + 1) ) = P(X ) + P(X) + 1, in cui rimane da calcolare il termine P(X ). definizione di varianza ed i calcoli già svolti, si ha da cui infine si ricava P(X ) = σ (X) + P(X) = 44 6 + 16 9 = 5 1, P((x + 1) ) = 5 1 + 8 + 1 = 4 7. Sfruttando la b) Nel caso di estrazione con reimbussolamento, gli eventi E k sono stocasticamente indipendenti ed hanno (come prima) probabilità P(E k ) = 4 15. La variabile T che indica il numero di estrazioni necessarie per ottenere una pallina verde (ovvero l istante di primo successo) si può quindi indicare come T = inf{k : E k = 1}, con insieme di valori possibili I(T ) = {1,,,...}. La sua distribuzione è geometrica di parametro p = 4 15, ed ha quindi previsione e varianza come segue: Es. 4: P(T ) = 1 p = 15 4, σ (T ) = 1 p p = 165 16. a) Per una variabile geometrica di parametro p vale P(X = k) = (1 p) k 1 p. 7

La condizione P(X = 1) = P(X = ) si traduce quindi nell equazione su p p = (1 p)p = p = 0, 1, di cui consideriamo il caso p = 1 (essendo p = 0 una caso banale). b) La previsione di una variabile geometrica X di parametro p è data una 1/p. La quantità richiesta è quindi P(X > P(X)) = P(X > ) = ( ) 1. c) Osserviamo prima che I(Z) = {,, 4,...}. Usando la formula delle probabilità totali possiamo scrivere, per ogni k I(Z), P(Z = k) = P(X = k Y ) = P(X = k j Y = j)p(y = j). j=1 Per l indipendenza stocastica fra X e Y, P(X = k j Y = j) = P(X = k j). Inoltre, avendo X supporto solo su valori interi positivi, la sommatoria sopra si riduce ad una somma per valori 1 j k 1, ovvero k 1 k 1 P(Z = k) = P(X = k j)p(y = j) = j=1 d) Usando la formula di Bayes, si ottiene j=1 ( 1 ) k j ( ) 1 j = (k 1) ( ) 1 k. P(X = Z = 5) = P(Z = 5 X = )P(X = ) P(Z = 5), in cui è incognita la probabilità P(Z = 5 X = ) al numeratore. definizione di Z, ed usando l indipendenza stocastica tra X e Y, si ha Per P(Z = 5 X = ) = P(Y = X = ) = P(Y = ) = da cui infine si ottiene P(X = Z = 5) = 1 4. Es. 5: ( ) 1. a) Se indichiamo con X una variabile di Poisson di parametro λ =, corrispondente al numero di chiamate arrivate in 10 minuti, la probabilità richiesta è data da P(X > ) = 1 P(X ) = 1 k=0 k k! e = 1 e (1+++ 4 ) = 1 19 e 8

b) Con la stessa notazione di sopra, si calcola P(X = 0) = e. Es. 6: Osserviamo prima che I(Z) = {0, 1,,,...}. probabilità totali possiamo scrivere, per ogni k I(Z), P(Z = k) = P(X = k Y ) = Usando la formula delle P(X = k j Y = j)p(y = j). j=1 Per l indipendenza stocastica fra X e Y, P(X = k j Y = j) = P(X = k j). Inoltre, avendo X supporto solo su valori interi (0 incluso), la sommatoria sopra si riduce ad una somma per valori 0 j k, ovvero P(Z = k) = k P(X = k j)p(y = j) = j=0 k j=0 λ k j µj e λ (k j)! j! e µ, dove in ultimo si è usato che, per definizione di variabile di Poisson, P(X = n) = λn n! e λ, P(Y = n) = µn n! e µ, n N {0}. Infine, riarrangiando i termini dell ultima sommatoria e moltiplicando e dividendo per k!, si ottiene il binomio di Newton, ovvero si prova P(Z = k) = e (λ+µ) 1 k! k j=0 k! (k j)!j! λk j µ j (λ+µ) (λ + µ)k = e. k! Riconosciamo in questa formula che Z è ancora una variabile di Poisson di parametro λ + µ. Es. 7: a) Il modo più rapido per calcolare la distribuzione di Z e U è quello di considerare i casi favorevoli su quelli possibili, ovvero di contare le coppie di numeri che danno luogo ad un determinato valore di Z e U. Il numero totali delle coppie è chiaramente 6. Procedendo in questo modo si ottengono le seguenti distribuzioni: P(Z = 1) = 1 6 ) = 6 (coppia (1, 1)), P(Z = ) = 6, P(Z = 4) = 6, P(Z = 5) = 6 (coppie (1, ), (, 1)), P(Z =, P(Z = 6) = 4 6, P(Z = 8) = P(Z = 9) = 1 6, P(Z = 10) = 6, P(Z = 1) = 4 6, P(Z = 15) = 6, P(Z = 16) = 1 6, P(Z = 18) = 6, P(Z = 0) = 6, P(Z = 4) = 6, P(Z = 5) = 1 1 6, P(Z = 0) = 6, P(Z = 6) = 6, 9 6,

e analogamente per U, si ottiene P(U = 5) = P(U = 5) = 1 6, P(U = 4) = P(U = 4) = 6, P(U = ) = P(U = ) = 4 6, P(U = ) = P(U = ) = 6, P(U = 1) = P(U = 1) = 5 6 6, P(U = 0) = 6. b) Vale l indipendenza stocastica se la condizione P(Z = z, U = u) = P(Z = z)p(u = u) è verificata per ogni coppia di valori (z, u) N. Nel nostro caso tale condizione non è verificata. Basta prendere, per esempio, i valori z = 1, u = 4. Poichè Z = 1 accade solo quando X = Y = 1, mentre U = 5 accade solo quando X = 6 e Y = 1, P (Z = 1, U = 5) = 0 in quanto i due eventi contemporaneamente non possono avvenire. D altro lato, come si è visto, P(Z = 1) = 1 6 e P(U = 5) = 1 6. Quindi P (Z = 1, U = 5) P (Z = 1)P(U = 5), e segue che le variabili Z e U non sono stocasticamente indipendenti. Es. 8: Siano dati gli eventi E = {dal lancio della moneta esce testa}, F = {vengono estratte esattamente palline bianche}, G = {viene estratta almeno 1 pallina nera}. a) Dato l evento E (esce testa) vengono eseguite estrazioni senza reimmissione dall urna A; vale quindi P(F E) = ( 10 ) ( 10 ) 1 ( 0 ) = 15 8. Dato l evento complementare Ẽ (esce croce) vengono eseguite 5 estrazioni con reimmissione dall urna A; vale quindi P(F Ẽ) = ( 5 ) Infine, poichè P(E) = P(Ẽ) = 1 ( ) 5 0 ( ) 15 = 10 0 4 5 = 15 51. P(F ) = P(F E)P(E) + P(F Ẽ)P(Ẽ) = 1 essendo la moneta non truccata, vale 10 ( 15 8 + 15 ). 51

b) Nella notazione introdotta, la quantità richiesta è P(E F ). Per la formula di Bayes, e i risultati al punto a), vale P(E F ) = P(F E)P(E) P(F ) = 1 1 15 8 ( 15 8 + 15 51 ) = 15 8 15 8 + 15 51 c) Nella notazione introdotta, la quantità richiesta è P(G E), corrispondente alla probabilità che sia stata estratta almeno una pallina nera da estrazioni senza reimbussolamento su A. Passando all evento complementare G (nessuna pallina nera è stata estratta), si ha che ) Es. 9: P( G E) = ( 10 ( 0 Per k = 0, 1,,, siano dati gli eventi ) = 19 = P(G E) = 1 P( G E) = 1 19. F k = {vengono estratte k figure in estrazioni} A k = {vengono estratti k assi in estrazioni}. Nel caso di estrazione con reimmissione, per ogni k si ha che ( ) ( ) k ( ) 7 k ( ) ( ) 1 k ( ) 9 k P(F k ) = e P(A k ) =, k 10 10 k 10 10 mentre nel caso di estrazione senza reimmissione, per ogni k si ha che ( 1 )( 8 ) ( 4 6 ) k k P(F k ) = ( 40 ) e P(A k ) = k)( k ), Usando queste formule, a secondo che vi sia o meno la reimmissione, si procede quindi al calcolo delle probabilità richieste come segue: a) La probabilità richiesta è pari a P(F ) + P(F ). b) La probabilità richiesta è pari a 1 P(A 0 ). c) La probabilità richiesta è P(A 1 F ), che nel caso di estrazione con reimmissione è data a ( ) 1 10 10 mentre nel caso di estrazione senza reimmissione è data da ( 4 )( 1 ) 1 ( 40 ). Es. 10: a) Siano dati gli eventi 11 ( 40

E i = {all i-esima estrazione viene estratto un asso}, con i = 1,,, F = {nelle prime estrazioni viene estratto almeno un asso}. Si osserva che gli eventi E i sono tutti stocasticamente indipendenti (poichè vi è reimmissione) e indicando con Ẽi l evento complementare ad E i, vale: P(E i ) = 4 5 = 1 1 Infine, osservando che F = Ẽ1ẼẼ, si ottiene b) Siano dati gli eventi, P(Ẽi) = 1, i = 1,,. 1 P(F ) = 1 P( F ) = 1 P(E 1 ) = 1 ( ) 1. 1 E = {nelle prime estrazioni non viene estratto nessun asso}, H = {nelle prime estrazioni viene estratta una figura}. L esercizio richiede il calcolo di P(H E). Un modo rapido per lo svolgimento consiste nell osservare che l evento H condizionato ad E, equivale all evento {nelle prime estrazioni viene estratta una figura} da realizzarsi da un mazzo dove gli assi sono stati eliminati, ovvero un mazzo di solo 48 carte. Poichè la figura potrebbe uscire alla prima estrazione (e non alla seconda), o viceversa, e poichè entrambe le situazioni hanno stessa probabilità, segue P(H E) = 1 48 6 48 = 8. Un modo più esteso è il seguente. Definiamo gli eventi: A i = {all i-esima estrazione viene estratta una figura}, con i = 1,,, Si osserva che gli eventi A i sono tutti stocasticamente indipendenti con probabilità P(A i ) = 1, e che vale che H = A 1Ã + Ã1A. Vogliamo usare la formula P(H E) = P(HE) P(E). Usando la notazione del punto a), si ottiene che P(E) = P(Ẽ1Ẽ) = ( 1 1). Per il calcolo di P(HE) osserviamo che HE = A 1 Ã Ẽ 1 Ẽ + Ã1A Ẽ 1 Ẽ. D altro canto P(A 1 Ã Ẽ 1 Ẽ ) = P(A 1 Ẽ 1 )P(ÃẼ) = 1 (1), e ugualmente per P(Ã1A Ẽ 1 Ẽ ). Unendo i risultati si ottiene che P(H E) = 7 (1) (1) (1) = 8. 9 1 = 7 c) Sia dato l evento B = {viene estratta una figura per la prima volta nella estrazione}. 1

Usando la stessa notazione dei punti precedenti, si ottiene P(B) = P(Ã1ÃA ) = ( ) 10 1 1 = 00 (1) d) Sia dato l evento C = {nelle prime estrazioni viene estratto un asso}, cosicchè, usando le notazioni introdotte in precedenza, C = E 1 Ẽ + Ẽ1E. L esercizio richiede il calcolo di P(C B). Un modo rapido per lo svolgimento consiste nell osservare che l evento C condizionato a B, equivale all evento {nelle prime estrazioni viene estratto un asso} da realizzarsi da un mazzo dove le figure sono state eliminate, ovvero un mazzo di solo 40 carte. Poichè l asso potrebbe uscire alla prima estrazione (e non alla seconda), o viceversa, e poichè entrambe le situazioni hanno stessa probabilità, segue P(C B) = Un modo più esteso è il seguente. 4 40 6 40 = 9 50. Vogliamo usare la formula P(C B) = P(CB) P(B). Dal punto precedente sappiamo che P(B) = 00 (1). Per calcolare P(CB) osserviamo che CB = E 1 Ẽ Ã 1 Ã A + Ẽ1E Ã 1 Ã A. D altro canto P(E 1 Ẽ Ã 1 Ã A ) = P(E 1 Ã 1 )P(ẼÃ)P(A ) = 1 7, e ugualmente per P(Ẽ1E (1) Ã 1 Ã A ). Unendo i risultati si ottiene che P(C B) = 7 (1) (1) 00 = 9 50. 9 1 1 1 = Es. 11: a) Osserviamo prima che I(X) = { 1, } e I(Y ) = { 1, 1, }. Usando la formula generale P(X = k) = i I(Y ) P(X = k, Y = i) (dove il ruolo di X e Y può essere invertito), si ottiene: P(X = 1) = 1 1 + 1 6 + 1 4 = 1, P(X = ) = 1 1 + 1 4 + 1 6 = 1 e analogamente P(Y = 1) = 1 1 + 1 1 = 1 6, P(Y = 1) = 1 6 + 1 4 = 5 1, P(Y = ) = 1 4 + 1 6 = 5 1. b) Si calcola: P(X) = 1 P(X = 1) + P(X = ) = 1 1

P(X ) = ( 1) P(X = 1) + P(X = 1) = 5 σ (X) = P(X ) P(X) = 9 4. P(Y ) = 1 P(Y = 1) + 1 P(Y = 1) + P(Y = ) = 1 1 P(Y ) = ( 1) P(Y = 1) + 1 P(Y = 1) + P(Y = ) = 9 4 σ (Y ) = P(Y ) P(Y ) = 155 144. c) Osserviamo prima che I(Z) = {, 0, 1,, 4}. Per definizione di Z, si ha che P(Z = k) = (i,j): i+j=k P(X = i, Y = j). Da questo si ricava: P(Z = ) = 1 1, P(Z = 0) = 1 6, P(Z = 1) = 1 1 + 1 4 = 1, P(Z = ) = 1 4, P(Z = 4) = 1 6. d) Procediamo analogamente a sopra per la variabile U che è il minimo tra X e Y. Osserviamo che I(U) = { 1, 1, }, e vale P(U = 1) = 1 1 + 1 6 + 1 4 + 1 1 = 7 1, P(U = 1) = 1 4, P(U = ) = 1 6. Es. 1: Siano X e Y le due variabili aleatorie corrispondenti, rispettivamente, all esito del lancio del primo e del secondo dado. X e Y hanno distribuzione uniforme sui valori I(X) = I(Y ) = {1,,..., 6} e sono stocasticamente indipendenti. Il numero totale delle coppie di numeri usciti è 6, e ciascuna delle coppie ha probabilità 1/6. a) Sia Z = X + Y. Vale quindi che I(Z) = {,, 4,..., 1}. I numeri primi appartenenti ad I(Z) sono l insieme P = {,, 5, 7, 11}. La probabilità richiesta è quindi P(Z P ) = k P P(Z = p). Per calcolare le probabilità richieste, del tipo P(Z = p) con p P, si utilizza la formula dei casi favorevoli su quelli possibili, ovvero si contano le coppie di numeri che danno luogo all evento richiesto, al variare di p P. Si verifica quindi che P(Z = ) = 1 6 (coppia (1, 1)), P(Z = ) = 6 (coppie (1, ), (, 1)), P(Z = 5) = 4 6 6, P(Z = 7) = 6, P(Z = 11) = 6. b) Procediamo ancora con la formula dei casi favorevoli su quelli possibili, contando le coppie di numeri che danno luogo all evento richiesto. Questo avviene solo nel caso in cui si ottenga la coppia (,). Quindi P(X Y = X + Y ) = 1 6. 14

c) Osserviamo prima che per la proprietà del condizionamento vale che P(X = Y X + Y = 6) = P(X = Y, X + Y = 6) P(X + Y = 6). La probabilità al denominatore, per quanto detto al punto a), è data da P(X + Y = 6) = 5 6. La probabilità al denominatore si calcola con la formula dei casi favorevoli su quelli possibili contando le coppie di numeri che danno luogo all evento richiesto, che in questo caso è la sola coppia (,). Quindi P(X = Y, X + Y = 6) = 1 6 e P(X = Y X + Y = 6) = 1 5. d) Analogamente al punto precedente, vale che P(X + Y = 6 X = Y ) = P(X = Y, X + Y = 6) P(X = Y ) = 1 6, dove si è usato che P(X = Y ) = 1 6, come segue dalla formula dei casi favorevoli su quelli possibili. Es. 1: Supponiamo di numerare i partecipanti al concorso da 1 a 15. Siano quindi dati gli eventi E k = {il k-esimo partecipante ottiene l idoneità}, con k = 1,,..., 15. Per ipotesi tali eventi sono tutti indipendenti e di probabilità 1/. particolare, se indichiamo con Y il numero (aleatorio) di idonei fra i 15 partecipanti, con I(Y ) = {0, 1,..., 15}, vale che Y = 15 k=1 E k e dunque Y Bin(15, 1/). Per quanto detto nel testo, il numero aleatorio X (numero di idonei che non ottengono il posto di lavoro) vale 0 qualora il numero degli idonei sia minore o uguale a 10, altrimenti è dato da Y 10. Possiamo cioè scrivere che X = max{0, Y 10}, con I(X) = {0, 1,..., 5}. In Da questo si ottiene la distribuzione di X: ( 15 P(X = 0) = P(Y 10) = 10 ) ( 1 k ( k=0 k ) P(X = 1) = P(Y = 11) = ( ( 15 1 11 ( ) 4 11) ) P(X = ) = P(Y = 1) = ( ( 15 1 1 ( ) 1) ). P(X = 5) = P(Y = 15) = ( 15) ( 1 ) 15. 15 ) 15 k

Per definizione, la previsione di X è P(X) = k I(X) Analogamente, vale che P(X ) = k I(X) kp(x = k) = k P(X = k) = 5 k=1 5 k=1 ( 15 k 10 + k k ( 15 10 + k ) ( 1 ) ( 1 ) 10+k ( ) 5 k. ) 10+k ( ) 5 k, da cui infine si ricava la varianza come σ (X) = P(X ) P(X). Es. 14: a) Siano dati gli eventi E k = {al k-esimo lancio esce 4}, con k = 1,,..., 5. Tali eventi sono tutti indipendenti e di probabilità 1/6. In particolare la variabile X, che conta quante volte è uscito il 4, ha insieme di valori possibili I(X) = {0, 1,..., 5}, ed ha distribuzione binomiale di parametri n = 5 e p = 1 6, ovvero P(X = k) = ( 5 k ) ( 1 6 ) k ( ) 5 5 k, k I(X). 6 b) Per le proprietà della distribuzione binomiale (si veda il libro o il foglio di esrcizi precedente) segue che previsione e varianza sono date da P(X) = np = 5 6, σ (X) = np(1 p) = 5 6. c) Osserviamo prima che I(Y ) = {0, 1, } (in quanto Y Bin(, 1/6)), da cui segue che I(Z) = {0, 1,,..., 7}. Usando la formula delle probabilità totali possiamo scrivere, per ogni k I(Z), P(Z = k) = P(X = k Y ) = P(X = k j Y = j)p(y = j). j=0 Per l indipendenza stocastica fra X e Y, P(X = k j Y = j) = P(X = k j). Inoltre, avendo X supporto solo su valori interi compresi tra 0 e 5, la sommatoria sopra si riduce ad una somma per valori 0 j tali che 0 k j 5 ovvero k P(Z = k) = P(X = k j)p(y = j). j=0 16

La probabilità richiesta è quindi P(Z = ) = = j=0 ( 5 j ( ) 1 ( 5 6 6 ) ( 1 6 ) 5 j=0 ) j ( 5 6 ) +j ( j ( )( ) 5. j j ) ( 1 6 ) j ( ) 5 j 6 d) Per la linearità della previsione e la bilinearità della covarianza, e per l indipendenza stocastica tra X e Y, vale: P(Z) = P(X) + P(Y ) = 5 6 + 6 = 7 6 cov(z, X) = σ (X) + cov(x, Y ) = σ (X) = 5 6 σ (Z+Y ) = σ (x+y ) = σ (X)+4σ (Y )+cov(x, Y ) = 5 6 + 10 9 = 65 6. Es. 15: Siano dati gli eventi E A = {dall urna A viene estratto un gettone rosso } E B = {dall urna B viene estratto un gettone rosso } E C = {dall urna C viene estratto un gettone rosso }. Tali eventi sono tutti indipendenti e di probabilità P(E A ) = 1, P(E B) = 5, P(E C ) = 1 per ipotesi. a) La variabile X, che conta quante volte è stato estratto un gettone rosso estraendo dall urna A e dall urna B, si può scrivere come X = E A + E B, ed ha insieme di valori possibili I(X) = {0, 1, }. Poichè le probabilità di E A ed E B sono diverse, non possiamo concludere che X ha distribuzione binomiale ma, denotando con ẼA e ẼB gli eventi complementari ad E A ed E B, possiamo calcolarla come segue: P(X = 0) = P(ẼAẼB) = P(ẼA)P(ẼB) = 10 P(X = 1) = P(E A Ẽ B ) + P(ẼAE B ) = 1 5 + 1 5 = 1 P(X = ) = P(E A E B ) = P(E A )P(E B ) = 1 5 b) Per quanto ottenuto al punto a), previsione e varianza si ottengono come segue: P(X) = P(E A ) + P(E B ) = 1 + 5 = 9 10 P(X ) = kp(x = k) = 1 + 4 5 = 1 10 k I(X) 17

= σ (X) = P(X ) P(X) = 1 10 81 100 = 49 100. c) Osserviamo che Y = E A + E B + E C e Z = E B + E C. In particolare Y = E A +Z, ovvero Z Y Z+1. Ne segue che i possibili valori assunti dal vettore aleatorio (Y, Z) sono le coppie I(Y, Z) = {(0, 0), (1, 0), (1, 1), (, 1), (, ), (, )}. La distribuzione congiunta si ottiene a partire dagli eventi E A, E B, E C come P((Y, Z) = (0, 0)) = P(ẼAẼBẼC) = 0 P((Y, Z) = (1, 0)) = P(E A Ẽ B Ẽ C ) = 0 P((Y, Z) = (1, 1)) = P(ẼAE B Ẽ C ) + P(ẼAẼBE C ) = 1 4 P((Y, Z) = (, 1)) = P(E A E B Ẽ C ) + P(E A Ẽ B E C ) = 1 4 P((Y, Z) = (, )) = P(ẼAE B E C ) = 1 10 P((Y, Z) = (, )) = P(E A E B E C ) = 1 10, dove nel calcolo si è usato l indipendenza stocastica tra gli eventi. d) Dalla distribuzione congiunta di (Y, Z) si calcola P(Y Z) = j,k=0 j k P((Y, Z) = (j, k)) = 1 4 + 1 + 5 + 5 = 7 4. Per calcolare le previsioni di Y e Z non occore calcolare la loro distribuzione ma, come per X, possiamo usare la loro definizione P(Y ) = P(E A ) + P(E B ) + P(E C ) = 7 5, P(Z) = P(E B) + P(E C ) = 9 10. Mettendo insieme i risultati infine si ottiene cov(y, Z) = P(Y Z) P(Y )P(Z) = 49 100, da cui si deduce che le variabili Y e Z sono correlate, e quindi non stocasticamente indipendenti. Es. 16: Siano dati gli eventi E k = {la k-esima pallina estratta è pari}, con k = 1,..., 0. Trattandosi di estrazioni senza reimmissione, gli eventi non sono stocasticamente indipendenti ma hanno tutti probabilità P(E k ) = 10 0 = 1. a) L evento F = {l urna A contiene tutte palline pari} corrisponde, nella notazione sopra, all evento E 1 E la cui probabilità si calcola come segue P(E 1 E ) = P(E E 1 )P(E 1 ) = P(E )P(E 1 ) = 9 19 1 = 9 8 18

dove si è indicato con E l evento che la seconda estratta da un urna con 9 palline pari e 10 dispari sia una pallina pari, avente quindi probabilità 9 19. b)l evento H = {entrambe le urne contengono palline pari} corrisponde, nella notazione sopra, all evento E 1 E E E 4, la cui probabilità si calcola come P(E 1 E E E 4 ) = P(E 4 E 1 E E )P(E E 1 E )P(E E 1 )P(E 1 ) = 7 8 9 1 17 18 19 = 14. c) Si considerino gli eventi K A = {l urna A contiene tutte palline dispari} K B = {l urna A contiene tutte palline dispari}. La probabilità richiesta è quindi P(K A K B ) = P(K A )+P(K B ) P(K A K B ). Per calcolarla, osserviamo che K A = Ẽ1Ẽ, K B = ẼẼ4 e K A K B = Ẽ1ẼẼẼ4. Procedendo come ai punti b) e c), è facile verificare che P(K A ) = P(K B ) = 9 8, P(K AK B ) = 14 = P(K A K B ) = 19 4. d) L evento G = {l urna B contiene tutte palline pari} corrisponde, nella notazione sopra, all evento E E 4 la cui probabilità, calcolata come sopra, e pari a P(E E 4 ) = 9 8. La probabilità richiesta è invece la probabilità condizionata P(F G) che si ricava, usando la formula delle probabilità composte, come P(F G) = P(F G) P(G) = P(E 1E E E 4 ) = 8 P(G) 15. e) Poichè P(F G) = 8 15 P(F ) = 9 8, gli eventi F e G non sono stocasticamente indipendenti. Es. 17: a) Consideriamo gli eventi F = {Il dado estratto è truccato}, con probabilità P(F ) = 1 10, G = {si estrae due volte 1 ed una volta 6} di cui si desidera calcolare la probabilità. Usando la formula delle probabilità totali e i dati del problema, si ha ( ) P(G) = P(G F )P(F ) + P(G F )P( F 1 1 ) = 10 1 ( ) 1 10 + 9 6 10 = 1 50. b) Consideriamo anche gli eventi E k = {la k-esimo numero uscito è 1}, con k = 1,,. 19

Calcoliamo per prima cosa la probabilità di tali eventi, nota solo in seguito ad aver condizionato sulla scelta del dado, ovvero P(E k ) = P(E k F )P(F ) + P(E k F )P( F ) = 1 5. (Si verifichi che tali eventi non sono stocasticamente indipendenti.) Osserviamo ora che la variabile X può essere scritta come X = E 1 + E + E, da cui segue che I(X) = {0, 1,, }, e P(X) = P(E 1 ) + P (E ) + P(E ) = 5. Per calcolare la varianza di X usiamo la formula σ (X) = σ (E k ) + cov(e 1, E ) + cov(e, E ) + cov(e 1, E ), k=1 dove σ (E k ) = P(E k )P(Ẽk) = 4 5. Per calcolare le covarianze, osserviamo prima che, per ogni j k = 1,,. P(E j E k ) = P(E j E k F )P(F )+P(E j E k F )P( F ) = ( ) 1 1 10 + ( 1 6 ) 9 10 = 1 0 da cui segue che cov(e j, E k ) = P(E j E k ) P(E j )P(E k ) = 1 100. Mettendo tutto insieme, si ottiene σ (X) = 7 50. c) Nella notazione sopra la probabilità richiesta è P(F G), che per la formula di Bayes ed i risultati precedenti è data da P(F G) = P(G F )P(F ) P(G) = ( ) 1 1 10 1 10 1 50 = 8. 0