P a g. 1 La probabilità: introduzione Nei giochi e nella "realtà" spesso si devono fare scelte di cui non si sanno prevedere esattamente le conseguenze (quale carta conviene scartare? in quale orario conviene partire per incontrare meno traffico in autostrada? ) o, comunque, si devono affrontare fenomeni di cui non si sa prevedere esattamente lo sviluppo (l'uscita di un dado, l'evolvere del tempo atmosferico, ). La parte della matematica che si occupa degli strumenti che permettono di razionalizzare le interpretazioni dei fenomeni casuali (cioè di affrontarle ricorrendo alla ragione invece che affidandosi a pregiudizi, a superstizioni o al fato) è detta calcolo delle probabilità. Chiamiamo fenomeno (o esperimento) casuale un fenomeno determinato da molti fattori alcuni facilmente valutabili (so individuarli, ho gli strumenti per misurarli, non è troppo dispendioso rilevarli, ), altri casuali (per es. nel caso del lancio di un dado: l'impulso che gli dò, la rugosità e l'inclinazione della superficie della tavola, la presenza di correnti d'aria, ). La distinzione tra fattori casuali e non casuali è soggettiva. Chiamiamo deterministico un fenomeno che non dipende da fattori casuali. Il concetto di probabilità, sul quale si basano i modelli non deterministici, è associato a quello di evento aleatorio, intendendo distinguere, in questo modo, gli eventi certi, che si verificano sicuramente, da tutti quegli eventi il cui verificarsi dipende esclusivamente dal caso, detti appunto eventi aleatori o casuali. Ad esempio, un evento certo è quello di estrarre una pallina rossa da un'urna che contiene esclusivamente palline rosse. Esistono anche eventi definiti impossibili, perché non si verificheranno mai. Ad esempio, estrarre una pallina rossa da un'urna che contiene solo palline verdi è un evento impossibile. li eventi aleatori sono, essenzialmente, eventi incerti e possibili. Ad esempio, l estrazione di una pallina rossa da un'urna che contenga palline rosse e bianche è un evento aleatorio; nel lancio di una moneta il fatto che si presenti la faccia contrassegnata dalla testa è un evento aleatorio, come anche l estrazione di un asso da un mazzo di carte. Nell ambito degli eventi aleatori, si possono distinguere eventi che hanno maggiori possibilità di verificarsi rispetto ad altri. Il calcolo delle probabilità, che nasce nel Seicento per risolvere alcuni problemi sui giochi d azzardo posti da un giocatore, il cavaliere de Méré, al matematico e filosofo. Pascal (del quale rimane, sull argomento, un carteggio, datato 1654, con il matematico P. Fermat) cerca di formulare delle valutazioni numeriche della possibilità di verificarsi di tali eventi. La prima impostazione sistematica della concezione classica, è opera di P. S. Laplace 1. Nell Ottocento si delineano altre concezioni della probabilità. La prima concezione molto importante è la frequentista basata sull esperimento e sull osservazione di prove ripetute del fenomeno che è oggetto di studio. Sempre nell Ottocento, con sviluppo nel Novecento, sorge una nuova concezione, la soggettiva 2, che valuta la probabilità di un evento in base al grado di fiducia che un individuo attribuisce, secondo le sue informazioni, al verificarsi di un evento. Questa concezione può essere applicata a qualunque evento tanto che le decisioni, di maggiore o minore importanza, che prendiamo ogni giorno, sono fondate su valutazioni soggettive di probabilità. Un altra concezione, la logistica, è stata proposta da. oole nell Ottocento e sviluppata nel Novecento da vari autori: per questi studiosi la probabilità di un evento è una relazione logica fra l evento stesso e un insieme di conoscenze di cui si dispone. Infine, nel nostro secolo, si ha un'impostazione astratta, l impostazione assiomatica, dovuta a A. N. Kolmogorov 3 e altri, che sviluppa tutta la teoria della probabilità partendo da due concetti primitivi: evento e probabilità, e assegnando alcuni assiomi. Questa concezione ha avuto molta importanza e ha permesso di raggiungere notevoli risultati da un punto di vista generale, applicabili ai settori più svariati: dalla fisica all economia, dalla statistica alla psicologia. Nonostante queste numerose concezioni, il campo di studio è aperto a nuove visioni del concetto di probabilità. Osserviamo che il concetto di evento è assunto come concetto primitivo per indicare qualcosa che può accadere. L evento è espresso da una proposizione che risulterà vera se l evento si sarà verificato, falsa se l evento non si sarà verificato. 1 Thèorie analytique des probabilités, Parigi 1812 e Essai philosophique sur les probabilités, Parigi 1814 2 Di notevole importanza nella formulazione di questa concezione è l opera di. de Finetti (Teoria delle probabilità, Einaudi, Torino, 1970). 3 rundbegriffe der Wahrscheinlichkeitsrechnung, 1933
P a g. 2 La probabilità nella concezione classica Con riferimento al lancio di un dado, sia = esce 2. Qual è la probabilità che tale evento si verifichi? Poiché il dado non è truccato, non si ha ragione di pensare che un numero possa uscire più facilmente di un altro, i casi possibili sono ugualmente possibili, cioè equiprobabili e quindi P()= 1/6. E facile quindi intuire che per calcolare la probabilità di un evento: 1. si stabilisce qual è lo spazio degli eventi e si determina il numero dei suoi elementi, cioè tutti i casi possibili, tra loro equiprobabili; 2. si determina il numero dei casi favorevoli (cioè i casi per i quali l evento di cui si vuole calcolare la probabilità risulta verificato); 3. si calcola il rapporto tra il numero di casi favorevoli e il numero di casi possibili, tale rapporto è una misura della probabilità che ha quell evento di verificarsi. Premesso ciò, riportiamo la definizione classica di probabilità (Laplace): Si chiama probabilità p di un evento A il rapporto tra il numero f dei risultati favorevoli e il numero n dei risultati possibili della prova, nell ipotesi che siano tutti ugualmente possibili p=p(a)=f/n Osserviamo che: la probabilità è una frazione non negativa con numeratore sempre maggiore del denominatore, quindi un numero razionale compreso tra 0 e 1. se non esistono casi favorevoli, l evento è impossibile e la sua probabilità è nulla se tutti i casi favorevoli sono possibili, l evento è certo e la sua probabilità è uguale a 1. Tipico esempio di applicazione della concezione classica di probabilità si ha in genetica con le leggi ottenute da Mendel (verificate statisticamente da Mendel e da altri biologi ) nello studio dei problemi legati all'ereditarietà. La probabilità nell impostazione assiomatica 1) Ad ogni esperimento si può associare un insieme U detto universo o spazio degli eventi i cui elementi sono tutti i possibili risultati dell esperimento. Ad esempio, se l esperimento è il lancio di un dado, lo spazio degli eventi contiene gli elementi e 1= esce uno, e 2= esce due, e 3= esce tre, e 4= esce quattro, e 5= esce cinque, e 6= esce sei, ossia: U={e 1, e 2, e 3, e 4, e 5, e 6}. 2) La nozione di evento è assunta come primitiva 3) Un evento è descrivibile con una proposizione cui si può associare un sottoinsieme dell insieme universo U. Nell esempio del lancio del dado l evento descrivibile con la proposizione esce un numero dispari si può associare all insieme D={e 1, e 3, e 5} che è un sottoinsieme di U (in simboli: D U). 4) Si può identificare l evento con il sottoinsieme associato alla proposizione che lo descrive e tradurre le operazioni logiche sugli eventi in operazioni fra insiemi. Nell esempio del lancio del dado, se consideriamo i due eventi esce un numero pari ed esce un numero non inferiore a quattro, identificabili con i sottoinsiemi P={e 2, e 4, e 6} e Q={e 4, e 5, e 6}, si possono tradurre le operazioni logiche sugli eventi in operazioni fra i due sottoinsiemi corrispondenti. La somma logica dei due eventi è l evento descrivibile con l espressione esce un numero pari o non inferiore a quattro, l operazione si può tradurre nell unione dei due sottoinsiemi corrispondenti: P Q={e 2, e 4, e 5, e 6} Il prodotto logico dei due eventi è l evento descrivibile con l espressione esce un numero pari e non inferiore a quattro, l operazione si può tradurre nell intersezione dei due sottoinsiemi corrispondenti: P Q={e 4, e 6}.
P a g. 3 raficamente U P e 1 e 2 P Q e 3 e 4 Q P Q e 5 e 6 Il complemento logico dell evento esce un numero pari è l evento esce un numero non pari (ossia esce un numero dispari che si può definire come evento complementare rispetto al primo). Tale evento complementare corrisponde all insieme complementare di P={e 2, e 4, e 6} che si indica con il simbolo P e coincide con l insieme precedentemente definito D={e 1, e 3, e 5}. 5) I sottoinsiemi costituiti da un solo elemento vengono detti eventi elementari. Nell esempio del lancio del dado è facile intuire che si tratta dei sottoinsiemi E 1={e 1}, E 2={e 2},...,E 6={e 6}. 6) Si dice che l evento si verifica se il risultato dell esperimento è un elemento appartenente al sottoinsieme associato all evento. Nell esempio del lancio del dado si dice che l evento esce un numero dispari si verifica se il risultato del lancio del dado è un elemento del sottoinsieme D={e 1,e 3,e 5} associato all evento. 7) Si dice campo degli eventi, e si indica con il simbolo F, l insieme che ha come elementi tutti i possibili sottoinsiemi di U, compresi lo stesso U e l insieme vuoto Per definizione, la probabilità P(E) è una funzione che associa ad ogni evento del campo degli eventi un numero reale (compreso fra 0 e 1), in modo che siano soddisfatti i seguenti assiomi: 1) P(E) 0 2) P(U)=1 3) Se E 1 ed E 2 sono eventi incompatibili, ossia E 1 E 2= 4, si ha: P(E 1 E 2)=P(E 1)+P(E 2) Osservazioni All evento impossibile è associato l insieme vuoto, la cui probabilità è nulla: P( )=0 Dato un evento E, la probabilità dell evento contrario E è pari a P( E )=1-P(E) 5 Se E 1 ed E 2 sono eventi compatibili si ha: P(E 1 E 2)=P(E 1)+P(E 2)- P(E 1 E 2) 4 il verificarsi dell uno esclude il verificarsi contemporaneo dell altro 5 Teorema della probabilità contraria
P a g. 4 Eventi dipendenti ed eventi indipendenti Si dice che l'evento A è dipendente dall'evento se la probabilità dell'evento A dipende dal fatto che l'evento si sia verificato o meno, diciamo che l'evento A è indipendente dall'evento se la probabilità del verificarsi dell'evento A non dipende dal fatto che l'evento si sia verificato o no. Se due eventi E 1 ed E 2 sono indipendenti si ha P(E 1 E 2 )= P(E 1 ) P(E 2 ) Se invece l evento E 2 dipende da E 1 si ha P(E 1 E 2 )= P(E 1 ) P(E 2 \ E 1 ) dove P(E 2 \ E 1 ) rappresenta la probabilità di E 2 condizionata al verificarsi di E 1, ossia la probabilità che si verifichi E 2 sapendo che si è verificato E 1. Per esempio, se si estrae una pallina bianca da un urna contenente palline bianche e nere, la si rimette nell urna e se ne estrae un altra, la seconda estrazione non è condizionata alla prima (eventi indipendenti); invece se la seconda estrazione avviene senza reinserire la prima pallina nell urna, la seconda estrazione è condizionata dall esito della prima (eventi dipendenti). Costruiamo un modello per calcolare la probabilità di un evento associato all estrazione di una pallina nei due casi Supponiamo di avere un urna contenente 5 palline, di cui 2 bianche e 3 gialle. Vogliamo calcolare, nelle due diverse modalità, quali sono le probabilità che le palline siano entrambe gialle con due successive estrazioni. Rappresentiamo con un albero le successive estrazioni, indicando sui nodi se le palline estratte sono bianche () o gialle () e sui rami le probabilità che si passi da un nodo al successivo Con reimmissione Senza reimmissione 2/5 3/5 2/5 3/5 2/5 3/5 2/5 3/5 1/4 3/4 2/4 2/4 3 3 9 P( ) 5 5 25 3 2 6 3 P( ) 5 4 20 10 2/4 rappresenta la probabilità che la seconda pallina estratta sia gialla, condizionata al verificarsi che la prima pallina estratta è gialla
P a g. 5 Ricordiamo p(a)=f/n Teorema della probabilità contraria p( E ) = 1 - p(e) eventi incompatibili eventi compatibili Teorema della probabilità totale p(a ) = p(a) + p() p(a C) = p(a) + p() + p(c) p(a ) = p(a) + p() - p(a ) p(a C) = p(a) + p() + p(c) - p(a ) - p(a C) - p( C) + p(a C) Probabilità condizionata di un evento rispetto ad un evento A non impossibile, la probabilità di nell ipotesi che A si sia già verificato; si scrive p( A). Si dice anche probabilità di subordinata ad A Eventi stocasticamente indipendenti se risulta p( A) = p( A ) o anche p( A) = p(), cioè se le conoscenze che si hanno su A non alterano la probabilità che viene attribuita a Teorema della probabilità composta eventi stocasticamente indipendenti p(a ) = p(a) p() p(a C) = p(a) p() p(c) eventi stocasticamente dipendenti p(a ) = p(a) p( A) = p() p(a ) (*) p(a C) = p(a) p( A) p(c A ) Dalla (*) si ricava dell evento A p( A) = p(a ) / p(a) che permette di calcolare la probabilità che l evento si verifichi in presenza Per decidere se applicare il principio della probabilità totale o quello della probabilità composta opera come segue: se l'evento composto è somma di due o più eventi, tra di loro collegati da "o", si ricorre alla probabilità totale (estrazione di una carta rossa o di una carta pari); se l'evento composto è intersezione di due o più eventi, tra di loro collegati da "e", si ricorre alla probabilità composta (estrazione di un quattro e di una carta di picche); se nel testo compaiono sia "o" che "e", si applicheranno i due principi nel modo opportuno.