LA PROVA STATISTICA NEL PROCESSO PENALE



Documenti analoghi
Calcolo delle probabilità

1) Si consideri un esperimento che consiste nel lancio di 5 dadi. Lo spazio campionario:

1. Distribuzioni campionarie

Capitolo 4 Probabilità

STATISTICA IX lezione

Esercizi. Rappresentando le estrazioni con un grafo ad albero, calcolare la probabilità che:

Calcolo delle Probabilità

PROBABILITA CONDIZIONALE

OSSERVAZIONI TEORICHE Lezione n. 4

Test d ipotesi. Statistica e biometria. D. Bertacchi. Test d ipotesi

Capitolo 25: Lo scambio nel mercato delle assicurazioni

Statistiche campionarie

matematica probabilmente

Il confronto fra proporzioni

Statistica inferenziale

Corso di Matematica. Corso di Laurea in Farmacia, Facoltà di Farmacia. Università degli Studi di Pisa. Maria Luisa Chiofalo.

Elementi di Psicometria con Laboratorio di SPSS 1

PROBABILITA. Sono esempi di fenomeni la cui realizzazione non è certa a priori e vengono per questo detti eventi aleatori (dal latino alea, dado)

Università degli Studi di Cassino, Anno accademico Corso di Statistica 2, Prof. M. Furno

Probabilità e statistica

Primi esercizi per gli studenti del corso di Statistica ed Elementi di Probabilita

PROBABILITÀ - SCHEDA N. 2 LE VARIABILI ALEATORIE

PROGETTO INDAGINE DI OPINIONE SUL PROCESSO DI FUSIONE DEI COMUNI NEL PRIMIERO

Probabilità condizionata: p(a/b) che avvenga A, una volta accaduto B. Evento prodotto: Evento in cui si verifica sia A che B ; p(a&b) = p(a) x p(b/a)

PROBABILITA CONDIZIONALE

LEZIONE n. 5 (a cura di Antonio Di Marco)

Tasso di interesse e capitalizzazione

Esponenziali elogaritmi

La variabile casuale Binomiale

Test statistici di verifica di ipotesi

Matematica Applicata. Probabilità e statistica

Probabilità Calcolo combinatorio, probabilità elementare, probabilità condizionata, indipendenza, th delle probabilità totali, legge di Bayes

LA DISTRIBUZIONE DI PROBABILITÀ DEI RITORNI AZIONARI FUTURI SARÀ LA MEDESIMA DEL PASSATO?

Regressione Mario Guarracino Data Mining a.a. 2010/2011

Metodologia epidemiologica e Igiene II

Statistica 1. Esercitazioni. Dott. Luigi Augugliaro 1. Università di Palermo

Misure della relazione di occorrenza

Introduzione alle relazioni multivariate. Introduzione alle relazioni multivariate

Statistica. Lezione 6

15. Antico gioco russo

(concetto classico di probabilità)

SMID a.a. 2004/2005 Corso di Metodi Statistici in Biomedicina Tassi di incidenza 9/2/2005

TEORIA DELLE DECISIONI. DOCENTE: JULIA MORTERA

L analisi dei rischi: l aspetto statistico Ing. Pier Giorgio DELLA ROLE Six Sigma Master Black Belt

Una sperimentazione. Probabilità. Una previsione. Calcolo delle probabilità. Nonostante ciò, è possibile dire qualcosa.

Calcolo delle Probabilità

STATISTICA MEDICA Prof. Tarcisio Niglio oppure su Facebook Anno Accademico

Incidenti ed Incidenti Mancati

Elementi di Psicometria con Laboratorio di SPSS 1

VERIFICA DELLE IPOTESI

Capitolo 25: Lo scambio nel mercato delle assicurazioni

LEZIONE 3. Ing. Andrea Ghedi AA 2009/2010. Ing. Andrea Ghedi AA 2009/2010

SPC e distribuzione normale con Access

LA MACCHINA FRIGORIFERA E LA POMPA DI

risulta (x) = 1 se x < 0.

L analisi statistica

Manca qualcosa: cosa c èc. di sbagliato nell usare l età alla diagnosi/decesso o la latenza nei casi. Farina OJC 15 maggio 2013

Pigreco-Day 14 marzo 2014 Matematica e Incertezza. Melchiorre Simone 5 a sez. C Liceo Scientifico G. Galilei Lanciano

Distribuzioni discrete

GESTIONE INDUSTRIALE DELLA QUALITÀ A

Capitolo 2 Distribuzioni di frequenza

Università di Milano Bicocca. Esercitazione 6 di Matematica per la Finanza. 14 Maggio 2015

Il concetto di valore medio in generale

1 Probabilità condizionata

Matematica generale CTF

E naturale chiedersi alcune cose sulla media campionaria x n

Test sul calcolo della probabilità

CORSO DI STATISTICA (parte 1) - ESERCITAZIONE 7

4 3 4 = 4 x x x 10 0 aaa

Proof. Dimostrazione per assurdo. Consideriamo l insieme complementare di P nell insieme

Corso di Laurea in Ingegneria Informatica e Automatica (A-O) Università di Roma La Sapienza

Automazione Industriale (scheduling+mms) scheduling+mms.

come nasce una ricerca

Capitolo 13: L offerta dell impresa e il surplus del produttore

FUNZIONI ELEMENTARI - ESERCIZI SVOLTI

Igiene urbana. Indagine sulla soddisfazione degli utenti Confronto tra Torino, Milano, Bologna e Roma. Anno a cura di Mirko Dancelli

Statistica 1. Esercitazioni. Dott. Luigi Augugliaro 1. Università di Palermo

Cosa dobbiamo già conoscere?


Corso di Psicometria Progredito

Per poter affrontare il problema abbiamo bisogno di parlare di probabilità (almeno in maniera intuitiva). Analizziamo alcune situazioni concrete.

CAPITOLO III CONFRONTI TRA DISTRIBUZIONI

2 FUNZIONI REALI DI VARIABILE REALE

Interesse, sconto, ratei e risconti

E NECESSARIO RICORRERE ALLE VARIABILI CASUALI

GRUPPI SANGUIGNI. Supponendo che la popolazione italiana sia H-W, calcola la probabilità di ogni singolo allele e di ogni genotipo

Statistica. Esercitazione 15. Alfonso Iodice D Enza iodicede@unicas.it. Università degli studi di Cassino. Statistica. A. Iodice

Metodi statistici per le ricerche di mercato

PROBABILITA MISURARE L INCERTEZZA Lanciamo due dadi, facciamo la somma dei punteggi ottenuti. Su quale numero mi conviene scommettere?

1. PRIME PROPRIETÀ 2

IL FATTORE DI RISCHIO ALCOL NEGLI STILI DI VITA DEI LAVORATORI : I RISUL- TATI DI UN INDAGINE

Università degli Studi di Milano Bicocca CdS ECOAMM Corso di Metodi Statistici per l Amministrazione delle Imprese CARTE DI CONTROLLO PER VARIABILI

11. Analisi statistica degli eventi idrologici estremi

I diritti di difesa nella giurisprudenza della Corte EDU

Esercizi di Calcolo delle Probabilita (I)

ANALISI DELLE FREQUENZE: IL TEST CHI 2

Siamo così arrivati all aritmetica modulare, ma anche a individuare alcuni aspetti di come funziona l aritmetica del calcolatore come vedremo.

Prova di autovalutazione Prof. Roberta Siciliano

LA STATISTICA si interessa del rilevamento, dell elaborazione e dello studio dei dati; studia ciò che accade o come è fatto un gruppo numeroso di

LE FUNZIONI A DUE VARIABILI

Transcript:

Benito V. Frosini Università Cattolica del Sacro Cuore LA PROVA STATISTICA NEL PROCESSO PENALE Roma, 26 gennaio 2013

1. Processo civile e processo penale 1.1. Riguardo alla valutazione delle prove statistiche, non vi è differenza nei due tipi di processi. Le Regole di Evidenza Federali USA non fanno distinzione tra contesto civile e contesto penale. 1.2. La differenziazione essenziale riguarda le regole di giudizio: Preponderanza dell evidenza (più probabile che no) nel processo civile; Oltre un ragionevole dubbio (beyond a reasonable doubt) nel processo penale. 2

2. Probabilità degli eventi (rilevanti in un processo) 2.1. La probabilità P(A) di un evento A è il peso razionale da associare allo stesso evento (ovvero alla sua credibilità); P(A) è un numero reale normalizzato fra 0 e 1: 0 P(A) 1. Riguardo ai limiti di P(A): Un evento impossibile ha probabilità 0; Un evento certo ha probabilità 1. P(A) cresce fra 0 e 1 al crescere della credibilità dell evento A. 3

2.2. Probabilità oggettiva e probabilità soggettiva La probabilità di un evento (casuale) è oggettiva quando trova una generale adesione, e quindi è indipendente dal soggetto valutatore. Casi tipici sono i risultati di giochi di sorte, dove gli eventi elementari sono equiprobabili (giochi di carte, lanci di dadi e monete, roulette ecc.). In genere si parla di esperimenti casuali (anche per eventi elementari non equiprobabili). La probabilità di un evento è soggettiva quando la sua valutazione può variare da individuo a individuo: l evento non dipende dalla realizzazione di un esperimento casuale, oppure l esperimento casuale non è completamente noto. 4

2.2. (segue) N.B. E inevitabile il ricorso alla probabilità soggettiva nel caso di eventi unici, per i quali non è configurabile (praticamente) un esperimento casuale che possa produrre l evento di interesse. La probabilità finale in un giudizio (civile o penale) è una probabilità soggettiva ma deve essere sostenuta da un ragionamento il più possibile oggettivo. 5

3. Probabilità condizionale La grande maggioranza delle probabilità rilevanti in un processo sono probabilità condizionali: si tratta di probabilità relative a eventi condizionati. Ad es., con riferimento alla estrazione di una carta da un mazzo di 40 carte, la probabilità dell evento A = estrazione di un Re, è data dal rapporto 4/40 = 1/10 (casi favorevoli diviso casi possibili) per l esperimento casuale ipotizzato, mentre è data da 4/12 = 1/3 se si possiede l ulteriore informazione che la carta estratta è una figura. L evento B = estrazione di una figura è in tal caso l evento condizionante, mentre A è l evento condizionato. 6

3.1. Formula della probabilità condizionale Formalmente, se indichiamo in generale con P(A) e P(B) le probabilità dei due eventi (nell esperimento casuale originario), entrambe > 0, con P(A&B) la probabilità che i due eventi A e B accadano entrambi, la probabilità che l evento A accada sotto la validità della condizione B si scrive (e si legge A dato B ): P( A & B) P( A B) P( B) N.B. L evento A&B può essere impossibile, e in tal caso è correttamente P(A B) = 0. 7

3.2. Probabilità di una implicazione logica Se a e b sono due proposizioni, che indicano determinate condizioni reali, e A e B sono insiemi di individui che soddisfano le predette condizioni, la probabilità dell implicazione logica a b è definita come segue: P( A & B) P(a b) = P(B A) = P( A) Ad es., possiamo essere interessati a una implicazione (del tipo se... allora ) relativa a individui che lavorano in un dato ambiente, dove a = lavora nell ambiente prefissato e b = sviluppa un tumore polmonare. 8

3.2 (segue) Anche in presenza di causa probabilistica, può esservi certezza riguardo alla causa che ha agito, nel senso che la probabilità della condizione contingentemente necessaria può essere uguale a 1. Esempio: P(a b) = P(B A) = 0,01 P(b a) = P(A B) = 1 ovvero: dato l evento A, l evento B accade raramente, ma accade solo in presenza di A. Problema: dobbiamo essere certi (o praticamente certi) della validità di quest ultima condizione (c.d. legge universale). 9

4. Probabilità delle cause dati gli effetti. Formula di Bayes. Siano A 1, A 2 ecc. tutte le possibili cause di un effetto B, e si ammetta di conoscere le rispettive probabilità P(A 1 ), P(A 2 ) ecc. Tali probabilità sono anche indicate come probabilità a priori, o probabilità iniziali; possono essere oggettive o soggettive. P(B A 1 ) è chiamata verosimiglianza della causa A 1 P(B A 2 ) è chiamata verosimiglianza della causa A 2 ecc. Le verosimiglianze sono spesso sostanzialmente oggettive, e solitamente sono ammesse nei processi. 10

4. (segue) La formula di Bayes permette di scambiare i ruoli di evento condizionante e di evento condizionato ; con essa si calcola la probabilità che abbia agito una data causa A i dato l effetto B, a partire dalle probabilità a priori e dalle verosimiglianze. Ad es., nel caso di due possibili cause si ha ad esempio P( A1 & B) P( A1 ) P( B A1 ) P(A 1 B) = P( B) P( B) essendo P(B) = P(A 1 ) P(B A 1 ) + P(A 2 ) P(B A 2 ). Le probabilità così ottenute sono dette probabilità a posteriori oppure probabilità finali. 11

12 4.1. Due possibili cause Se le possibili cause sono soltanto due, A e A (complemento di A), è spesso utile riferirsi a una formula che dà il rapporto fra le probabilità finali: ) ( ) ( ) ( ) ( ) ( ) ( A B P A B P A P A P B A P B A P Tale rapporto uguaglia il prodotto di due rapporti: fra le probabilità iniziali e fra le verosimiglianze.

4.2. Esempio di applicazione (non intuitivo) Controllo dell infezione HIV Il test eseguito sul sangue per il controllo dell infezione HIV è tra i più precisi. Si ponga: B = test positivo B = test negativo M = esistenza HIV Sensitività: P(B M) = 0,98 M = non HIV Specificità: P( B M ) = 0,998 P ( B M ) = 0,002 Se prendiamo un individuo a caso, e il test HIV è positivo, dobbiamo concludere che è probabilmente sano! 13

4.2. (segue) Ciò dipende dal basso valore della base rate probability (probabilità di sfondo) in molti paesi; ad es. negli USA si ha un caso di HIV all incirca ogni 3000 individui: P(M) = 0,00035. Applicando la formula di Bayes si ottiene P( M ) P( B M ) P( M B) = 0,146 P( B) ovvero P ( M B) 0, 854 >> 0,5. Se fosse P(M) = 0,01 si avrebbe P(M B) = 0,832 e P( M B) = 0,168 << 0,5. 14

5. La fallacia del condizionale trasposto Es.: Se si esamina il gruppo sanguigno di un individuo XY, e si trova che è del tipo E (coincidente con le tracce trovate sul luogo del delitto), si tende a colpevolizzare XY col seguente pseudo-ragionamento: E molto raro che l evidenza E venga osservata su un individuo innocente ( G ); è quindi molto improbabile che XY sia innocente. Ad es., da P(E G ) = 0,001 si deduce P( G E) = 0,001. Ma fra queste probabilità non c è alcuna relazione! 15

5.1. Processo a Sally Clark (One is tragic, two is murder) Il primo figlio di Sally Clark morì improvvisamente all età di tre mesi. Il caso fu archiviato come SIDS (Sudden Infant Death Syndrome). Il secondo figlio di Sally Clark morì in circostanze analoghe. Essa fu arrestata, e incolpata dell omicidio di entrambi i figli. Nel primo processo fu condannata a 26 anni di reclusione. Principale argomento per la condanna: P(E G ) = (1/8.500) 2 1/72.000.000 cioè la probabilità che le due morti (assumendo l indipendenza fra i due eventi) siano naturali è molto piccola. 16

5.1. (segue) La probabilità di omicidio di un bambino nel primo anno di vita è stata stimata (su dati UK) di circa 1/92.000. Assumendo l indipendenza fra gli eventi, per due omicidi la probabilità a priori di colpevolezza è P(G) = (1/92.000) 2 1/8.450.000.000. L applicazione della formula di Bayes produce P( G E) = P(SIDS E) 0.99 ovvero quasi certamente S. Clark è innocente! Nel processo di appello (gennaio 2003) S. Clark fu assolta. 17

6. I test di ipotesi L impostazione bayesiana trova difficoltà applicative quando le probabilità in gioco sono eccessivamente imprecise; questo accade soprattutto per le c.d. probabilità a priori. In tali casi (molto comuni) si ricorre a una diversa impostazione: l impostazione dei test di ipotesi di Fisher-Neyman-Pearson: * non si assumono probabilità a priori, * si lavora solo sulle verosimiglianze, e solo se sono sostanzialmente oggettive. 18

6. (segue) -1 Ad es., riguardo ai rischi di esposizione a un agente tossico dei lavoratori di una azienda Z (es. settore chimico), si confronta l incidenza di una data malattia (o causa di morte) M fra i lavoratori di Z e la popolazione in generale, o con i lavoratori di una azienda meccanica (ad es.). Si accetta l ipotesi H 0 (c.d. ipotesi nulla) di nessun effetto (ovvero G = azienda non colpevole) se la proporzione di M fra i lavoratori di Z è prossima (in senso probabilistico) a quella del gruppo di controllo. 19

6. (segue)-2 E essenziale controllare le due probabilità di errore: = probabilità di colpevolezza in caso di innocenza = probabilità di innocenza in caso di colpevolezza. Nel processo civile sembra equo mettere i due tipi di errore sullo stesso piano:. Nel processo penale prevale l interesse a non condannare un innocente: è perciò ragionevole utilizzare in ogni caso una probabilità molto piccola, e tipicamente molto minore di. 20

6. (segue)-3 E possibile adottare in ogni caso valori piuttosto bassi delle due probabilità di errore? In genere non è possibile. Le probabilità di errore sono collegate da una relazione inversa: se diminuisco, devo accettare un aumento di, e viceversa. La dimensione delle probabilità di errore dipende dalla quantità di informazioni disponibili (nell esempio, numero di lavoratori e numero di morti); entrambe le probabilità possono diminuire se aumentano le informazioni disponibili. 21

6. (segue)-4 Il problema dei test multipli Se n test indipendenti di livello sono applicati in n esperimenti per verificare se la causa A agisce per produrre l effetto B, la probabilità che almeno uno dei test risulti significativo è P n = 1 (1 ) n Ad es., se = 0,05, P 4 = 0,1855, P 10 = 0,4013. Tipiche applicazioni si hanno per le cause di morte in indagini epidemiologiche. L accusa tende a limitare l attenzione alle sole (poche) cause di morte che presentano risultati significativi. 22

Bibliografia essenziale C. Aitken, F. Taroni: Statistics and the evaluation of evidence for forensic scientists, 2 nd Edition, Wiley, Chichester, 2004. B.V. Frosini: Metodi statistici, Seconda Edizione, Carocci, Roma, 2009. B.V. Frosini: Le prove statistiche nel processo civile e nel processo penale, Giuffré, Milano, 2002. B.V. Frosini: Concetti di causa e di spiegazione, in Studi per Federico Stella, Jovene, Napoli, 2007. F. Stella: Giustizia e modernità, Giuffré, Milano, 2001. F. Stella (a cura di): I saperi del giudice. La causalità e il ragionevole dubbio, Giuffré, Milano, 2004. F. Taroni, C. Aitken, P. Garbolino, A. Biedermann: Bayesian networks and probabilistic inference in forensic science, Wiley, Chichester, 2006. M. Taruffo: La prova dei fatti giuridici, Giuffré, Milano, 1992. 23