Classificazione Bayesiana

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Classificazione Bayesiana"

Transcript

1 Classificazione Bayesiana Selezionare, dato un certo pattern x, la classe ci che ha, a posteriori, la massima probabilità rispetto al pattern: P(C=c i x)>p(c=c j x) j i Teorema di Bayes (TDB): P(A B) = P(B A)P(A) P(B) Fornisce un metodo per calcolare la probabilità di un certo evento casuale A sapendo che si è verificato un evento B quando sono note le probabilità a priori di A e B e la probabilità di B condizionato da A. 1

2 Classificazione Bayesiana Nella classificazione: P(c j x ) = P( x c j P( x) )P(c j ) Dato che vogliamo sapere la classe c j che massimizza P(c j x), ci basta trovare la classe c j che massimizza P(x c j ) P(c j ) 2

3 Esempio Caso di istanze descritte da un solo attributo Due classi: il paziente ha un tipo di epatite; il paziente non ha una epatite. Attributo: risultato di un esame al fegato, due valori: + (epatite) e (no epatite). Dai risultati di laboratorio sappiamo: P (epatite) = ; P (no epatite) = P (+ epatite) = 0.98 ; P (- epatite) = 0.02 P (+ no epatite) = 0.03 ; P (- no epatite) =

4 Esempio Osserviamo che, secondo il laboratorio, un nuovo paziente è risultato + e vogliamo classificarlo (ha l epatite oppure no?). Dal TDB ( tralasciando il denominatore) abbiamo: P (+ epatite) * P (epatite) = P (+ no epatite) * P (no epatite) = quindi è più probabile che il paziente non abbia una epatite. 4

5 Classificazione Bayesiana Nel caso in cui l istanza x sia descritta da piu attributi, vogliamo trovare la classe C j tale che P(c i X 1 =x 1,X 2 =x 2,,X n =x n ) sia massimo, ovvero vogliamo compiere una operazione di belief revision Per brevita si scrive P(c i x 1,x 2,,x n ) Applicando il teorema di Bayes, ciò equivale a trovare la classe che massimizza P(x 1,x 2,,x n c i ) P(c i ) 5

6 Classificazione Baysiana Nel caso di n attributi, il problema e stimare P(x 1,x 2,,x n c i ) dai dati a disposizione Approccio diretto: P(x 1,x 2,,x n c i ) e dato dal numero di istanze della classe c j uguali a x 1,x 2,,x n che compaiono nei dati diviso il numero di istanze della classe c i. Problemi: Per poter calcolare P(x 1,x 2,,x n c i ), l istanza x 1,x 2,,x n deve apparire piu volte nei dati => occorrono molti dati Non posso classificare istanze non viste ovvero non presenti nei dati di training => nessuna generalizzazione! 6

7 Classificazione Bayesiana Per superare questi problemi si fa l ipotesi semplificativa che gli attributi osservati siano indipendenti (ipotesi Naive Bayes) data la classe. Dati due eventi casuali a e b (nel nostro caso saranno gli attributi), se a e b sono indipendenti data la classe la probabilità che a e b siano verificati simultaneamente dato c P(a,b c) è data da P(a c) P(b a,c)=p(a c) P(b c) Metodo Naive Bayes: si utilizza il teorema di Bayes facendo l ipotesi di indipendenza degli attributi 7

8 Classificazione Naive Bayes Nel nostro caso P(x 1,x 2,,x n c i )= P(x 1 c i ) P(x 2 c i )... P(x n c i ) Quindi con il metodo Naive Bayes a x viene assegnata la classe c ottenuta con la seguente formula c = argmax P(c c j j ) n k= 1 P(x k c j ) 8

9 Classificazione Naive Bayes E come avere la rete Bayesiana C! X1! X2!.! Xn! 9

10 Classificazione Naive Bayes Nella classificazione Naive Bayes la fase di apprendimento serve per la stima delle probabilità P(x k c j ) e P(c j ) della formula precedente per tutti i valori di x k e c j. Problema dell apprendimento dei parametri di una rete bayesiana di struttura nota da esempi completi I parametri sono calcolati mediante la frequenza relativa P(c i ) = proporzione di esempi del training set che appartengono a c i P(x k c i ) =rapporto tra gli esempi nel training set appartenenti alla classe c i che hanno X k =x k e gli esempi nel training set che appartengono alla classe c i 10

11 Classificazione Naive Bayes La fase di apprendimento consiste nel costruire una tabella di questa forma c 1 c 2... c n - P(c 2 ) X 1 =x 1,1... X 1 =x 1,k1 P(X 1 =x 1,k1 C=c 2 )... X n =x n,1... X n =x n,kn 11

12 Naive Bayes (cont.) Possiamo anche calcolare la probabilita della classe P(c i x,x,...,x ) = 1 2 n P( x 1,x2,...,xn ci ) P( c P( x,x,...,x ) 1 2 n i ) Calcoliamo P(x 1,x 2,...,x n ) cosi P( x 1,x 2,...,x n ) = i P( c i, x 1,x 2,...,x n ) = = i P( x 1,x 2,...,x n c i )P( c i ) = 12

13 Esempio No Outlook Temp Humid Windy Class D1 sunny mild normal T P D2 sunny hot high T N D3 sunny hot high F N D4 sunny mild high F N D5 sunny cool normal F P D6 overcast mild high T P D7 overcast hot high F P D8 overcast cool normal T P D9 overcast hot normal F P D10 rain mild high T N D11 rain cool normal T N D12 rain mild normal F P D13 rain cool normal F P D14 rain mild high F P Dato un giorno con le seguenti caratteristiche:" G=<Outlook=sunny,Temp=cool,Humid=high,Windy=T >" vogliamo sapere se si giocherà o meno una partita di tennis. " 13

14 Esempio Non calcoliamo l intera matrice, calcoliamo solo le probabilita che ci servono 14

15 Esempio (cont.) P(Class=P)=9/14=0.64 P(Class=N)=5/14=0.36 P(Outlook=sunny Class=P)=2/9=0.222 P(Outlook=sunny Class=N)=3/5=0.6 P(Temp=cool Class=P)=3/9=0.333 P(Temp=cool Class=N)=1/5=0.2 P(Humid=high Class=P)=3/9=0.333 P(Humid=high Class=N)=4/5=0.8 P(Windy=T Class=P)=3/9=0.33 P(Windy=T Class=N)=3/5=0.6 P(Class=P)*P(Outlook=sunny P)*P(Temp=cool P)* P(Humid=high P)*P(Windy=T P) = P(Class=N)*P(Outlook=sunny no)*p(temp=cool no)*p(humid=high no) *P(Windy=T no) =

16 Esempio (cont.) La classe piu probabile e quindi N Calcoliamo le probabilita delle classi: P(Class=P G)= /( )= =0.205 P(Class=N G)= /( )= = =

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Metodi Bayesiani - Naive Bayes Fabio Aiolli 13 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 13 Dicembre 2017 1 / 18 Classificatore Naive Bayes Una delle tecniche più semplici

Dettagli

Apprendimento basato sulle istanze

Apprendimento basato sulle istanze Apprendimento basato sulle istanze Apprendimento basato sulle istanze Apprendimento: semplice memorizzazione di tutti gli esempi Classificazione di una nuova istanza x j : reperimento degli

Dettagli

ID3: Selezione Attributo Ottimo

ID3: Selezione Attributo Ottimo Sistemi di Elaborazione dell Informazione 49 ID3: Selezione Attributo Ottimo Vari algoritmi di apprendimento si differenziano soprattutto (ma non solo) dal modo in cui si seleziona l attributo ottimo:

Dettagli

Apprendimento di Alberi di Decisione: Bias Induttivo

Apprendimento di Alberi di Decisione: Bias Induttivo istemi di Elaborazione dell Informazione 54 Apprendimento di Alberi di Decisione: Bias Induttivo Il Bias Induttivo è sulla ricerca! + + A1 + + + A2 + +...... + + A2 A3 + + + A2 A4...... istemi di Elaborazione

Dettagli

Apprendimento Bayesiano

Apprendimento Bayesiano Apprendimento Automatico 232 Apprendimento Bayesiano [Capitolo 6, Mitchell] Teorema di Bayes Ipotesi MAP e ML algoritmi di apprendimento MAP Principio MDL (Minimum description length) Classificatore Ottimo

Dettagli

Naïve Bayesian Classification

Naïve Bayesian Classification Naïve Bayesian Classification Di Alessandro rezzani Sommario Naïve Bayesian Classification (o classificazione Bayesiana)... 1 L algoritmo... 2 Naive Bayes in R... 5 Esempio 1... 5 Esempio 2... 5 L algoritmo

Dettagli

INTRODUZIONE. TaleproceduravasottoilnomediteoremadiBayes.

INTRODUZIONE. TaleproceduravasottoilnomediteoremadiBayes. INTRODUZIONE QUANDO CALCOLIAMO UNA PROBABILITA CONDIZIONATA USIAMO L INFORMAZIONE SUL VERIFICARSI DI UN EVENTO PER DETERMINARE LA PROBABILITA CHE UN ALTRO EVENTO SI VERIFICHI. Una estensione di questo

Dettagli

Classificazione DATA MINING: CLASSIFICAZIONE - 1. Classificazione

Classificazione DATA MINING: CLASSIFICAZIONE - 1. Classificazione M B G Classificazione ATA MINING: CLASSIFICAZIONE - 1 Classificazione Sono dati insieme di classi oggetti etichettati con il nome della classe di appartenenza (training set) L obiettivo della classificazione

Dettagli

Esercizi di Probabilità

Esercizi di Probabilità Esercizi di Probabilità Grazia Corvaia, Patrizio Lattanzio, Alessandra Nardi February 0, 09 L urna colorata In un urna si trovano 0 palline, 5 viola e 5 arancioni. Calcolare la probabilità che, in due

Dettagli

Data mining: classificazione

Data mining: classificazione DataBase and Data Mining Group of DataBase and Data Mining Group of DataBase and Data Mining Group of DataBase and Data Mining Group of DataBase and Data Mining Group of DataBase and Data Mining Group

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Metodi Bayesiani Fabio Aiolli 11 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 11 Dicembre 2017 1 / 19 Metodi Bayesiani I metodi Bayesiani forniscono tecniche computazionali

Dettagli

NOZIONI DI CALCOLO DELLE PROBABILITÀ

NOZIONI DI CALCOLO DELLE PROBABILITÀ NOZIONI DI CALCOLO DELLE PROBABILITÀ ESPERIMENTO CASUALE: un esperimento si dice casuale quando gli esiti (manifestazioni o eventi) non possono essere previsti con certezza. PROVA: le ripetizioni, o occasioni

Dettagli

Alberi di Decisione (2)

Alberi di Decisione (2) Alberi di Decisione (2) Corso di AA, anno 2017/18, Padova Fabio Aiolli 25 Ottobre 2017 Fabio Aiolli Alberi di Decisione (2) 25 Ottobre 2017 1 / 18 Apprendimento di alberi di decisione: Bias induttivo Come

Dettagli

Richiami di probabilità. Decision Theory e Utilità. Richiami di probabilità. assumere certi valori in un insieme x 1, x 2, x n (dominio)

Richiami di probabilità. Decision Theory e Utilità. Richiami di probabilità. assumere certi valori in un insieme x 1, x 2, x n (dominio) 9 lezione Scaletta argomenti: Probabilità Richiami di probabilità Reti Bayesiane Decision Theory e Utilità 1 Richiami di probabilità - La formalizzazione deriva da Boole - Concetto di VARIABILE CASUALE

Dettagli

Classificatori Bayesiani. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna

Classificatori Bayesiani. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna lassificatori Bayesiani rof. Matteo Golfarelli lma Mater Studiorum - Università di Bologna lassificatori Bayesiani Rappresentano un approccio probabilistico per risolvere problemi di classificazione In

Dettagli

Alberi di Decisione (2)

Alberi di Decisione (2) Alberi di Decisione (2) Corso di AA, anno 2018/19, Padova Fabio Aiolli 05 Novembre 2018 Fabio Aiolli Alberi di Decisione (2) 05 Novembre 2018 1 / 19 Apprendimento di alberi di decisione: Bias induttivo

Dettagli

Training Set Test Set Find-S Dati Training Set Def: Errore Ideale Training Set Validation Set Test Set Dati

Training Set Test Set Find-S Dati Training Set Def: Errore Ideale Training Set Validation Set Test Set Dati " #!! Suddivisione tipica ( 3 5 6 & ' ( ) * 3 5 6 = > ; < @ D Sistemi di Elaborazione dell Informazione Sistemi di Elaborazione dell Informazione Principali Paradigmi di Apprendimento Richiamo Consideriamo

Dettagli

Tutorato 1 (20/12/2012) - Soluzioni

Tutorato 1 (20/12/2012) - Soluzioni Tutorato 1 (20/12/2012) - Soluzioni Esercizio 1 (v.c. fantasia) Si trovi il valore del parametro θ per cui la tabella seguente definisce la funzione di probabilità di una v.c. unidimensionale X. X 0 1

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici (2)

Computazione per l interazione naturale: fondamenti probabilistici (2) Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Introduzione al Machine Learning

Introduzione al Machine Learning InfoLife Introduzione al Machine Learning Laboratorio di Bioinformatica InfoLife Università di Foggia - Consorzio C.IN.I. Dott. Crescenzio Gallo crescenzio.gallo@unifg.it 1 Cos è il Machine Learning? Fa

Dettagli

Probabilità. Qual è la probabilità di ottenere il numero 5?

Probabilità. Qual è la probabilità di ottenere il numero 5? Lancio un dado Probabilità Qual è la probabilità di ottenere il numero 5? Ho una prova ossia un esperimento = lancio dado Ho il risultato di tale prova = faccia contrassegnata dal numero 5 Il risultato

Dettagli

Probabilità Condizionale - 1

Probabilità Condizionale - 1 Probabilità Condizionale - 1 Come varia la probabilità al variare della conoscenza, ovvero delle informazioni in possesso di chi la calcola? ESEMPIO - Calcolare la probabilità che in una estrazione della

Dettagli

Lezione 6. Altri metodi di classificazione. Bayesian Learning

Lezione 6. Altri metodi di classificazione. Bayesian Learning Lezione 6 Altri metodi di classificazione. Giuseppe Manco Readings: Sections 6.1-6.5, Mitchell Chapter 2, Bishop Chapter 4, Hand-Mannila-Smith Artificial Neural Networks (ANN) L output Y è 1 se almeno

Dettagli

Naive bayes. Course of Machine Learning Master Degree in Computer Science University of Rome Tor Vergata. Giorgio Gambosi. a.a.

Naive bayes. Course of Machine Learning Master Degree in Computer Science University of Rome Tor Vergata. Giorgio Gambosi. a.a. Naive bayes Course of Machine Learning Master Degree in Computer Science University of Rome Tor Vergata Giorgio Gambosi a.a. 2018-2019 1 Features numerose In presenza di numerose features, definire un

Dettagli

UNIVERSITÀ di ROMA TOR VERGATA

UNIVERSITÀ di ROMA TOR VERGATA UNIVERSITÀ di ROMA TOR VERGATA Corso di Laurea Magistrale in Scienze della Nutrizione Umana Corso di Statistica Medica, anno 05-6 P.Baldi Lista di esercizi, 8 gennaio 06. Esercizio Si sa che in una schedina

Dettagli

Statistica. Capitolo 4. Probabilità. Cap. 4-1

Statistica. Capitolo 4. Probabilità. Cap. 4-1 Statistica Capitolo 4 Probabilità Cap. 4-1 Obiettivi del Capitolo Dopo aver completato il capitolo, sarete in grado di: Spiegare concetti e definizioni fondamentali della probabilità Usare il diagramma

Dettagli

ANNO ACCADEMICO 2015/2016 CORSO di LAUREA in BIOTECNOLOGIE MATEMATICA - II appello, 5/7/2016

ANNO ACCADEMICO 2015/2016 CORSO di LAUREA in BIOTECNOLOGIE MATEMATICA - II appello, 5/7/2016 ANNO ACCADEMICO 215/216 CORSO di LAUREA in BIOTECNOLOGIE MATEMATICA - II appello, 5/7/216 Esercizio 1. In una colonia di 5 gatti che segue la legge di Hardy-Weinberg ci sono 8 gatti con la coda corta.

Dettagli

Statistica a.a Autovalutazione 3

Statistica a.a Autovalutazione 3 Statistica a.a. 2018-19 Autovalutazione 3 CORSI: Diritto per le Imprese e le Istituzioni Scienze Internazionali dello Sviluppo e della Cooperazione 1. Un esperimento consiste nell estrarre una carta da

Dettagli

Rischio statistico e sua analisi

Rischio statistico e sua analisi F94 Metodi statistici per l apprendimento Rischio statistico e sua analisi Docente: Nicolò Cesa-Bianchi versione 7 aprile 018 Per analizzare un algoritmo di apprendimento dobbiamo costruire un modello

Dettagli

Cenni di apprendimento in Reti Bayesiane

Cenni di apprendimento in Reti Bayesiane Sistemi Intelligenti 216 Cenni di apprendimento in Reti Bayesiane Esistono diverse varianti di compiti di apprendimento La struttura della rete può essere nota o sconosciuta Esempi di apprendimento possono

Dettagli

Analisi Strategica per la Politica Economica

Analisi Strategica per la Politica Economica 9 Analisi Strategica per la Politica Economica Parte Nona Prof. Bruno Chiarini GIOCHI BAYESIANI Beliefs (credenze ; congetture) Informazione completa ma imperfetta Informazione incompleta Teorema di Bayes

Dettagli

Esercizio 2 Si consideri l esperimento avente come risultati possibili i numeri 1, 2, 3, 4, 5 di probabilità rispettivamente 0.2, 0.4, 0.1, 0.1, 0.2.

Esercizio 2 Si consideri l esperimento avente come risultati possibili i numeri 1, 2, 3, 4, 5 di probabilità rispettivamente 0.2, 0.4, 0.1, 0.1, 0.2. Esercizio 2 Si consideri l esperimento avente come risultati possibili i numeri 1, 2, 3, 4, 5 di probabilità rispettivamente 0.2, 0.4, 0.1, 0.1, 0.2. a) Determinare l insieme di tutti i possibili sottoinsiemi

Dettagli

Esame di Statistica (10 o 12 CFU) CLEF 11 febbraio 2016

Esame di Statistica (10 o 12 CFU) CLEF 11 febbraio 2016 Esame di Statistica 0 o CFU) CLEF febbraio 06 Esercizio Si considerino i seguenti dati, relativi a 00 clienti di una banca a cui è stato concesso un prestito, classificati per età e per esito dell operazione

Dettagli

ANNO ACCADEMICO 2018/2019 CORSO di LAUREA in BIOTECNOLOGIE MATEMATICA Primo compitino 5/12/2018

ANNO ACCADEMICO 2018/2019 CORSO di LAUREA in BIOTECNOLOGIE MATEMATICA Primo compitino 5/12/2018 ANNO ACCADEMICO 08/09 CORSO di LAUREA in BIOTECNOLOGIE MATEMATICA Primo compitino 5//08 Esercizio. In un turno di gioco, si lanciano una moneta equilibrata e un dado che dà nel 5% dei casi, mentre i punteggi

Dettagli

Apprendimento Automatico Esercitazione 15/04/2009 Prof. Roberto Navigli

Apprendimento Automatico Esercitazione 15/04/2009 Prof. Roberto Navigli Apprendimento Automatico Esercitazione 15/04/2009 Prof. Roberto Navigli Esercizio 1 Si vuole apprendere un classificatore Naive Bayes per le interrogazioni di un motore di ricerca. Ogni interrogazione

Dettagli

Elementi di Teoria della Probabilità

Elementi di Teoria della Probabilità Elementi di Teoria della Probabilità Alcune definizioni iniziali: Fenomeno casuale: fenomeno ripetibile (almeno in teoria) infinite volte che può manifestarsi in diverse modalità, imprevedibili singolarmente,

Dettagli

Introduzione al calcolo delle probabilità

Introduzione al calcolo delle probabilità Introduzione al calcolo delle probabilità L. Boni Approccio empirico OSSERVAZIONE IPOTESI TEORIA DOMINANTE ESPERIMENTO L esperimento Un esperimento (dal latino ex, da, e perire, tentare, passare attraverso

Dettagli

Cenni di calcolo delle probabilità

Cenni di calcolo delle probabilità Cenni di calcolo delle probabilità Prof.ssa G. Serio, Prof. P. Trerotoli, Cattedra di Statistica Medica, Università di Bari 1/19 Quando si compie un esperimento o una serie di prove i possibili risultati

Dettagli

1. Descrivere gli spazi campionari dei seguenti esperimenti casuali: 1. lancio di un dado 2. lancio di due dadi 3.

1. Descrivere gli spazi campionari dei seguenti esperimenti casuali: 1. lancio di un dado 2. lancio di due dadi 3. Corso di Laurea INTERFACOLTÀ - Esercitazione di Statistica n 6 ESERCIZIO 1: 1. Descrivere gli spazi campionari dei seguenti esperimenti casuali: 1. lancio di un dado 2. lancio di due dadi 3. lancio di

Dettagli

Probabilità. 2) Vengono estratte 5 carte; quale è la probabilità che ci siano esattamente 2 denari? ª 0,278. k fattori. n - k +1 ) k!

Probabilità. 2) Vengono estratte 5 carte; quale è la probabilità che ci siano esattamente 2 denari? ª 0,278. k fattori. n - k +1 ) k! Definizione classica = P A Probabilità numero esiti favorevoli numero esiti possibili Esempi 1) Da un mazzo di 40 carte (bastoni, coppe, denari, spade) ne viene estratta una; quale è la probabilità che

Dettagli

Calcolo delle probabilità e ragionamento bayesiano. Unit 5 Corso di Logica e Teoria dell Argomentazione

Calcolo delle probabilità e ragionamento bayesiano. Unit 5 Corso di Logica e Teoria dell Argomentazione Calcolo delle probabilità e ragionamento bayesiano Unit 5 Corso di Logica e Teoria dell Argomentazione Sommario Nozioni probabilistiche Probabilità condizionata Ragionamento bayesiano Applicazioni a giochi

Dettagli

Probabilità: teoremi e distribuzioni

Probabilità: teoremi e distribuzioni Probabilità: teoremi e distribuzioni OBIETTIVO DIDATTICO DELLA LEZIONE Illustrare le più importanti distribuzioni di probabilità che vengono utilizzate in statistica Distribuzioni di probabilità 1. La

Dettagli

Ψ PSICOMETRIA. Corso di laurea triennale (classe 34) STATISTICA INFERENZIALE

Ψ PSICOMETRIA. Corso di laurea triennale (classe 34) STATISTICA INFERENZIALE Ψ PSICOMETRIA Corso di laurea triennale (classe 34) STATISTICA INFERENZIALE STATISTICA INFERENZIALE CAMPIONE caratteristiche conosciute POPOLAZIONE caratteristiche sconosciute STATISTICA INFERENZIALE STIMA

Dettagli

Cenni di Teoria della Probabilità

Cenni di Teoria della Probabilità Cenni di Teoria della Probabilità Marco Baroni 21 febbraio 2005 1 Le leggi fondamentali della probabilità 1. Dato un universo di eventi elementari, le probabilità sono dei valori numerici che assegniamo

Dettagli

Statistica e informatica

Statistica e informatica Statistica e informatica Probabilità condizionate Francesco Pauli e Nicola Torelli A.A. 2017/2018 Indice Probabilità condizionate Probabilità totali Teorema di Bayes Francesco Pauli e Nicola Torelli Probabilità

Dettagli

Probabilità. Maura Mezzetti Terema della probabilità totale. Il teorema delle probabilità totali afferma che

Probabilità. Maura Mezzetti Terema della probabilità totale. Il teorema delle probabilità totali afferma che Probabilità Maura Mezzetti maura.mezzetti@uniroma2.it Terema della probabilità totale Il teorema delle probabilità totali afferma che Dato un evento B e una partizione A 1, A 2,,A n Possiamo scrivere la

Dettagli

DISTRIBUZIONI DI CAMPIONAMENTO

DISTRIBUZIONI DI CAMPIONAMENTO DISTRIBUZIONI DI CAMPIONAMENTO 12 DISTRIBUZIONE DI CAMPIONAMENTO DELLA MEDIA Situazione reale Della popolazione di tutti i laureati in odontoiatria negli ultimi 10 anni, in tutte le Università d Italia,

Dettagli

Matematica con elementi di Informatica

Matematica con elementi di Informatica Probabilità discreta Matematica con elementi di Informatica Tiziano Vargiolu Dipartimento di Matematica vargiolu@math.unipd.it Corso di Laurea Magistrale in Chimica e Tecnologie Farmaceutiche Anno Accademico

Dettagli

Esercizi svolti su probabilità condizionata e teorema di Bayes

Esercizi svolti su probabilità condizionata e teorema di Bayes Esercizi svolti su probabilità condizionata e teorema di Bayes Esercizio 1 Si stima che il 30% degli adulti negli Stati Uniti siano obesi, che il 3% siano diabetici e che il 2% siano sia obesi che diabetici.

Dettagli

Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prima prova in itinere

Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prima prova in itinere Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (69AA) A.A. 016/17 - Prima prova in itinere 017-01-13 La durata della prova è di tre ore. Le risposte devono essere adeguatamente giustificate.

Dettagli

Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prova del

Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prova del Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (69AA) A.A. 06/7 - Prova del 07-07-07 La durata della prova è di tre ore. Le risposte devono essere adeguatamente giustificate. Problema

Dettagli

CP210 Introduzione alla Probabilità: Esonero 2

CP210 Introduzione alla Probabilità: Esonero 2 Dipartimento di Matematica, Roma Tre Pietro Caputo 218-19, II semestre 4 giugno, 219 CP21 Introduzione alla Probabilità: Esonero 2 Cognome Nome Matricola Firma Nota: 1. L unica cosa che si può usare durante

Dettagli

P (F E) = P (E) P (F E) = = 25

P (F E) = P (E) P (F E) = = 25 Regola del prodotto Conoscete la definizione di probabilità condizionata. Definizione 1. Siano E e F due eventi di uno spazio campionario S. Supponiamo P (F ) > 0. La probabilità condizionata dell evento

Dettagli

I modelli probabilistici

I modelli probabilistici e I modelli probabilistici Finora abbiamo visto che esistono modelli probabilistici che possiamo utilizzare per prevedere gli esiti di esperimenti aleatori. Naturalmente la previsione è di tipo probabilistico:

Dettagli

UNIVERSITÀ di ROMA TOR VERGATA

UNIVERSITÀ di ROMA TOR VERGATA UNIVERSITÀ di ROMA TOR VERGATA Corso di Statistica, anno 00- P.Baldi Lista di esercizi. Corso di Laurea in Biotecnologie Esercizio Si sa che in una schedina del totocalcio i tre simboli, X, compaiono con

Dettagli

Calcolo della probabilità

Calcolo della probabilità Calcolo della probabilità GLI EVENTI Un evento è un fatto che può accadere o non accadere. Se esso avviene con certezza si dice evento certo, mentre se non può mai accadere si dice evento impossibile.

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 2 Teoria della decisione Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr

Dettagli

Inversa. Inversa. Elisabetta Colombo

Inversa. Inversa. Elisabetta Colombo Corso di Approfondimenti di Matematica per Biotecnologie, Anno Accademico 00-0, http://users.mat.unimi.it/users/colombo/programmabio.html e 3 con i Matrici inverse di matrici quadrate e con i Sia A una

Dettagli

Statistica Inferenziale

Statistica Inferenziale Statistica Inferenziale Prof. Raffaella Folgieri Email: folgieri@mtcube.com aa 2009/2010 Riepilogo lezione 1 Abbiamo visto: Definizioni di statistica, statistica inferenziale, probabilità (interpretazione

Dettagli

UNIVERSITÀ di ROMA TOR VERGATA

UNIVERSITÀ di ROMA TOR VERGATA UNIVERSITÀ di ROMA TOR VERGATA Corso di Statistica, anno 2010-11 P.Baldi Lista di esercizi 3. Corso di Laurea in Biotecnologie Esercizio 1 Una v.a. X segue una legge N(2, ). Calcolare a1) P(X 1) a2) P(2

Dettagli

Computazione per l interazione naturale: classificazione probabilistica

Computazione per l interazione naturale: classificazione probabilistica Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Calcolo combinatorio

Calcolo combinatorio Calcolo combinatorio Fattoriale: n! = n( n 1)( n 2)...1 1 1 n n = 0 Fattoriale discendente: n( n 1)...( n k + 1) n! (n) k = = ( n k)! 1 1 k n k = 0 Coefficiente binomiale (k n) : n (n) = k n! = k k! k!(

Dettagli

La probabilità. Monia Ranalli. Ranalli M. Probabilità Settimana # 5 1 / 20

La probabilità. Monia Ranalli. Ranalli M. Probabilità Settimana # 5 1 / 20 La probabilità Monia Ranalli Ranalli M. Probabilità Settimana # 5 1 / 20 Sommario Concetti base Evento elementare, spazio campionario ed evento complementare Rappresentazioni dello spazio campionario Intersezione

Dettagli

Introduzione alle Reti Bayesiane

Introduzione alle Reti Bayesiane Introduzione alle Reti Bayesiane Giovedì, 18 Novembre 2004 Francesco Folino Riferimenti: Chapter 6, Mitchell A Tutorial on Learning with Bayesian Networks, Heckerman Bayesian Network Perchè ci interessano?

Dettagli

Statistica 1 A.A. 2015/2016

Statistica 1 A.A. 2015/2016 Corso di Laurea in Economia e Finanza Statistica 1 A.A. 2015/2016 (8 CFU, corrispondenti a 48 ore di lezione frontale e 24 ore di esercitazione) Prof. Luigi Augugliaro 1 / 51 Introduzione Il Calcolo delle

Dettagli

Alberi di Regressione

Alberi di Regressione lberi di Regressione Caso di studio di Metodi vanzati di Programmazione 2015-2016 Corso Data Mining Lo scopo del data mining è l estrazione (semi) automatica di conoscenza nascosta in voluminose basi di

Dettagli

Errori cognitivi, probabilità e decisioni mediche nella diagnostica di laboratorio. M. Besozzi - IRCCS Istituto Auxologico Italiano

Errori cognitivi, probabilità e decisioni mediche nella diagnostica di laboratorio. M. Besozzi - IRCCS Istituto Auxologico Italiano Errori cognitivi, probabilità e decisioni mediche nella diagnostica di laboratorio M. Besozzi - IRCCS Istituto Auxologico Italiano L argomento... Errori cognitivi Il problema gnoseologico Dati, informazione

Dettagli

CP110 Probabilità: Esonero 1. Testo e soluzione

CP110 Probabilità: Esonero 1. Testo e soluzione Dipartimento di Matematica, Roma Tre Pietro Caputo 2009-2010, II semestre 1 aprile, 2010 CP110 Probabilità: Esonero 1 Testo e soluzione 1. (7 pt Una scatola contiene 15 palle numerate da 1 a 15. Le palle

Dettagli

Calcolo delle Probabilità

Calcolo delle Probabilità Calcolo delle Probabilità Il calcolo delle probabilità studia i modelli matematici delle cosiddette situazioni di incertezza. Molte situazioni concrete sono caratterizzate a priori da incertezza su quello

Dettagli

Sistemi Intelligenti 42. Apprendimento PAC

Sistemi Intelligenti 42. Apprendimento PAC Sistemi Intelligenti 42 Apprendimento PAC Usando la disuguaglianza precedente ed altre considerazioni è possibile mostrare che alcune classi di concetti non sono PAC-apprendibili dato uno specifico algoritmo

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici (2)

Computazione per l interazione naturale: fondamenti probabilistici (2) Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it

Dettagli

Ragionamento Bayesiano Esercizi

Ragionamento Bayesiano Esercizi Ragionamento Bayesiano Eserizi Classifiatore Naïve Bayes: rihiami (redits:. Velardi-uniroma1 Si applia quando le ipotesi in H sono rappresentabili mediante una ongiunzione di valori di attributi e la lassifiazione

Dettagli

SOLUZIONI DEL 2 0 TEST DI PREPARAZIONE ALLA 1 a PROVA INTERMEDIA

SOLUZIONI DEL 2 0 TEST DI PREPARAZIONE ALLA 1 a PROVA INTERMEDIA SOLUZIONI DEL 0 TEST DI PREPARAZIONE ALLA 1 a PROVA INTERMEDIA Esercizio 0.1 Una moneta non truccata viene lanciata 10 volte. Calcolare la probabilità che non esca mai testa. Quale risulta la probabilità

Dettagli

DISTRIBUZIONI DI PROBABILITA (parte 3) 1 / 34

DISTRIBUZIONI DI PROBABILITA (parte 3) 1 / 34 DISTRIBUZIONI DI PROBABILITA (parte 3) 1 / 34 Distribuzione Binomiale 2 / 34 La più importante distribuzione di probabilità per variabili casuali discrete è la distribuzione binomiale. Questa distribuzione

Dettagli

Errori cognitivi, probabilità e decisioni mediche nella diagnostica di laboratorio. M. Besozzi - IRCCS Istituto Auxologico Italiano

Errori cognitivi, probabilità e decisioni mediche nella diagnostica di laboratorio. M. Besozzi - IRCCS Istituto Auxologico Italiano Errori cognitivi, probabilità e decisioni mediche nella diagnostica di laboratorio M. Besozzi - IRCCS Istituto Auxologico Italiano L argomento... Errori cognitivi Il problema gnoseologico Dati, informazione

Dettagli

Esercitazione del 29 aprile 2014

Esercitazione del 29 aprile 2014 Esercitazione del 9 aprile 014 Esercizio 10.13 pg. 94 Complemento: Calcolare la probabilità che un negozio apra tra le sette e venti e le nove e quaranta del mattino. Soluzione: Siccome non è nota la distribuzione

Dettagli

Soluzioni degli esercizi proposti

Soluzioni degli esercizi proposti Soluzioni degli esercizi proposti.9 a La cardinalità dell insieme dei numeri,..., 0 n che sono multipli di 5 è 0n 5. Dunque, poiché siamo in una condizione di equiprobabilità, la probabilità richiesta

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Teoria della decisione di Bayes Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario

Dettagli

La media campionaria. MEDIA CAMPIONARIA Date n v.a. X 1,..., X n indipendenti e identicamente distribuite (in breve i.i.d.), la v.a.

La media campionaria. MEDIA CAMPIONARIA Date n v.a. X 1,..., X n indipendenti e identicamente distribuite (in breve i.i.d.), la v.a. La media MEDIA CAMPIONARIA Date n v.a. X 1,..., X n indipendenti e identicamente distribuite (in breve i.i.d.), la v.a. X n = 1 n è detta media. n X i, i=1 In altre parole, se le X 1,...,X n sono il risultato

Dettagli

ESERCIZIO 1 Lanciamo tre volte una moneta regolare e consideriamo equiprobabili i possibili

ESERCIZIO 1 Lanciamo tre volte una moneta regolare e consideriamo equiprobabili i possibili ESERCIZIO 1 Lanciamo tre volte una moneta regolare e consideriamo equiprobabili i possibili risultati. Dimostrare che per i 3 eventi A 1 = Almeno due teste A 2 = Un numero pari di teste A 3 = Croce al

Dettagli

1. Quali sono i possibili campioni di numerosità 2 senza reimmissione? X 1 e X 2 sono indipendenti?

1. Quali sono i possibili campioni di numerosità 2 senza reimmissione? X 1 e X 2 sono indipendenti? Esercizio 1 Consideriamo una popolazione X, dove X = {3,5,7}. 1. Quali sono i possibili campioni di numerosità 2 senza reimmissione? X 1 e X 2 sono indipendenti? 2. Quali sono i possibili campioni di numerosità

Dettagli

Stima dei Parametri. Corso di Apprendimento Automatico Laurea Magistrale in Informatica Nicola Fanizzi

Stima dei Parametri. Corso di Apprendimento Automatico Laurea Magistrale in Informatica Nicola Fanizzi Laurea Magistrale in Informatica Nicola Fanizzi Dipartimento di Informatica Università degli Studi di Bari 20 gennaio 2009 Sommario Introduzione Stima dei parametri di massima verosimiglianza Stima dei

Dettagli

Stima dell intervallo per un parametro

Stima dell intervallo per un parametro Stima dell intervallo per un parametro In aggiunta alla stima puntuale di un parametro dobbiamo dare l intervallo che rappresenta l incertezza statistica. Questo intervallo deve: comunicare in modo obbiettivo

Dettagli

Probabilità. . Probabilità condizionata. Esempi di probabilità condizionata

Probabilità. . Probabilità condizionata. Esempi di probabilità condizionata . Probabilità condizionata Probabilità Dati due eventi A ed BB, compatibili tra loro (cioè AA BB Ø), si dice probabilità condizionata di AArispetto a B la probabilità che AAsi verifichi dopo che BBsi è

Dettagli

Computazione per l interazione naturale: processi gaussiani

Computazione per l interazione naturale: processi gaussiani Computazione per l interazione naturale: processi gaussiani Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Analisi dell associazione tra due caratteri

Analisi dell associazione tra due caratteri Analisi dell associazione tra due caratteri Non ci accontentiamo di analizzare il singolo fenomeno, considerato indipendentemente da altri fenomeni Ci interessano le relazioni che possono esistere tra

Dettagli

Computazione per l interazione naturale: classificazione probabilistica

Computazione per l interazione naturale: classificazione probabilistica Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Classificatori generativi Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario Approcci

Dettagli

ESERCIZI HLAFO ALFIE MIMUN

ESERCIZI HLAFO ALFIE MIMUN ESERCIZI HLAFO ALFIE MIMUN December, 27. Testo degli esercizi Risolvere i seguenti problemi: () Siano X, X 2, X 3 variabili aleatorie i.i.d. bernulliane di media.5 e siano Y, Y 2, Y 3, Y 4 variabili aleatorie

Dettagli

Esame di Statistica del 19 settembre 2006 (Corso di Laurea Triennale in Biotecnologie, Università degli Studi di Padova).

Esame di Statistica del 19 settembre 2006 (Corso di Laurea Triennale in Biotecnologie, Università degli Studi di Padova). Esame di Statistica del 19 settembre 2006 (Corso di Laurea Triennale in Biotecnologie, Università degli Studi di Padova). Cognome Nome Matricola Es. 1 Es. 2 Es. 3 Es. 4 Somma Voto finale Attenzione: si

Dettagli

Soluzione della prova scritta di di Algebra lineare del 10 giugno Esercizio 1

Soluzione della prova scritta di di Algebra lineare del 10 giugno Esercizio 1 Soluzione della prova scritta di di Algebra lineare del 0 giugno 05 Esercizio (a) La matrice A che rappresenta f rispetto alle basi assegnate è la seguente: A = 0 0 0 (b) Applicando il metodo di Gauss

Dettagli

Lezione 1. La Statistica Inferenziale

Lezione 1. La Statistica Inferenziale Lezione 1 La Statistica Inferenziale Filosofia della scienza Secondo Aristotele, vi sono due vie attraverso le quali riusciamo a formare le nostre conoscenze: (1) la deduzione (2) l induzione. Lezione

Dettagli

Casa dello Studente. Casa dello Studente

Casa dello Studente. Casa dello Studente Esercitazione - 14 aprile 2016 ESERCIZIO 1 Di seguito si riporta il giudizio (punteggio da 0 a 5) espresso da un gruppo di studenti rispetto alle diverse residenze studentesche di un Ateneo: a) Si calcolino

Dettagli

PROBABILITA. DEFINIZIONE: Ogni singolo risultato di un esperimento casuale si chiama evento elementare

PROBABILITA. DEFINIZIONE: Ogni singolo risultato di un esperimento casuale si chiama evento elementare PROBABILITA La teoria della probabilità si applica ad esperimenti aleatori o casuali: ossia, esperimenti il cui risultato non è prevedibile a priori. Ad esempio, lancio di un dado, lancio di una moneta,

Dettagli