Classificazione Bayesiana
|
|
|
- Emilia Bonfanti
- 7 anni fa
- Visualizzazioni
Transcript
1 Classificazione Bayesiana Selezionare, dato un certo pattern x, la classe ci che ha, a posteriori, la massima probabilità rispetto al pattern: P(C=c i x)>p(c=c j x) j i Teorema di Bayes (TDB): P(A B) = P(B A)P(A) P(B) Fornisce un metodo per calcolare la probabilità di un certo evento casuale A sapendo che si è verificato un evento B quando sono note le probabilità a priori di A e B e la probabilità di B condizionato da A. 1
2 Classificazione Bayesiana Nella classificazione: P(c j x ) = P( x c j P( x) )P(c j ) Dato che vogliamo sapere la classe c j che massimizza P(c j x), ci basta trovare la classe c j che massimizza P(x c j ) P(c j ) 2
3 Esempio Caso di istanze descritte da un solo attributo Due classi: il paziente ha un tipo di epatite; il paziente non ha una epatite. Attributo: risultato di un esame al fegato, due valori: + (epatite) e (no epatite). Dai risultati di laboratorio sappiamo: P (epatite) = ; P (no epatite) = P (+ epatite) = 0.98 ; P (- epatite) = 0.02 P (+ no epatite) = 0.03 ; P (- no epatite) =
4 Esempio Osserviamo che, secondo il laboratorio, un nuovo paziente è risultato + e vogliamo classificarlo (ha l epatite oppure no?). Dal TDB ( tralasciando il denominatore) abbiamo: P (+ epatite) * P (epatite) = P (+ no epatite) * P (no epatite) = quindi è più probabile che il paziente non abbia una epatite. 4
5 Classificazione Bayesiana Nel caso in cui l istanza x sia descritta da piu attributi, vogliamo trovare la classe C j tale che P(c i X 1 =x 1,X 2 =x 2,,X n =x n ) sia massimo, ovvero vogliamo compiere una operazione di belief revision Per brevita si scrive P(c i x 1,x 2,,x n ) Applicando il teorema di Bayes, ciò equivale a trovare la classe che massimizza P(x 1,x 2,,x n c i ) P(c i ) 5
6 Classificazione Baysiana Nel caso di n attributi, il problema e stimare P(x 1,x 2,,x n c i ) dai dati a disposizione Approccio diretto: P(x 1,x 2,,x n c i ) e dato dal numero di istanze della classe c j uguali a x 1,x 2,,x n che compaiono nei dati diviso il numero di istanze della classe c i. Problemi: Per poter calcolare P(x 1,x 2,,x n c i ), l istanza x 1,x 2,,x n deve apparire piu volte nei dati => occorrono molti dati Non posso classificare istanze non viste ovvero non presenti nei dati di training => nessuna generalizzazione! 6
7 Classificazione Bayesiana Per superare questi problemi si fa l ipotesi semplificativa che gli attributi osservati siano indipendenti (ipotesi Naive Bayes) data la classe. Dati due eventi casuali a e b (nel nostro caso saranno gli attributi), se a e b sono indipendenti data la classe la probabilità che a e b siano verificati simultaneamente dato c P(a,b c) è data da P(a c) P(b a,c)=p(a c) P(b c) Metodo Naive Bayes: si utilizza il teorema di Bayes facendo l ipotesi di indipendenza degli attributi 7
8 Classificazione Naive Bayes Nel nostro caso P(x 1,x 2,,x n c i )= P(x 1 c i ) P(x 2 c i )... P(x n c i ) Quindi con il metodo Naive Bayes a x viene assegnata la classe c ottenuta con la seguente formula c = argmax P(c c j j ) n k= 1 P(x k c j ) 8
9 Classificazione Naive Bayes E come avere la rete Bayesiana C! X1! X2!.! Xn! 9
10 Classificazione Naive Bayes Nella classificazione Naive Bayes la fase di apprendimento serve per la stima delle probabilità P(x k c j ) e P(c j ) della formula precedente per tutti i valori di x k e c j. Problema dell apprendimento dei parametri di una rete bayesiana di struttura nota da esempi completi I parametri sono calcolati mediante la frequenza relativa P(c i ) = proporzione di esempi del training set che appartengono a c i P(x k c i ) =rapporto tra gli esempi nel training set appartenenti alla classe c i che hanno X k =x k e gli esempi nel training set che appartengono alla classe c i 10
11 Classificazione Naive Bayes La fase di apprendimento consiste nel costruire una tabella di questa forma c 1 c 2... c n - P(c 2 ) X 1 =x 1,1... X 1 =x 1,k1 P(X 1 =x 1,k1 C=c 2 )... X n =x n,1... X n =x n,kn 11
12 Naive Bayes (cont.) Possiamo anche calcolare la probabilita della classe P(c i x,x,...,x ) = 1 2 n P( x 1,x2,...,xn ci ) P( c P( x,x,...,x ) 1 2 n i ) Calcoliamo P(x 1,x 2,...,x n ) cosi P( x 1,x 2,...,x n ) = i P( c i, x 1,x 2,...,x n ) = = i P( x 1,x 2,...,x n c i )P( c i ) = 12
13 Esempio No Outlook Temp Humid Windy Class D1 sunny mild normal T P D2 sunny hot high T N D3 sunny hot high F N D4 sunny mild high F N D5 sunny cool normal F P D6 overcast mild high T P D7 overcast hot high F P D8 overcast cool normal T P D9 overcast hot normal F P D10 rain mild high T N D11 rain cool normal T N D12 rain mild normal F P D13 rain cool normal F P D14 rain mild high F P Dato un giorno con le seguenti caratteristiche:" G=<Outlook=sunny,Temp=cool,Humid=high,Windy=T >" vogliamo sapere se si giocherà o meno una partita di tennis. " 13
14 Esempio Non calcoliamo l intera matrice, calcoliamo solo le probabilita che ci servono 14
15 Esempio (cont.) P(Class=P)=9/14=0.64 P(Class=N)=5/14=0.36 P(Outlook=sunny Class=P)=2/9=0.222 P(Outlook=sunny Class=N)=3/5=0.6 P(Temp=cool Class=P)=3/9=0.333 P(Temp=cool Class=N)=1/5=0.2 P(Humid=high Class=P)=3/9=0.333 P(Humid=high Class=N)=4/5=0.8 P(Windy=T Class=P)=3/9=0.33 P(Windy=T Class=N)=3/5=0.6 P(Class=P)*P(Outlook=sunny P)*P(Temp=cool P)* P(Humid=high P)*P(Windy=T P) = P(Class=N)*P(Outlook=sunny no)*p(temp=cool no)*p(humid=high no) *P(Windy=T no) =
16 Esempio (cont.) La classe piu probabile e quindi N Calcoliamo le probabilita delle classi: P(Class=P G)= /( )= =0.205 P(Class=N G)= /( )= = =
Apprendimento di Alberi di Decisione: Bias Induttivo
istemi di Elaborazione dell Informazione 54 Apprendimento di Alberi di Decisione: Bias Induttivo Il Bias Induttivo è sulla ricerca! + + A1 + + + A2 + +...... + + A2 A3 + + + A2 A4...... istemi di Elaborazione
Naïve Bayesian Classification
Naïve Bayesian Classification Di Alessandro rezzani Sommario Naïve Bayesian Classification (o classificazione Bayesiana)... 1 L algoritmo... 2 Naive Bayes in R... 5 Esempio 1... 5 Esempio 2... 5 L algoritmo
NOZIONI DI CALCOLO DELLE PROBABILITÀ
NOZIONI DI CALCOLO DELLE PROBABILITÀ ESPERIMENTO CASUALE: un esperimento si dice casuale quando gli esiti (manifestazioni o eventi) non possono essere previsti con certezza. PROVA: le ripetizioni, o occasioni
Tutorato 1 (20/12/2012) - Soluzioni
Tutorato 1 (20/12/2012) - Soluzioni Esercizio 1 (v.c. fantasia) Si trovi il valore del parametro θ per cui la tabella seguente definisce la funzione di probabilità di una v.c. unidimensionale X. X 0 1
Probabilità Condizionale - 1
Probabilità Condizionale - 1 Come varia la probabilità al variare della conoscenza, ovvero delle informazioni in possesso di chi la calcola? ESEMPIO - Calcolare la probabilità che in una estrazione della
UNIVERSITÀ di ROMA TOR VERGATA
UNIVERSITÀ di ROMA TOR VERGATA Corso di Laurea Magistrale in Scienze della Nutrizione Umana Corso di Statistica Medica, anno 05-6 P.Baldi Lista di esercizi, 8 gennaio 06. Esercizio Si sa che in una schedina
Cenni di apprendimento in Reti Bayesiane
Sistemi Intelligenti 216 Cenni di apprendimento in Reti Bayesiane Esistono diverse varianti di compiti di apprendimento La struttura della rete può essere nota o sconosciuta Esempi di apprendimento possono
Analisi Strategica per la Politica Economica
9 Analisi Strategica per la Politica Economica Parte Nona Prof. Bruno Chiarini GIOCHI BAYESIANI Beliefs (credenze ; congetture) Informazione completa ma imperfetta Informazione incompleta Teorema di Bayes
Esercizio 2 Si consideri l esperimento avente come risultati possibili i numeri 1, 2, 3, 4, 5 di probabilità rispettivamente 0.2, 0.4, 0.1, 0.1, 0.2.
Esercizio 2 Si consideri l esperimento avente come risultati possibili i numeri 1, 2, 3, 4, 5 di probabilità rispettivamente 0.2, 0.4, 0.1, 0.1, 0.2. a) Determinare l insieme di tutti i possibili sottoinsiemi
Esame di Statistica (10 o 12 CFU) CLEF 11 febbraio 2016
Esame di Statistica 0 o CFU) CLEF febbraio 06 Esercizio Si considerino i seguenti dati, relativi a 00 clienti di una banca a cui è stato concesso un prestito, classificati per età e per esito dell operazione
1. Descrivere gli spazi campionari dei seguenti esperimenti casuali: 1. lancio di un dado 2. lancio di due dadi 3.
Corso di Laurea INTERFACOLTÀ - Esercitazione di Statistica n 6 ESERCIZIO 1: 1. Descrivere gli spazi campionari dei seguenti esperimenti casuali: 1. lancio di un dado 2. lancio di due dadi 3. lancio di
Ψ PSICOMETRIA. Corso di laurea triennale (classe 34) STATISTICA INFERENZIALE
Ψ PSICOMETRIA Corso di laurea triennale (classe 34) STATISTICA INFERENZIALE STATISTICA INFERENZIALE CAMPIONE caratteristiche conosciute POPOLAZIONE caratteristiche sconosciute STATISTICA INFERENZIALE STIMA
Probabilità. Maura Mezzetti Terema della probabilità totale. Il teorema delle probabilità totali afferma che
Probabilità Maura Mezzetti [email protected] Terema della probabilità totale Il teorema delle probabilità totali afferma che Dato un evento B e una partizione A 1, A 2,,A n Possiamo scrivere la
DISTRIBUZIONI DI CAMPIONAMENTO
DISTRIBUZIONI DI CAMPIONAMENTO 12 DISTRIBUZIONE DI CAMPIONAMENTO DELLA MEDIA Situazione reale Della popolazione di tutti i laureati in odontoiatria negli ultimi 10 anni, in tutte le Università d Italia,
Esercizi svolti su probabilità condizionata e teorema di Bayes
Esercizi svolti su probabilità condizionata e teorema di Bayes Esercizio 1 Si stima che il 30% degli adulti negli Stati Uniti siano obesi, che il 3% siano diabetici e che il 2% siano sia obesi che diabetici.
P (F E) = P (E) P (F E) = = 25
Regola del prodotto Conoscete la definizione di probabilità condizionata. Definizione 1. Siano E e F due eventi di uno spazio campionario S. Supponiamo P (F ) > 0. La probabilità condizionata dell evento
UNIVERSITÀ di ROMA TOR VERGATA
UNIVERSITÀ di ROMA TOR VERGATA Corso di Statistica, anno 00- P.Baldi Lista di esercizi. Corso di Laurea in Biotecnologie Esercizio Si sa che in una schedina del totocalcio i tre simboli, X, compaiono con
Calcolo della probabilità
Calcolo della probabilità GLI EVENTI Un evento è un fatto che può accadere o non accadere. Se esso avviene con certezza si dice evento certo, mentre se non può mai accadere si dice evento impossibile.
Statistica Inferenziale
Statistica Inferenziale Prof. Raffaella Folgieri Email: [email protected] aa 2009/2010 Riepilogo lezione 1 Abbiamo visto: Definizioni di statistica, statistica inferenziale, probabilità (interpretazione
UNIVERSITÀ di ROMA TOR VERGATA
UNIVERSITÀ di ROMA TOR VERGATA Corso di Statistica, anno 2010-11 P.Baldi Lista di esercizi 3. Corso di Laurea in Biotecnologie Esercizio 1 Una v.a. X segue una legge N(2, ). Calcolare a1) P(X 1) a2) P(2
Introduzione alle Reti Bayesiane
Introduzione alle Reti Bayesiane Giovedì, 18 Novembre 2004 Francesco Folino Riferimenti: Chapter 6, Mitchell A Tutorial on Learning with Bayesian Networks, Heckerman Bayesian Network Perchè ci interessano?
Statistica 1 A.A. 2015/2016
Corso di Laurea in Economia e Finanza Statistica 1 A.A. 2015/2016 (8 CFU, corrispondenti a 48 ore di lezione frontale e 24 ore di esercitazione) Prof. Luigi Augugliaro 1 / 51 Introduzione Il Calcolo delle
CP110 Probabilità: Esonero 1. Testo e soluzione
Dipartimento di Matematica, Roma Tre Pietro Caputo 2009-2010, II semestre 1 aprile, 2010 CP110 Probabilità: Esonero 1 Testo e soluzione 1. (7 pt Una scatola contiene 15 palle numerate da 1 a 15. Le palle
Calcolo delle Probabilità
Calcolo delle Probabilità Il calcolo delle probabilità studia i modelli matematici delle cosiddette situazioni di incertezza. Molte situazioni concrete sono caratterizzate a priori da incertezza su quello
SOLUZIONI DEL 2 0 TEST DI PREPARAZIONE ALLA 1 a PROVA INTERMEDIA
SOLUZIONI DEL 0 TEST DI PREPARAZIONE ALLA 1 a PROVA INTERMEDIA Esercizio 0.1 Una moneta non truccata viene lanciata 10 volte. Calcolare la probabilità che non esca mai testa. Quale risulta la probabilità
Errori cognitivi, probabilità e decisioni mediche nella diagnostica di laboratorio. M. Besozzi - IRCCS Istituto Auxologico Italiano
Errori cognitivi, probabilità e decisioni mediche nella diagnostica di laboratorio M. Besozzi - IRCCS Istituto Auxologico Italiano L argomento... Errori cognitivi Il problema gnoseologico Dati, informazione
Soluzioni degli esercizi proposti
Soluzioni degli esercizi proposti.9 a La cardinalità dell insieme dei numeri,..., 0 n che sono multipli di 5 è 0n 5. Dunque, poiché siamo in una condizione di equiprobabilità, la probabilità richiesta
ESERCIZI HLAFO ALFIE MIMUN
ESERCIZI HLAFO ALFIE MIMUN December, 27. Testo degli esercizi Risolvere i seguenti problemi: () Siano X, X 2, X 3 variabili aleatorie i.i.d. bernulliane di media.5 e siano Y, Y 2, Y 3, Y 4 variabili aleatorie
Esame di Statistica del 19 settembre 2006 (Corso di Laurea Triennale in Biotecnologie, Università degli Studi di Padova).
Esame di Statistica del 19 settembre 2006 (Corso di Laurea Triennale in Biotecnologie, Università degli Studi di Padova). Cognome Nome Matricola Es. 1 Es. 2 Es. 3 Es. 4 Somma Voto finale Attenzione: si
Lezione 1. La Statistica Inferenziale
Lezione 1 La Statistica Inferenziale Filosofia della scienza Secondo Aristotele, vi sono due vie attraverso le quali riusciamo a formare le nostre conoscenze: (1) la deduzione (2) l induzione. Lezione
PROBABILITA. DEFINIZIONE: Ogni singolo risultato di un esperimento casuale si chiama evento elementare
PROBABILITA La teoria della probabilità si applica ad esperimenti aleatori o casuali: ossia, esperimenti il cui risultato non è prevedibile a priori. Ad esempio, lancio di un dado, lancio di una moneta,
