Classificazione Bayesiana
|
|
- Emilia Bonfanti
- 5 anni fa
- Visualizzazioni
Transcript
1 Classificazione Bayesiana Selezionare, dato un certo pattern x, la classe ci che ha, a posteriori, la massima probabilità rispetto al pattern: P(C=c i x)>p(c=c j x) j i Teorema di Bayes (TDB): P(A B) = P(B A)P(A) P(B) Fornisce un metodo per calcolare la probabilità di un certo evento casuale A sapendo che si è verificato un evento B quando sono note le probabilità a priori di A e B e la probabilità di B condizionato da A. 1
2 Classificazione Bayesiana Nella classificazione: P(c j x ) = P( x c j P( x) )P(c j ) Dato che vogliamo sapere la classe c j che massimizza P(c j x), ci basta trovare la classe c j che massimizza P(x c j ) P(c j ) 2
3 Esempio Caso di istanze descritte da un solo attributo Due classi: il paziente ha un tipo di epatite; il paziente non ha una epatite. Attributo: risultato di un esame al fegato, due valori: + (epatite) e (no epatite). Dai risultati di laboratorio sappiamo: P (epatite) = ; P (no epatite) = P (+ epatite) = 0.98 ; P (- epatite) = 0.02 P (+ no epatite) = 0.03 ; P (- no epatite) =
4 Esempio Osserviamo che, secondo il laboratorio, un nuovo paziente è risultato + e vogliamo classificarlo (ha l epatite oppure no?). Dal TDB ( tralasciando il denominatore) abbiamo: P (+ epatite) * P (epatite) = P (+ no epatite) * P (no epatite) = quindi è più probabile che il paziente non abbia una epatite. 4
5 Classificazione Bayesiana Nel caso in cui l istanza x sia descritta da piu attributi, vogliamo trovare la classe C j tale che P(c i X 1 =x 1,X 2 =x 2,,X n =x n ) sia massimo, ovvero vogliamo compiere una operazione di belief revision Per brevita si scrive P(c i x 1,x 2,,x n ) Applicando il teorema di Bayes, ciò equivale a trovare la classe che massimizza P(x 1,x 2,,x n c i ) P(c i ) 5
6 Classificazione Baysiana Nel caso di n attributi, il problema e stimare P(x 1,x 2,,x n c i ) dai dati a disposizione Approccio diretto: P(x 1,x 2,,x n c i ) e dato dal numero di istanze della classe c j uguali a x 1,x 2,,x n che compaiono nei dati diviso il numero di istanze della classe c i. Problemi: Per poter calcolare P(x 1,x 2,,x n c i ), l istanza x 1,x 2,,x n deve apparire piu volte nei dati => occorrono molti dati Non posso classificare istanze non viste ovvero non presenti nei dati di training => nessuna generalizzazione! 6
7 Classificazione Bayesiana Per superare questi problemi si fa l ipotesi semplificativa che gli attributi osservati siano indipendenti (ipotesi Naive Bayes) data la classe. Dati due eventi casuali a e b (nel nostro caso saranno gli attributi), se a e b sono indipendenti data la classe la probabilità che a e b siano verificati simultaneamente dato c P(a,b c) è data da P(a c) P(b a,c)=p(a c) P(b c) Metodo Naive Bayes: si utilizza il teorema di Bayes facendo l ipotesi di indipendenza degli attributi 7
8 Classificazione Naive Bayes Nel nostro caso P(x 1,x 2,,x n c i )= P(x 1 c i ) P(x 2 c i )... P(x n c i ) Quindi con il metodo Naive Bayes a x viene assegnata la classe c ottenuta con la seguente formula c = argmax P(c c j j ) n k= 1 P(x k c j ) 8
9 Classificazione Naive Bayes E come avere la rete Bayesiana C! X1! X2!.! Xn! 9
10 Classificazione Naive Bayes Nella classificazione Naive Bayes la fase di apprendimento serve per la stima delle probabilità P(x k c j ) e P(c j ) della formula precedente per tutti i valori di x k e c j. Problema dell apprendimento dei parametri di una rete bayesiana di struttura nota da esempi completi I parametri sono calcolati mediante la frequenza relativa P(c i ) = proporzione di esempi del training set che appartengono a c i P(x k c i ) =rapporto tra gli esempi nel training set appartenenti alla classe c i che hanno X k =x k e gli esempi nel training set che appartengono alla classe c i 10
11 Classificazione Naive Bayes La fase di apprendimento consiste nel costruire una tabella di questa forma c 1 c 2... c n - P(c 2 ) X 1 =x 1,1... X 1 =x 1,k1 P(X 1 =x 1,k1 C=c 2 )... X n =x n,1... X n =x n,kn 11
12 Naive Bayes (cont.) Possiamo anche calcolare la probabilita della classe P(c i x,x,...,x ) = 1 2 n P( x 1,x2,...,xn ci ) P( c P( x,x,...,x ) 1 2 n i ) Calcoliamo P(x 1,x 2,...,x n ) cosi P( x 1,x 2,...,x n ) = i P( c i, x 1,x 2,...,x n ) = = i P( x 1,x 2,...,x n c i )P( c i ) = 12
13 Esempio No Outlook Temp Humid Windy Class D1 sunny mild normal T P D2 sunny hot high T N D3 sunny hot high F N D4 sunny mild high F N D5 sunny cool normal F P D6 overcast mild high T P D7 overcast hot high F P D8 overcast cool normal T P D9 overcast hot normal F P D10 rain mild high T N D11 rain cool normal T N D12 rain mild normal F P D13 rain cool normal F P D14 rain mild high F P Dato un giorno con le seguenti caratteristiche:" G=<Outlook=sunny,Temp=cool,Humid=high,Windy=T >" vogliamo sapere se si giocherà o meno una partita di tennis. " 13
14 Esempio Non calcoliamo l intera matrice, calcoliamo solo le probabilita che ci servono 14
15 Esempio (cont.) P(Class=P)=9/14=0.64 P(Class=N)=5/14=0.36 P(Outlook=sunny Class=P)=2/9=0.222 P(Outlook=sunny Class=N)=3/5=0.6 P(Temp=cool Class=P)=3/9=0.333 P(Temp=cool Class=N)=1/5=0.2 P(Humid=high Class=P)=3/9=0.333 P(Humid=high Class=N)=4/5=0.8 P(Windy=T Class=P)=3/9=0.33 P(Windy=T Class=N)=3/5=0.6 P(Class=P)*P(Outlook=sunny P)*P(Temp=cool P)* P(Humid=high P)*P(Windy=T P) = P(Class=N)*P(Outlook=sunny no)*p(temp=cool no)*p(humid=high no) *P(Windy=T no) =
16 Esempio (cont.) La classe piu probabile e quindi N Calcoliamo le probabilita delle classi: P(Class=P G)= /( )= =0.205 P(Class=N G)= /( )= = =
Apprendimento Automatico
Apprendimento Automatico Metodi Bayesiani - Naive Bayes Fabio Aiolli 13 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 13 Dicembre 2017 1 / 18 Classificatore Naive Bayes Una delle tecniche più semplici
DettagliApprendimento basato sulle istanze
Apprendimento basato sulle istanze Apprendimento basato sulle istanze Apprendimento: semplice memorizzazione di tutti gli esempi Classificazione di una nuova istanza x j : reperimento degli
DettagliID3: Selezione Attributo Ottimo
Sistemi di Elaborazione dell Informazione 49 ID3: Selezione Attributo Ottimo Vari algoritmi di apprendimento si differenziano soprattutto (ma non solo) dal modo in cui si seleziona l attributo ottimo:
DettagliApprendimento di Alberi di Decisione: Bias Induttivo
istemi di Elaborazione dell Informazione 54 Apprendimento di Alberi di Decisione: Bias Induttivo Il Bias Induttivo è sulla ricerca! + + A1 + + + A2 + +...... + + A2 A3 + + + A2 A4...... istemi di Elaborazione
DettagliApprendimento Bayesiano
Apprendimento Automatico 232 Apprendimento Bayesiano [Capitolo 6, Mitchell] Teorema di Bayes Ipotesi MAP e ML algoritmi di apprendimento MAP Principio MDL (Minimum description length) Classificatore Ottimo
DettagliNaïve Bayesian Classification
Naïve Bayesian Classification Di Alessandro rezzani Sommario Naïve Bayesian Classification (o classificazione Bayesiana)... 1 L algoritmo... 2 Naive Bayes in R... 5 Esempio 1... 5 Esempio 2... 5 L algoritmo
DettagliINTRODUZIONE. TaleproceduravasottoilnomediteoremadiBayes.
INTRODUZIONE QUANDO CALCOLIAMO UNA PROBABILITA CONDIZIONATA USIAMO L INFORMAZIONE SUL VERIFICARSI DI UN EVENTO PER DETERMINARE LA PROBABILITA CHE UN ALTRO EVENTO SI VERIFICHI. Una estensione di questo
DettagliClassificazione DATA MINING: CLASSIFICAZIONE - 1. Classificazione
M B G Classificazione ATA MINING: CLASSIFICAZIONE - 1 Classificazione Sono dati insieme di classi oggetti etichettati con il nome della classe di appartenenza (training set) L obiettivo della classificazione
DettagliEsercizi di Probabilità
Esercizi di Probabilità Grazia Corvaia, Patrizio Lattanzio, Alessandra Nardi February 0, 09 L urna colorata In un urna si trovano 0 palline, 5 viola e 5 arancioni. Calcolare la probabilità che, in due
DettagliData mining: classificazione
DataBase and Data Mining Group of DataBase and Data Mining Group of DataBase and Data Mining Group of DataBase and Data Mining Group of DataBase and Data Mining Group of DataBase and Data Mining Group
DettagliApprendimento Automatico
Apprendimento Automatico Metodi Bayesiani Fabio Aiolli 11 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 11 Dicembre 2017 1 / 19 Metodi Bayesiani I metodi Bayesiani forniscono tecniche computazionali
DettagliNOZIONI DI CALCOLO DELLE PROBABILITÀ
NOZIONI DI CALCOLO DELLE PROBABILITÀ ESPERIMENTO CASUALE: un esperimento si dice casuale quando gli esiti (manifestazioni o eventi) non possono essere previsti con certezza. PROVA: le ripetizioni, o occasioni
DettagliAlberi di Decisione (2)
Alberi di Decisione (2) Corso di AA, anno 2017/18, Padova Fabio Aiolli 25 Ottobre 2017 Fabio Aiolli Alberi di Decisione (2) 25 Ottobre 2017 1 / 18 Apprendimento di alberi di decisione: Bias induttivo Come
DettagliRichiami di probabilità. Decision Theory e Utilità. Richiami di probabilità. assumere certi valori in un insieme x 1, x 2, x n (dominio)
9 lezione Scaletta argomenti: Probabilità Richiami di probabilità Reti Bayesiane Decision Theory e Utilità 1 Richiami di probabilità - La formalizzazione deriva da Boole - Concetto di VARIABILE CASUALE
DettagliClassificatori Bayesiani. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna
lassificatori Bayesiani rof. Matteo Golfarelli lma Mater Studiorum - Università di Bologna lassificatori Bayesiani Rappresentano un approccio probabilistico per risolvere problemi di classificazione In
DettagliAlberi di Decisione (2)
Alberi di Decisione (2) Corso di AA, anno 2018/19, Padova Fabio Aiolli 05 Novembre 2018 Fabio Aiolli Alberi di Decisione (2) 05 Novembre 2018 1 / 19 Apprendimento di alberi di decisione: Bias induttivo
DettagliTraining Set Test Set Find-S Dati Training Set Def: Errore Ideale Training Set Validation Set Test Set Dati
" #!! Suddivisione tipica ( 3 5 6 & ' ( ) * 3 5 6 = > ; < @ D Sistemi di Elaborazione dell Informazione Sistemi di Elaborazione dell Informazione Principali Paradigmi di Apprendimento Richiamo Consideriamo
DettagliTutorato 1 (20/12/2012) - Soluzioni
Tutorato 1 (20/12/2012) - Soluzioni Esercizio 1 (v.c. fantasia) Si trovi il valore del parametro θ per cui la tabella seguente definisce la funzione di probabilità di una v.c. unidimensionale X. X 0 1
DettagliComputazione per l interazione naturale: fondamenti probabilistici (2)
Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliIntroduzione al Machine Learning
InfoLife Introduzione al Machine Learning Laboratorio di Bioinformatica InfoLife Università di Foggia - Consorzio C.IN.I. Dott. Crescenzio Gallo crescenzio.gallo@unifg.it 1 Cos è il Machine Learning? Fa
DettagliProbabilità. Qual è la probabilità di ottenere il numero 5?
Lancio un dado Probabilità Qual è la probabilità di ottenere il numero 5? Ho una prova ossia un esperimento = lancio dado Ho il risultato di tale prova = faccia contrassegnata dal numero 5 Il risultato
DettagliProbabilità Condizionale - 1
Probabilità Condizionale - 1 Come varia la probabilità al variare della conoscenza, ovvero delle informazioni in possesso di chi la calcola? ESEMPIO - Calcolare la probabilità che in una estrazione della
DettagliLezione 6. Altri metodi di classificazione. Bayesian Learning
Lezione 6 Altri metodi di classificazione. Giuseppe Manco Readings: Sections 6.1-6.5, Mitchell Chapter 2, Bishop Chapter 4, Hand-Mannila-Smith Artificial Neural Networks (ANN) L output Y è 1 se almeno
DettagliNaive bayes. Course of Machine Learning Master Degree in Computer Science University of Rome Tor Vergata. Giorgio Gambosi. a.a.
Naive bayes Course of Machine Learning Master Degree in Computer Science University of Rome Tor Vergata Giorgio Gambosi a.a. 2018-2019 1 Features numerose In presenza di numerose features, definire un
DettagliUNIVERSITÀ di ROMA TOR VERGATA
UNIVERSITÀ di ROMA TOR VERGATA Corso di Laurea Magistrale in Scienze della Nutrizione Umana Corso di Statistica Medica, anno 05-6 P.Baldi Lista di esercizi, 8 gennaio 06. Esercizio Si sa che in una schedina
DettagliStatistica. Capitolo 4. Probabilità. Cap. 4-1
Statistica Capitolo 4 Probabilità Cap. 4-1 Obiettivi del Capitolo Dopo aver completato il capitolo, sarete in grado di: Spiegare concetti e definizioni fondamentali della probabilità Usare il diagramma
DettagliANNO ACCADEMICO 2015/2016 CORSO di LAUREA in BIOTECNOLOGIE MATEMATICA - II appello, 5/7/2016
ANNO ACCADEMICO 215/216 CORSO di LAUREA in BIOTECNOLOGIE MATEMATICA - II appello, 5/7/216 Esercizio 1. In una colonia di 5 gatti che segue la legge di Hardy-Weinberg ci sono 8 gatti con la coda corta.
DettagliStatistica a.a Autovalutazione 3
Statistica a.a. 2018-19 Autovalutazione 3 CORSI: Diritto per le Imprese e le Istituzioni Scienze Internazionali dello Sviluppo e della Cooperazione 1. Un esperimento consiste nell estrarre una carta da
DettagliRischio statistico e sua analisi
F94 Metodi statistici per l apprendimento Rischio statistico e sua analisi Docente: Nicolò Cesa-Bianchi versione 7 aprile 018 Per analizzare un algoritmo di apprendimento dobbiamo costruire un modello
DettagliCenni di apprendimento in Reti Bayesiane
Sistemi Intelligenti 216 Cenni di apprendimento in Reti Bayesiane Esistono diverse varianti di compiti di apprendimento La struttura della rete può essere nota o sconosciuta Esempi di apprendimento possono
DettagliAnalisi Strategica per la Politica Economica
9 Analisi Strategica per la Politica Economica Parte Nona Prof. Bruno Chiarini GIOCHI BAYESIANI Beliefs (credenze ; congetture) Informazione completa ma imperfetta Informazione incompleta Teorema di Bayes
DettagliEsercizio 2 Si consideri l esperimento avente come risultati possibili i numeri 1, 2, 3, 4, 5 di probabilità rispettivamente 0.2, 0.4, 0.1, 0.1, 0.2.
Esercizio 2 Si consideri l esperimento avente come risultati possibili i numeri 1, 2, 3, 4, 5 di probabilità rispettivamente 0.2, 0.4, 0.1, 0.1, 0.2. a) Determinare l insieme di tutti i possibili sottoinsiemi
DettagliEsame di Statistica (10 o 12 CFU) CLEF 11 febbraio 2016
Esame di Statistica 0 o CFU) CLEF febbraio 06 Esercizio Si considerino i seguenti dati, relativi a 00 clienti di una banca a cui è stato concesso un prestito, classificati per età e per esito dell operazione
DettagliANNO ACCADEMICO 2018/2019 CORSO di LAUREA in BIOTECNOLOGIE MATEMATICA Primo compitino 5/12/2018
ANNO ACCADEMICO 08/09 CORSO di LAUREA in BIOTECNOLOGIE MATEMATICA Primo compitino 5//08 Esercizio. In un turno di gioco, si lanciano una moneta equilibrata e un dado che dà nel 5% dei casi, mentre i punteggi
DettagliApprendimento Automatico Esercitazione 15/04/2009 Prof. Roberto Navigli
Apprendimento Automatico Esercitazione 15/04/2009 Prof. Roberto Navigli Esercizio 1 Si vuole apprendere un classificatore Naive Bayes per le interrogazioni di un motore di ricerca. Ogni interrogazione
DettagliElementi di Teoria della Probabilità
Elementi di Teoria della Probabilità Alcune definizioni iniziali: Fenomeno casuale: fenomeno ripetibile (almeno in teoria) infinite volte che può manifestarsi in diverse modalità, imprevedibili singolarmente,
DettagliIntroduzione al calcolo delle probabilità
Introduzione al calcolo delle probabilità L. Boni Approccio empirico OSSERVAZIONE IPOTESI TEORIA DOMINANTE ESPERIMENTO L esperimento Un esperimento (dal latino ex, da, e perire, tentare, passare attraverso
DettagliCenni di calcolo delle probabilità
Cenni di calcolo delle probabilità Prof.ssa G. Serio, Prof. P. Trerotoli, Cattedra di Statistica Medica, Università di Bari 1/19 Quando si compie un esperimento o una serie di prove i possibili risultati
Dettagli1. Descrivere gli spazi campionari dei seguenti esperimenti casuali: 1. lancio di un dado 2. lancio di due dadi 3.
Corso di Laurea INTERFACOLTÀ - Esercitazione di Statistica n 6 ESERCIZIO 1: 1. Descrivere gli spazi campionari dei seguenti esperimenti casuali: 1. lancio di un dado 2. lancio di due dadi 3. lancio di
DettagliProbabilità. 2) Vengono estratte 5 carte; quale è la probabilità che ci siano esattamente 2 denari? ª 0,278. k fattori. n - k +1 ) k!
Definizione classica = P A Probabilità numero esiti favorevoli numero esiti possibili Esempi 1) Da un mazzo di 40 carte (bastoni, coppe, denari, spade) ne viene estratta una; quale è la probabilità che
DettagliCalcolo delle probabilità e ragionamento bayesiano. Unit 5 Corso di Logica e Teoria dell Argomentazione
Calcolo delle probabilità e ragionamento bayesiano Unit 5 Corso di Logica e Teoria dell Argomentazione Sommario Nozioni probabilistiche Probabilità condizionata Ragionamento bayesiano Applicazioni a giochi
DettagliProbabilità: teoremi e distribuzioni
Probabilità: teoremi e distribuzioni OBIETTIVO DIDATTICO DELLA LEZIONE Illustrare le più importanti distribuzioni di probabilità che vengono utilizzate in statistica Distribuzioni di probabilità 1. La
DettagliΨ PSICOMETRIA. Corso di laurea triennale (classe 34) STATISTICA INFERENZIALE
Ψ PSICOMETRIA Corso di laurea triennale (classe 34) STATISTICA INFERENZIALE STATISTICA INFERENZIALE CAMPIONE caratteristiche conosciute POPOLAZIONE caratteristiche sconosciute STATISTICA INFERENZIALE STIMA
DettagliCenni di Teoria della Probabilità
Cenni di Teoria della Probabilità Marco Baroni 21 febbraio 2005 1 Le leggi fondamentali della probabilità 1. Dato un universo di eventi elementari, le probabilità sono dei valori numerici che assegniamo
DettagliStatistica e informatica
Statistica e informatica Probabilità condizionate Francesco Pauli e Nicola Torelli A.A. 2017/2018 Indice Probabilità condizionate Probabilità totali Teorema di Bayes Francesco Pauli e Nicola Torelli Probabilità
DettagliProbabilità. Maura Mezzetti Terema della probabilità totale. Il teorema delle probabilità totali afferma che
Probabilità Maura Mezzetti maura.mezzetti@uniroma2.it Terema della probabilità totale Il teorema delle probabilità totali afferma che Dato un evento B e una partizione A 1, A 2,,A n Possiamo scrivere la
DettagliDISTRIBUZIONI DI CAMPIONAMENTO
DISTRIBUZIONI DI CAMPIONAMENTO 12 DISTRIBUZIONE DI CAMPIONAMENTO DELLA MEDIA Situazione reale Della popolazione di tutti i laureati in odontoiatria negli ultimi 10 anni, in tutte le Università d Italia,
DettagliMatematica con elementi di Informatica
Probabilità discreta Matematica con elementi di Informatica Tiziano Vargiolu Dipartimento di Matematica vargiolu@math.unipd.it Corso di Laurea Magistrale in Chimica e Tecnologie Farmaceutiche Anno Accademico
DettagliEsercizi svolti su probabilità condizionata e teorema di Bayes
Esercizi svolti su probabilità condizionata e teorema di Bayes Esercizio 1 Si stima che il 30% degli adulti negli Stati Uniti siano obesi, che il 3% siano diabetici e che il 2% siano sia obesi che diabetici.
DettagliCorso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prima prova in itinere
Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (69AA) A.A. 016/17 - Prima prova in itinere 017-01-13 La durata della prova è di tre ore. Le risposte devono essere adeguatamente giustificate.
DettagliCorso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prova del
Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (69AA) A.A. 06/7 - Prova del 07-07-07 La durata della prova è di tre ore. Le risposte devono essere adeguatamente giustificate. Problema
DettagliCP210 Introduzione alla Probabilità: Esonero 2
Dipartimento di Matematica, Roma Tre Pietro Caputo 218-19, II semestre 4 giugno, 219 CP21 Introduzione alla Probabilità: Esonero 2 Cognome Nome Matricola Firma Nota: 1. L unica cosa che si può usare durante
DettagliP (F E) = P (E) P (F E) = = 25
Regola del prodotto Conoscete la definizione di probabilità condizionata. Definizione 1. Siano E e F due eventi di uno spazio campionario S. Supponiamo P (F ) > 0. La probabilità condizionata dell evento
DettagliI modelli probabilistici
e I modelli probabilistici Finora abbiamo visto che esistono modelli probabilistici che possiamo utilizzare per prevedere gli esiti di esperimenti aleatori. Naturalmente la previsione è di tipo probabilistico:
DettagliUNIVERSITÀ di ROMA TOR VERGATA
UNIVERSITÀ di ROMA TOR VERGATA Corso di Statistica, anno 00- P.Baldi Lista di esercizi. Corso di Laurea in Biotecnologie Esercizio Si sa che in una schedina del totocalcio i tre simboli, X, compaiono con
DettagliCalcolo della probabilità
Calcolo della probabilità GLI EVENTI Un evento è un fatto che può accadere o non accadere. Se esso avviene con certezza si dice evento certo, mentre se non può mai accadere si dice evento impossibile.
DettagliTecniche di riconoscimento statistico
On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 2 Teoria della decisione Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr
DettagliInversa. Inversa. Elisabetta Colombo
Corso di Approfondimenti di Matematica per Biotecnologie, Anno Accademico 00-0, http://users.mat.unimi.it/users/colombo/programmabio.html e 3 con i Matrici inverse di matrici quadrate e con i Sia A una
DettagliStatistica Inferenziale
Statistica Inferenziale Prof. Raffaella Folgieri Email: folgieri@mtcube.com aa 2009/2010 Riepilogo lezione 1 Abbiamo visto: Definizioni di statistica, statistica inferenziale, probabilità (interpretazione
DettagliUNIVERSITÀ di ROMA TOR VERGATA
UNIVERSITÀ di ROMA TOR VERGATA Corso di Statistica, anno 2010-11 P.Baldi Lista di esercizi 3. Corso di Laurea in Biotecnologie Esercizio 1 Una v.a. X segue una legge N(2, ). Calcolare a1) P(X 1) a2) P(2
DettagliComputazione per l interazione naturale: classificazione probabilistica
Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliCalcolo combinatorio
Calcolo combinatorio Fattoriale: n! = n( n 1)( n 2)...1 1 1 n n = 0 Fattoriale discendente: n( n 1)...( n k + 1) n! (n) k = = ( n k)! 1 1 k n k = 0 Coefficiente binomiale (k n) : n (n) = k n! = k k! k!(
DettagliLa probabilità. Monia Ranalli. Ranalli M. Probabilità Settimana # 5 1 / 20
La probabilità Monia Ranalli Ranalli M. Probabilità Settimana # 5 1 / 20 Sommario Concetti base Evento elementare, spazio campionario ed evento complementare Rappresentazioni dello spazio campionario Intersezione
DettagliIntroduzione alle Reti Bayesiane
Introduzione alle Reti Bayesiane Giovedì, 18 Novembre 2004 Francesco Folino Riferimenti: Chapter 6, Mitchell A Tutorial on Learning with Bayesian Networks, Heckerman Bayesian Network Perchè ci interessano?
DettagliStatistica 1 A.A. 2015/2016
Corso di Laurea in Economia e Finanza Statistica 1 A.A. 2015/2016 (8 CFU, corrispondenti a 48 ore di lezione frontale e 24 ore di esercitazione) Prof. Luigi Augugliaro 1 / 51 Introduzione Il Calcolo delle
DettagliAlberi di Regressione
lberi di Regressione Caso di studio di Metodi vanzati di Programmazione 2015-2016 Corso Data Mining Lo scopo del data mining è l estrazione (semi) automatica di conoscenza nascosta in voluminose basi di
DettagliErrori cognitivi, probabilità e decisioni mediche nella diagnostica di laboratorio. M. Besozzi - IRCCS Istituto Auxologico Italiano
Errori cognitivi, probabilità e decisioni mediche nella diagnostica di laboratorio M. Besozzi - IRCCS Istituto Auxologico Italiano L argomento... Errori cognitivi Il problema gnoseologico Dati, informazione
DettagliCP110 Probabilità: Esonero 1. Testo e soluzione
Dipartimento di Matematica, Roma Tre Pietro Caputo 2009-2010, II semestre 1 aprile, 2010 CP110 Probabilità: Esonero 1 Testo e soluzione 1. (7 pt Una scatola contiene 15 palle numerate da 1 a 15. Le palle
DettagliCalcolo delle Probabilità
Calcolo delle Probabilità Il calcolo delle probabilità studia i modelli matematici delle cosiddette situazioni di incertezza. Molte situazioni concrete sono caratterizzate a priori da incertezza su quello
DettagliSistemi Intelligenti 42. Apprendimento PAC
Sistemi Intelligenti 42 Apprendimento PAC Usando la disuguaglianza precedente ed altre considerazioni è possibile mostrare che alcune classi di concetti non sono PAC-apprendibili dato uno specifico algoritmo
DettagliComputazione per l interazione naturale: fondamenti probabilistici (2)
Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it
DettagliRagionamento Bayesiano Esercizi
Ragionamento Bayesiano Eserizi Classifiatore Naïve Bayes: rihiami (redits:. Velardi-uniroma1 Si applia quando le ipotesi in H sono rappresentabili mediante una ongiunzione di valori di attributi e la lassifiazione
DettagliSOLUZIONI DEL 2 0 TEST DI PREPARAZIONE ALLA 1 a PROVA INTERMEDIA
SOLUZIONI DEL 0 TEST DI PREPARAZIONE ALLA 1 a PROVA INTERMEDIA Esercizio 0.1 Una moneta non truccata viene lanciata 10 volte. Calcolare la probabilità che non esca mai testa. Quale risulta la probabilità
DettagliDISTRIBUZIONI DI PROBABILITA (parte 3) 1 / 34
DISTRIBUZIONI DI PROBABILITA (parte 3) 1 / 34 Distribuzione Binomiale 2 / 34 La più importante distribuzione di probabilità per variabili casuali discrete è la distribuzione binomiale. Questa distribuzione
DettagliErrori cognitivi, probabilità e decisioni mediche nella diagnostica di laboratorio. M. Besozzi - IRCCS Istituto Auxologico Italiano
Errori cognitivi, probabilità e decisioni mediche nella diagnostica di laboratorio M. Besozzi - IRCCS Istituto Auxologico Italiano L argomento... Errori cognitivi Il problema gnoseologico Dati, informazione
DettagliEsercitazione del 29 aprile 2014
Esercitazione del 9 aprile 014 Esercizio 10.13 pg. 94 Complemento: Calcolare la probabilità che un negozio apra tra le sette e venti e le nove e quaranta del mattino. Soluzione: Siccome non è nota la distribuzione
DettagliSoluzioni degli esercizi proposti
Soluzioni degli esercizi proposti.9 a La cardinalità dell insieme dei numeri,..., 0 n che sono multipli di 5 è 0n 5. Dunque, poiché siamo in una condizione di equiprobabilità, la probabilità richiesta
DettagliRiconoscimento e recupero dell informazione per bioinformatica
Riconoscimento e recupero dell informazione per bioinformatica Teoria della decisione di Bayes Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario
DettagliLa media campionaria. MEDIA CAMPIONARIA Date n v.a. X 1,..., X n indipendenti e identicamente distribuite (in breve i.i.d.), la v.a.
La media MEDIA CAMPIONARIA Date n v.a. X 1,..., X n indipendenti e identicamente distribuite (in breve i.i.d.), la v.a. X n = 1 n è detta media. n X i, i=1 In altre parole, se le X 1,...,X n sono il risultato
DettagliESERCIZIO 1 Lanciamo tre volte una moneta regolare e consideriamo equiprobabili i possibili
ESERCIZIO 1 Lanciamo tre volte una moneta regolare e consideriamo equiprobabili i possibili risultati. Dimostrare che per i 3 eventi A 1 = Almeno due teste A 2 = Un numero pari di teste A 3 = Croce al
Dettagli1. Quali sono i possibili campioni di numerosità 2 senza reimmissione? X 1 e X 2 sono indipendenti?
Esercizio 1 Consideriamo una popolazione X, dove X = {3,5,7}. 1. Quali sono i possibili campioni di numerosità 2 senza reimmissione? X 1 e X 2 sono indipendenti? 2. Quali sono i possibili campioni di numerosità
DettagliStima dei Parametri. Corso di Apprendimento Automatico Laurea Magistrale in Informatica Nicola Fanizzi
Laurea Magistrale in Informatica Nicola Fanizzi Dipartimento di Informatica Università degli Studi di Bari 20 gennaio 2009 Sommario Introduzione Stima dei parametri di massima verosimiglianza Stima dei
DettagliStima dell intervallo per un parametro
Stima dell intervallo per un parametro In aggiunta alla stima puntuale di un parametro dobbiamo dare l intervallo che rappresenta l incertezza statistica. Questo intervallo deve: comunicare in modo obbiettivo
DettagliProbabilità. . Probabilità condizionata. Esempi di probabilità condizionata
. Probabilità condizionata Probabilità Dati due eventi A ed BB, compatibili tra loro (cioè AA BB Ø), si dice probabilità condizionata di AArispetto a B la probabilità che AAsi verifichi dopo che BBsi è
DettagliComputazione per l interazione naturale: processi gaussiani
Computazione per l interazione naturale: processi gaussiani Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliAnalisi dell associazione tra due caratteri
Analisi dell associazione tra due caratteri Non ci accontentiamo di analizzare il singolo fenomeno, considerato indipendentemente da altri fenomeni Ci interessano le relazioni che possono esistere tra
DettagliComputazione per l interazione naturale: classificazione probabilistica
Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html
DettagliRiconoscimento e recupero dell informazione per bioinformatica
Riconoscimento e recupero dell informazione per bioinformatica Classificatori generativi Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario Approcci
DettagliESERCIZI HLAFO ALFIE MIMUN
ESERCIZI HLAFO ALFIE MIMUN December, 27. Testo degli esercizi Risolvere i seguenti problemi: () Siano X, X 2, X 3 variabili aleatorie i.i.d. bernulliane di media.5 e siano Y, Y 2, Y 3, Y 4 variabili aleatorie
DettagliEsame di Statistica del 19 settembre 2006 (Corso di Laurea Triennale in Biotecnologie, Università degli Studi di Padova).
Esame di Statistica del 19 settembre 2006 (Corso di Laurea Triennale in Biotecnologie, Università degli Studi di Padova). Cognome Nome Matricola Es. 1 Es. 2 Es. 3 Es. 4 Somma Voto finale Attenzione: si
DettagliSoluzione della prova scritta di di Algebra lineare del 10 giugno Esercizio 1
Soluzione della prova scritta di di Algebra lineare del 0 giugno 05 Esercizio (a) La matrice A che rappresenta f rispetto alle basi assegnate è la seguente: A = 0 0 0 (b) Applicando il metodo di Gauss
DettagliLezione 1. La Statistica Inferenziale
Lezione 1 La Statistica Inferenziale Filosofia della scienza Secondo Aristotele, vi sono due vie attraverso le quali riusciamo a formare le nostre conoscenze: (1) la deduzione (2) l induzione. Lezione
DettagliCasa dello Studente. Casa dello Studente
Esercitazione - 14 aprile 2016 ESERCIZIO 1 Di seguito si riporta il giudizio (punteggio da 0 a 5) espresso da un gruppo di studenti rispetto alle diverse residenze studentesche di un Ateneo: a) Si calcolino
DettagliPROBABILITA. DEFINIZIONE: Ogni singolo risultato di un esperimento casuale si chiama evento elementare
PROBABILITA La teoria della probabilità si applica ad esperimenti aleatori o casuali: ossia, esperimenti il cui risultato non è prevedibile a priori. Ad esempio, lancio di un dado, lancio di una moneta,
Dettagli