Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri
|
|
- Guido Spinelli
- 5 anni fa
- Visualizzazioni
Transcript
1 Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano Dove siamo arrivati // Modelli Teorie: Basi psicologiche e neurobiologiche delle emozioni Modelli: Modelli probabilistici per la computazione affettiva: Apprendimento Inferenza Applicazioni: Esempi di sistemi di computazione affettiva
2 Dove siamo arrivati // Modelli Modello: variabili aleatorie stato mentale (nascosto) generazione inferenza comportamento non verbale (visibile) Dove siamo arrivati // Modelli: approccio frequentistico Modello: variabili aleatorie + parametri stato mentale (nascosto) comportamento non verbale (visibile)
3 Dove siamo arrivati // Modelli: approccio Bayesiano Modello: variabili aleatorie + v. a. latenti (parametri) +iperparametri stato mentale (nascosto) Sono un Bayesiano! comportamento non verbale (visibile) Per un Bayesiano non c è apprendimento, ma sempre e solo inferenza... Il problema dell apprendimento per PGM Il problema, concretamente: struttura conosciuta, dati completi Modello Dati input Learning
4 Il problema dell apprendimento per PGM Il problema, concretamente: struttura incompleta, dati completi Modello Dati input Learning Il problema dell apprendimento per PGM Il problema, concretamente: struttura conosciuta, dati incompleti Modello Dati input Learning
5 Il problema dell apprendimento per PGM Il problema, concretamente: struttura incompleta, dati incompleti Modello Dati input Learning Il problema dell apprendimento per PGM Il problema, concretamente: struttura incompleta con variabili latenti, dati incompleti Modello Dati input Learning
6 Introduzione alla Statistica Bayesiana //metodologia generale Obiettivo: predire un dato x sulla base di n osservazioni S = {x1,..., xn} Tre step: Modello o ipotesi h Specifica del modello h con parametri di tuning generazione dei dati in S per la Inferenza (learning dei parametri) Predizione Statistica Bayesiana //stime puntuali Rinunciando ad un approccio completamente Bayesiano, si possono ottenere stime puntuali dei parametri (ovvero i parametri diventano numeri e non VA) Stima Maximum A Posteriori (MAP) Stima di massima verosimiglianza (Maximum Likelihood, ML)
7 Esempio: stima di massima verosimiglianza //caso Gaussiano Insieme di campioni x1,..., xn da distribuzione Gaussiana di parametri ignoti (identicamente distribuiti) Campioni estratti indipendentemente: L ipotesi i.i.d allora oppure usando la log-verosimiglianza Esempio: stima di massima verosimiglianza //caso Gaussiano Un vettore aleatorio forma quadratica di x per il singolo campione
8 Esempio: stima di massima verosimiglianza // Parametri della Gaussiana Se con covarianza e media da stimare per il singolo campione derivando il secondo termine rispetto a e ripetendo il procedimento di prima media empirica covarianza empirica Esempio: stima di massima verosimiglianza // lancio di moneta Lancio di moneta come Naive Bayes: 100 lanci di moneta... θ x1 x2 x3 x4 x5 x6 x7 x8 x8 x9 x10
9 Esempio: stima di massima verosimiglianza // lancio di moneta Lancio di moneta come Naive Bayes: 100 lanci di moneta... θ xn n = 1,...,100 θ se θ è dato (0.5): Esempio: stima di massima verosimiglianza // lancio di moneta Likelihood per N lanci indipendenti Stima ML = 0 Quindi se dopo N=3 lanci osservo S = {C, C, C} allora = 0 :-(
10 Esempio: stima di massima verosimiglianza // lancio di dadi Distribuzione multinoulli o categorica Likelihood per N lanci indipendenti Stima ML Esempio: stima Bayesiana // lancio di moneta Nel setting ML (frequentistico) in realtà con N piccolo ottengo conclusioni fuorvianti (la moneta è sicuramente truccata: darà sempre CCCCCCC...) Approccio Bayesiano: funzione di likelihood: distribuzione di Bernoulli
11 Esempio: stima Bayesiana // lancio di moneta Approccio Bayesiano: a posteriori: distribuzione Beta funzione di likelihood: distribuzione di Bernoulli a priori coniugata di Bernoulli: distribuzione Beta θ xn n = 1,...,100 Esempio: stima Bayesiana // lancio di moneta Approccio Bayesiano: a posteriori: distribuzione Beta funzione di likelihood: distribuzione di Bernoulli a priori coniugata di Bernoulli: distribuzione Beta a priori coniugata di Bernoulli: distribuzione Beta funzione di likelihood: distribuzione di Bernoulli a posteriori: distribuzione Beta
12 Il problema dell apprendimento per PGM Il problema, concretamente: struttura conosciuta, dati completi Modello Dati input Learning Il problema dell apprendimento per PGM //ML per BN: decomponibilità della likelihood Decomposizione della likelihood globale in generale Dati disponibili: m=1 M Nodi / clique del PGM: i =1 likelihood locale sul singolo nodo / clique Abbiamo una Likelihood locale per ogni CPD
13 BN tabellari Caso piu semplice: CPD tabellare E una likelihood multinomiale che conteggia le occorrenze di x Il problema dell apprendimento per PGM //ML per BN: decomponibilità della likelihood Training set likelihood locale likelihood locale
14 Il problema dell apprendimento per PGM //ML per BN: decomponibilità della likelihood distribuzione multinomiale stima di ML della multinomiale (semplicemente: si contano le occorrenze di x e y nei dati) Learning con parametri condivisi //DBN/HMM Training: coppie di (sequenze di stati, sequenze di osservazioni) Test: predizione di sequenze di stati da sequenze di osservazioni Prima bisogna effettuare il learning dei parametri che sono condivisi sia a livello di transizione di stato, sia a livello di emissione/osservazione Mettiamoci nel caso: fully observed (totalmente osservato: stati & emissioni)
15 Learning con parametri condivisi //DBN/HMM: stati osservati stati osservati decomponiamo su tutte le coppie di stati tutti gli istanti t in cui accade la transizione s_i -> s_j # transizioni # volte in cui occorre lo stato s_i Learning con parametri condivisi //DBN/HMM: stati & emissioni osservati Caso di HMM completamente osservato decomponiamo su tutte le coppie di stato / osservazione
16 Il problema dell apprendimento per PGM //Reti Bayesiane: sintesi BN con insiemi disgiunti di parametri: la verosimiglianza è il prodotto di likelihood locali alla CPD (una per variabile) CPD tabellari (CPT): la likelihood locale si decompone ulteriormente in un prodotto di likelihood multinomiali, una per ogni combinazione di genitori BN con CPD condivise (shared): le statistiche sufficienti (conteggi) si accumulano ogni volta che vengono utilizzate le CPD Il problema dell apprendimento per PGM //Reti Bayesiane: inferenza Bayesiana Le a posteriori sui parametri sono indipendenti se i dati X,Y sono completi (d-separazione) Come per MLE possiamo risolvere il problema della stima in modo indipendente
17 Il problema dell apprendimento per PGM //Reti Bayesiane: inferenza Bayesiana Le a posteriori sui parametri sono indipendenti se i dati X,Y sono completi (d-separazione) Come per MLE possiamo risolvere il problema della stima in modo indipendente vale anche fra parametri della stessa famiglia! Il problema dell apprendimento per PGM //Reti Bayesiane: inferenza Bayesiana Le a posteriori sui parametri sono indipendenti se i dati X,Y sono completi (d-separazione) Come per MLE possiamo risolvere il problema della stima in modo indipendente Se la famiglia è multinomiale a priori conteggio evento a posteriori
18 Il problema dell apprendimento per PGM //Reti Bayesiane: inferenza Bayesiana In BN se i parametri sono indipendenti a priori lo sono a posteriori Per BN con parametri multinomiali Stima di Maxlikelihood Stima Bayesiana Apprendimento in MN Nei Markov Network, a differenza delle BN non possiamo più effettuare l apprendimento in forma chiusa. la f di partizione è funzione dei parametri, non è costante! # dati # volte che l entry (a,b) è usata nel fattore qui siamo riusciti a separare i parametri x # occorrenze la Z accoppia i parametri: - la likelihood non si decompone - non c è soluzione in forma chiusa
19 Apprendimento in MN //Modelli log-lineari Per rendere più esplicite le tipologie delle strutture utilizzate è possibile riparametrizzare i fattori in termini di funzioni di energia La distribuzione di Gibbs (Boltzmann) diventa La probabilità di uno stato fisico del sistema è inversamente proporzionale all energia del sistema Apprendimento in MN //Modelli log-lineari Consideriamo in generale il set di features La congiunta è La log-likelihood La funzione di partizione è convessa forma log-sum-exp # esponenziale di valutazioni
20 Funzione di log-partizione Teorema: vettore matrice (Hessiana) Apprendimento in MN //Modelli log-lineari Che cosa ottengo dalla funzione di partizione è convessa è concava concava lineare concava unimodale
21 Apprendimento in MN //Modelli log-lineari: Metodo dei momenti Funzione di verosimiglianza Stima di massima verosimiglianza, con media empirica sui dati CALCOLO SULLA SINGOLA CLIQUE I parametri che massimizzano si ottengono per media empirica sui dati aspettazione teorica sul modello aspettazione teorica sul modello Tuttavia non c è soluzione in forma chiusa e devo usare tecniche di ottimizzazione (ascesa del gradiente, massima entropia ecc.) Apprendimento in MN //Modelli log-lineari Come calcolo il gradiente La funzione di log-likelihood è concava: ascesa del gradiente La funzione di log-likelihood negativa è convessa (ha un minimo): discesa del gradiente aspettazione teorica sul modello Oppure uso tecniche più sofisticate: richiede una inferenza ad ogni step n! L-BFGS (quasi-newton)
22 Apprendimento in MN //Modelli log-lineari Come calcolo il gradiente Uso tecniche più sofisticate: Il problema dell apprendimento per PGM //Markov Networks: sintesi A differenza delle BN la likelihood non si disaccoppia, perchè la funzione di partizione accoppia le variabili Non c è soluzione in forma chiusa: problema di ottimizzazione convessa Gradient ascent L-BFGS Altre tecniche Ad ogni step di ottimizzazione devo effettuare un inferenza per calcolare la P Siccome le features sono racchiuse solitamente in una clique, mi basta un passo di calibrazione se uso message passing
23 Il problema dell apprendimento per PGM //Markov Networks: il caso specifico CRF Introduciamo i parametri Il problema dell apprendimento per PGM //Markov Networks: il caso specifico CRF Supponiamo di usare features molto semplici definite sul superpixel s colore medio del super pixel Dati di input etichettati log - conditional likelihood
24 Il problema dell apprendimento per PGM //Markov Networks: il caso specifico CRF Supponiamo di usare features molto semplici definite sul superpixel s colore medio del super pixel Dati di input etichettati log - conditional likelihood Il problema dell apprendimento per PGM //Markov Networks: il caso specifico CRF misura feature expectation della feature presa su Y con x[m] fissato
25 Il problema dell apprendimento per PGM //Markov Networks: il caso specifico CRF misura feature expectation della feature presa su Y con x[m] fissato probabilità a posteriori Il problema dell apprendimento per PGM //Markov Networks: il caso specifico CRF MRF: 1 Inferenza ad ogni passo dell ottimizzazione (gradient ascent) CRF: 1 inferenza per ciascun x[m], m = 1,...,M ad ogni passo dell ottimizzazione (gradient ascent) Però qui faccio inferenza su P(Y x) (tabella più piccola) mentre su MRF faccio inferenza su P(Y, X)
26 Stima MAP per MRF e CRF Mettere un prior sui parametri per avere smoothing sulla soluzione Nei BN era abbastanza semplice (prior coniugate: Multi /Dirichlet) Qui facciamo delle stime MAP dei parametri Stima MAP per MRF e CRF Mettere un prior sui parametri per avere smoothing sulla soluzione Per esempio una Gaussiana a media zero su ogni parametro sigma è iperparametro Gaussiana su parametro i-esimo
27 Stima MAP per MRF e CRF Mettere un prior sui parametri per avere smoothing sulla soluzione Per esempio una Laplace su ogni parametro beta è iperparametro Laplace su parametro i- esimo Stima MAP per MRF e CRF parametri densi L1 parametri sparsi
28 Il problema dell apprendimento per PGM //Dati incompleti, variabili latenti Il problema, concretamente: struttura incompleta con variabili latenti, dati incompleti Modello Dati input Learning Variabili latenti / Dati incompleti Perchè usarle? otteniamo modelli sparsi 17 parametri 59 parametri
29 Variabili latenti / Dati incompleti Perchè usarle? trovare dei cluster nei dati Variabili latenti / Dati incompleti La likelihood è tipicamente multimodale
30 Correlazione dei parametri Se mi mancano dei dati, è come se osservassi meno, non blocco i cammini e quindi ho correlazione fra i parametri 0 dati mancanti su 8 2 dati mancanti su 8 3 dati mancanti su 8 Variabili latenti / Dati incompleti Caso incompleto (multimodale) Caso completo (unimodale)
31 Variabili latenti / Dati incompleti Per massimizzare posso ricorrere all ascesa del gradiente rispetto ai parametri Variabili latenti / Dati incompleti Per BN vale il seguente: Teorema: CPD evidenza del dato m dipendente dai genitori parametri correnti Dobbiamo calcolare per tutti gli i (variabili) e tutti gli m (esempi di input) Possiamo farlo con il clique tree. Però il metodo è generale e si applica anche a CPD non tabellari Alternativa: Expectation-Maximization
32 Variabili latenti / Dati incompleti Expectation: Per ciascun dato d[m] e ogni famiglia X,U calcola assegnazione soft Maximization statistiche sufficienti attese ESS Considera le ESS come conteggi reali e usa MLE pesato dall ESS Learning con parametri condivisi //DBN/HMM: stati nascosti & emissioni osservati Stati nascosti s_t = x_t: come se fosse una mistura sequenziale Si usa una variante di Expectation-Maximization Passo E: Fissati i parametri inferisco gli stati nascosti Passo M: Fissati gli stati, aggiorno i parametri di transizione e di osservazione Algoritmo di Baum-Welch (EM per HMM)
33 Apprendimento dei parametri //Algoritmo di Baum-Welch (EM per HMM) Date le sequenze di training Passo E: Fissati i parametri inferisco gli stati nascosti Passo M: Fissati gli stati, aggiorno i parametri di transizione e di osservazione
Computazione per l interazione naturale: Regressione probabilistica
Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html
DettagliComputazione per l interazione naturale: Regressione probabilistica
Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2018.html
DettagliComputazione per l interazione naturale: fondamenti probabilistici (2)
Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliComputazione per l interazione naturale: Modelli dinamici
Computazione per l interazione naturale: Modelli dinamici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliComputazione per l interazione naturale: Regressione lineare Bayesiana
Computazione per l interazione naturale: Bayesiana Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it
DettagliRegressione. Apprendimento supervisionato //Regressione. Corso di Sistemi di Elaborazione dell Informazione
Regressione SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità)
Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliCenni di apprendimento in Reti Bayesiane
Sistemi Intelligenti 216 Cenni di apprendimento in Reti Bayesiane Esistono diverse varianti di compiti di apprendimento La struttura della rete può essere nota o sconosciuta Esempi di apprendimento possono
DettagliModelli Probabilistici per la Computazione Affettiva: Reti di Markov
Modelli Probabilistici per la Computazione Affettiva: Reti di Markov Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: classificazione probabilistica
Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html
DettagliComputazione per l interazione naturale: clustering e riduzione di dimensionalità
Computazione per l interazione naturale: clustering e riduzione di dimensionalità Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: classificazione probabilistica
Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: fondamenti probabilistici
Computazione per l interazione naturale: fondamenti probabilistici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2017.html
DettagliRiduzione di dimensionalità
Riduzione di dimensionalità SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliModelli Grafici Probabilistici (1): concetti generali
Modelli Grafici Probabilistici (1): concetti generali Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it Giuseppe.Boccignone@unimi.it
DettagliComputazione per l interazione naturale: fondamenti probabilistici
Computazione per l interazione naturale: fondamenti probabilistici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html
DettagliModelli Probabilistici per la Computazione Affettiva: Reti Bayesiane
Modelli Probabilistici per la Computazione Affettiva: Reti Bayesiane Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: processi gaussiani
Computazione per l interazione naturale: processi gaussiani Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliComputazione per l interazione naturale: Regressione lineare
Computazione per l interazione naturale: Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it http://homes.dsi.unimi.it/~boccignone/l
DettagliInferenza esatta sui parametri (I e II)
Modelli di computazione affettiva e comportamentale Data: 19 e 21 Maggio 2010 Inferenza esatta sui parametri (I e II) Docente: Prof. Giuseppe Boccignone Scriba: Lorenzo Genta 1 Introduzione ai diversi
DettagliComputazione per l interazione naturale: fondamenti probabilistici (2)
Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it
DettagliApprendimento Automatico
Apprendimento Automatico Metodi Bayesiani - Naive Bayes Fabio Aiolli 13 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 13 Dicembre 2017 1 / 18 Classificatore Naive Bayes Una delle tecniche più semplici
DettagliComputazione per l interazione naturale: Modelli dinamici
Computazione per l interazione naturale: Modelli dinamici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2015.html
DettagliModelli Probabilistici per la Computazione Affettiva: Modelli a template e rappresentazioni complesse
Modelli Probabilistici per la Computazione Affettiva: Modelli a template e rappresentazioni complesse Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliComputazione per l interazione naturale: classificazione supervisionata
Computazione per l interazione naturale: classificazione supervisionata Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliComputazione per l interazione naturale: regressione logistica Bayesiana
Computazione per l interazione naturale: regressione logistica Bayesiana Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: fondamenti probabilistici (1)
Computazione per l interazione naturale: fondamenti probabilistici (1) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliPresentazione dell edizione italiana
1 Indice generale Presentazione dell edizione italiana Prefazione xi xiii Capitolo 1 Una introduzione alla statistica 1 1.1 Raccolta dei dati e statistica descrittiva... 1 1.2 Inferenza statistica e modelli
DettagliCorso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prova del
Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (69AA) A.A. 06/7 - Prova del 07-07-07 La durata della prova è di tre ore. Le risposte devono essere adeguatamente giustificate. Problema
DettagliComputazione per l interazione naturale: macchine che apprendono
Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliApprendimento Automatico
Apprendimento Automatico Metodi Bayesiani Fabio Aiolli 11 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 11 Dicembre 2017 1 / 19 Metodi Bayesiani I metodi Bayesiani forniscono tecniche computazionali
DettagliModelli Probabilistici per la Computazione Affettiva: Inferenza approssimata con Monte Carlo
Modelli Probabilistici per la Computazione Affettiva: Inferenza approssimata con Monte Carlo Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliTecniche di riconoscimento statistico
On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 2 Teoria della decisione Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr
DettagliStima dell intervallo per un parametro
Stima dell intervallo per un parametro In aggiunta alla stima puntuale di un parametro dobbiamo dare l intervallo che rappresenta l incertezza statistica. Questo intervallo deve: comunicare in modo obbiettivo
DettagliApprendimento Bayesiano
Apprendimento Automatico 232 Apprendimento Bayesiano [Capitolo 6, Mitchell] Teorema di Bayes Ipotesi MAP e ML algoritmi di apprendimento MAP Principio MDL (Minimum description length) Classificatore Ottimo
DettagliUniversità di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A
Università di Siena Teoria della Stima Lucidi del corso di A.A. 2002-2003 Università di Siena 1 Indice Approcci al problema della stima Stima parametrica Stima bayesiana Proprietà degli stimatori Stime
DettagliStima dei Parametri. Corso di Apprendimento Automatico Laurea Magistrale in Informatica Nicola Fanizzi
Laurea Magistrale in Informatica Nicola Fanizzi Dipartimento di Informatica Università degli Studi di Bari 20 gennaio 2009 Sommario Introduzione Stima dei parametri di massima verosimiglianza Stima dei
DettagliUniversità di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti
Università di Siena Corso di STATISTICA Parte seconda: Teoria della stima Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Master E 2 C Centro per lo Studio dei Sistemi Complessi Università di
DettagliNaive bayes. Course of Machine Learning Master Degree in Computer Science University of Rome Tor Vergata. Giorgio Gambosi. a.a.
Naive bayes Course of Machine Learning Master Degree in Computer Science University of Rome Tor Vergata Giorgio Gambosi a.a. 2018-2019 1 Features numerose In presenza di numerose features, definire un
DettagliApproccio statistico alla classificazione
Approccio statistico alla classificazione Approccio parametrico e non parametrico Finestra di Parzen Classificatori K-NN 1-NN Limitazioni dell approccio bayesiano Con l approccio bayesiano, sarebbe possibile
DettagliLa Decisione Statistica Campione aleatorio: risultato dell osservazione di un fenomeno soggetto a fluttuazioni casuali.
La Decisione Statistica Campione aleatorio: risultato dell osservazione di un fenomeno soggetto a fluttuazioni casuali. Analisi del campione: - descrizione sintetica (statistica descrittiva) - deduzione
DettagliCampionamento. Una grandezza fisica e' distribuita secondo una certa PDF
Campionamento Una grandezza fisica e' distribuita secondo una certa PDF La pdf e' caratterizzata da determinati parametri Non abbiamo una conoscenza diretta della pdf Possiamo determinare una distribuzione
DettagliUniversità degli Studi Roma Tre Anno Accademico 2017/2018 ST410 Statistica 1
Università degli Studi Roma Tre Anno Accademico 2017/2018 ST410 Statistica 1 Lezione 1 - Mercoledì 27 Settembre 2017 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,
DettagliComputazione per l interazione naturale: macchine che apprendono
Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliGaussian processes (GP)
Gaussian processes (GP) Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it Giuseppe.Boccignone@unimi.it http://boccignone.di.unimi.it/compaff017.html
DettagliComputazione per l interazione naturale: macchine che apprendono
Comput per l inter naturale: macchine che apprendono Corso di Inter uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it http://boccignone.di.unimi.it/ium2_2014.html
DettagliStatistica Metodologica Avanzato Test 1: Concetti base di inferenza
Test 1: Concetti base di inferenza 1. Se uno stimatore T n è non distorto per il parametro θ, allora A T n è anche consistente B lim Var[T n] = 0 n C E[T n ] = θ, per ogni θ 2. Se T n è uno stimatore con
DettagliLezione 1. 1 Probabilità e statistica. 2 Definizioni di probabilità. Statistica e analisi dei dati Data: 22 Febbraio 2016
Statistica e analisi dei dati Data: 22 Febbraio 2016 Lezione 1 Docente: Prof. Giuseppe Boccignone Scriba: Nicolò Pisaroni 1 Probabilità e statistica Probabilità: Un modello probabilistico é una descrizione
DettagliIdentificazione dei Modelli e Analisi dei Dati 6/5/1993
Identificazione dei Modelli e Analisi dei Dati 6/5/1993 3. Siano date due V.C. X e Y, di cui è supposta nota la ddp congiunta. Sia Xˆ (Y) uno stimatore di X basato sull'osservazione di Y. Ci si prefigge
DettagliCALCOLO DELLE PROBABILITÀ I. a.a. 2016/2017. Informatica. Leggere attentamente le seguenti note
CALCOLO DELLE PROBABILITÀ I. a.a. 2016/2017. Informatica Leggere attentamente le seguenti note Modalità d esame. L esame consta di uno scritto con esercizi (bisogna prenotarsi su infostud). Chi passa questo
DettagliStatistica ARGOMENTI. Calcolo combinatorio
Statistica ARGOMENTI Calcolo combinatorio Probabilità Disposizioni semplici Disposizioni con ripetizione Permutazioni semplici Permutazioni con ripetizioni Combinazioni semplici Assiomi di probabilità
DettagliLa likelihood. , x 2. } sia prodotto a partire dal particolare valore di a: ; a... f x N. La probabilità che l'i ma misura sia compresa tra x i
La likelihood E' dato un set di misure {x 1, x 2, x 3,...x N } (ciascuna delle quali puo' essere multidimensionale) Supponiamo che la pdf (f) dipenda da un parametro a (anch'esso eventualmente multidimensionale)
DettagliMachine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione
Corso di Bioinformatica Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di machine learning I metodi
DettagliCognome Nome Matricola. Es. 1 Es. 2 Es. 3 Es. 4 Somma Voto finale
Esame di Calcolo delle Probabilità mod. B del 9 settembre 2003 (Corso di Laurea in Matematica, Università degli Studi di Padova). Cognome Nome Matricola Es. 1 Es. 2 Es. 3 Es. 4 Somma Voto finale Attenzione:
DettagliIndice. Presentazione
Indice Presentazione v 1 Il problema statistico 1 1.1 Esperienze e regole 1 1.2 Un esempio introduttivo 3 1.3 Esperienze ed errori 4 1.4 Errori e fluttuazioni 6 1.5 Quando non ci sono regole 7 1.6 Conclusione
DettagliIL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA
Metodi per l Analisi dei Dati Sperimentali AA009/010 IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Sommario Massima Verosimiglianza Introduzione La Massima Verosimiglianza Esempio 1: una sola misura sperimentale
DettagliSommario. 2 I grafici Il sistema di coordinate cartesiane Gli istogrammi I diagrammi a torta...51
Sommario 1 I dati...15 1.1 Classificazione delle rilevazioni...17 1.1.1 Esperimenti ripetibili (controllabili)...17 1.1.2 Rilevazioni su fenomeni non ripetibili...18 1.1.3 Censimenti...19 1.1.4 Campioni...19
DettagliElementi di Probabilità e Statistica - 052AA - A.A
Elementi di Probabilità e Statistica - 05AA - A.A. 014-015 Prima prova di verifica intermedia - 9 aprile 015 Problema 1. Dati due eventi A, B, su uno spazio probabilizzato (Ω, F, P), diciamo che A è in
DettagliP ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea)
10.4 Convergenze 166 10.4.3. Convergenza in Probabilità. Definizione 10.2. Data una successione X 1, X 2,...,,... di vettori aleatori e un vettore aleatorio X aventi tutti la stessa dimensione k diremo
DettagliCorso di probabilità e statistica
Università degli Studi di Verona Facoltà di Scienze MM.FF.NN. Corso di Laurea in Informatica Corso di probabilità e statistica (Prof. L.Morato) Esercizi Parte III: variabili aleatorie dipendenti e indipendenti,
DettagliMatematica e Statistica per Scienze Ambientali
per Scienze Ambientali LABORATORIO R - Appunti 1 1 Dipartimento di Matematica Sapienza, Università di Roma Roma, Gennaio 2014 Argomenti La distribuzione normale e applicazioni La distribuzione binomiale
DettagliMatematica e Statistica per Scienze Ambientali
per Scienze Ambientali Variabili aleatorie - Appunti 1 1 Dipartimento di Matematica Sapienza, Università di Roma Roma, Gennaio 2013 Variabili aleatorie Un numero aleatorio è un esempio di variabile aleatoria.
Dettagli1 PROCESSI STOCASTICI... 11
1 PROCESSI STOCASTICI... 11 Introduzione... 11 Rappresentazione dei dati biomedici... 11 Aleatorietà delle misure temporali... 14 Medie definite sul processo aleatorio... 16 Valore atteso... 16 Esercitazione
DettagliKernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò
Kernel Methods Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 14/05/2018 Kernel Methods Definizione di Kernel Costruzione di Kernel Support Vector Machines Problema primale e duale
DettagliEsercizi di riepilogo Lezioni
Esercizi di riepilogo Lezioni 9-10-11 Es1: Aspettazioni iterate Siano X, Y, e Z v.a. discrete. Dimostrare le seguenti generalizzazioni della legge delle aspettazioni iterate a) b) c) Es2: Bacchetta Abbiamo
DettagliTecniche di riconoscimento statistico
On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 2 Teoria della decisione Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr
Dettaglicostruzione di un modello a partire dai dati Quale modello potrebbe essere utilizzato per riprodurre dei dati simili a questi?
Inferenza statistica costruzione di un modello a partire dai dati segnale analogico in microvolt: 222 190 193 201 187 203 214 199 187 194 218 218 215 190 203 192 197 224 194 207 188 205 191 221 170 231
DettagliUniversità degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1
Università degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1 Lezione 1 - Martedì 23 Settembre 2014 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,
DettagliIndice. centrale, dispersione e forma Introduzione alla Statistica Statistica descrittiva per variabili quantitative: tendenza
XIII Presentazione del volume XV L Editore ringrazia 3 1. Introduzione alla Statistica 5 1.1 Definizione di Statistica 6 1.2 I Rami della Statistica Statistica Descrittiva, 6 Statistica Inferenziale, 6
DettagliEsercizi di riepilogo
Esercizi di riepilogo Es1: Scommesse al casinò Tizio e Caio si alternano al tavolo di un casinò. Tizio gioca negli istanti di tempo dispari, mentre Caio in quelli pari Ad ogni istante di tempo, il guadagno
DettagliCP110 Probabilità: Esonero 2. Testo e soluzione
Dipartimento di Matematica, Roma Tre Pietro Caputo 2011-12, II semestre 29 maggio, 2012 CP110 Probabilità: Esonero 2 Testo e soluzione 1. (8 punti) La freccia lanciata da un arco è distribuita uniformemente
DettagliRiconoscimento e recupero dell informazione per bioinformatica
Riconoscimento e recupero dell informazione per bioinformatica Teoria della decisione di Bayes Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario
DettagliTutorato di Complementi di Analisi Matematica e Statistica 30 maggio 2016
Tutorato di Complementi di Analisi Matematica e Statistica 30 maggio 2016 Esercizi possibili di probabilità e statistica Notazioni: U(a, b) è la distribuzione di probabilità uniforma nell intervallo (a,
DettagliStatistica 2 parte ARGOMENTI
Statistica 2 parte ARGOMENTI Vettori gaussiani Matrice di covarianza e sua positività Marginali di un vettore normale Trasformazioni affini di vettori normali Indipendenza delle componenti scorrelate di
DettagliRischio statistico e sua analisi
F94 Metodi statistici per l apprendimento Rischio statistico e sua analisi Docente: Nicolò Cesa-Bianchi versione 7 aprile 018 Per analizzare un algoritmo di apprendimento dobbiamo costruire un modello
DettagliUniversità degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1
Università degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1 Lezione 1 - Mercoledì 28 Settembre 2016 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,
DettagliI modelli probabilistici
e I modelli probabilistici Finora abbiamo visto che esistono modelli probabilistici che possiamo utilizzare per prevedere gli esiti di esperimenti aleatori. Naturalmente la previsione è di tipo probabilistico:
DettagliRegressione Lineare e Regressione Logistica
Regressione Lineare e Regressione Logistica Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: stefano.gualandi@unipv.it @famo2spaghi http://stegua.github.com 1 Introduzione
DettagliCorso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prova del
Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 206/7 - Prova del 207-09-08 La durata della prova è di tre ore. Le risposte devono essere adeguatamente giustificate.
DettagliNote introduttive alla probabilitá e alla statistica
Note introduttive alla probabilitá e alla statistica 1 marzo 2017 Presentiamo sinteticamente alcuni concetti introduttivi alla probabilitá e statistica 1 Probabilità e statistica Probabilità: Un modello
DettagliStatistica Inferenziale
Statistica Inferenziale Prof. Raffaella Folgieri Email: folgieri@mtcube.com aa 2009/2010 Riepilogo lezione 5 Abbiamo visto: Modelli probabilistici nel continuo Distribuzione uniforme continua Distribuzione
DettagliCorso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2017/18 - Prova scritta
Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (69AA) A.A. 7/8 - Prova scritta 8-7-3 La durata della prova è di tre ore. Le risposte devono essere adeguatamente giustificate. Problema
DettagliModelli Grafici Probabilistici (2): concetti generali
Modelli Grafici Probabilistici (2): concetti generali Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it Giuseppe.Boccignone@unimi.it
DettagliEsercizi di riepilogo Lezioni
Esercizi di riepilogo Lezioni 16-17-18 1 Es1: Statistiche del secondo ordine [Pap, 9-2] Si ha un processo X con Determinare media, varianza, e covarianza delle v.a. Z=X(5) e W=X(8) Il processo X è stazionario?
DettagliTeoria delle Decisioni Bayesiana
Laurea Magistrale in Informatica Nicola Fanizzi Dipartimento di Informatica Università degli Studi di Bari 14 gennaio 2009 Sommario Introduzione Teoria delle decisioni Bayesiana - nel continuo Classificazione
DettagliClassificatori Bayesiani. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna
lassificatori Bayesiani rof. Matteo Golfarelli lma Mater Studiorum - Università di Bologna lassificatori Bayesiani Rappresentano un approccio probabilistico per risolvere problemi di classificazione In
DettagliStatistica e analisi dei dati Data: 14 Marzo Lezione 7. Figura 1: Spazio campionario relativo al problema della diagnosi
Statistica e analisi dei dati Data: 4 Marzo 06 Lezione 7 Docente: Prof. Giuseppe Boccignone Scriba: Noemi Tentori Teorema o regola di Byes Esempio. Diagnosi medica Figura : Spazio campionario relativo
DettagliDispensa di Statistica
Dispensa di Statistica 1 parziale 2012/2013 Diagrammi... 2 Indici di posizione... 4 Media... 4 Moda... 5 Mediana... 5 Indici di dispersione... 7 Varianza... 7 Scarto Quadratico Medio (SQM)... 7 La disuguaglianza
DettagliCalcolo delle Probabilità e Statistica. Test di verifica - 05/04/2005
Corso di Laurea in Informatica - a.a. 2004/05 Calcolo delle Probabilità e Statistica Test di verifica - 05/04/2005 Il candidato risolva due (e solo due) problemi tra i seguenti, motivando le proprie risposte.
DettagliRegressione Lineare. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò
Regressione Lineare Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 23/04/2018 Regressione Lineare Supervised Learning Supervised Learning: recap È il sottocampo del ML più vasto
DettagliLezione 11 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 207 208 Lezione Ugo Vaccaro Abbiamo visto finora che in vari problemi collegati alla codifica di emissioni di una sorgente di informazione la entropia H(P )
DettagliPROBABILITÀ ELEMENTARE
Prefazione alla seconda edizione XI Capitolo 1 PROBABILITÀ ELEMENTARE 1 Esperimenti casuali 1 Spazi dei campioni 1 Eventi 2 Il concetto di probabilità 3 Gli assiomi della probabilità 3 Alcuni importanti
DettagliScritto del
Dip. di Ingegneria, Univ. Roma Tre Prof. E. Scoppola, Dott.M. Quattropani Probabilità e Statistica, 17-18, I semestre Settembre 18 Scritto del - 9-18 Cognome Nome Matricola Esercizio 1. Un urna contiene
Dettagli5. Analisi dei dati di input
Anno accademico 2007/08 Analisi e scelta dei dati di input Per l esecuzione di una simulazione è necessario disporre di dati di input che siano una adeguata rappresentazione di ciò che accadrà in realtà
DettagliCorsi di Probabilità ecc., per Ing. dell Automazione, Informatica e Inf.Gest.Azienda, 17/9/2011. B 0 0 a=3 b=3 0 0 b=3 a=3 0 A : 0 b=3 0 0 a=3
Corsi di Probabilità ecc., per Ing. dell Automazione, Informatica e Inf.Gest.Azienda, 7/9/ mjx j Esercizio. Si consideri la funzione f (x) = C jx j e i) Stabilire per quali valori di m e di C è una densità
DettagliPOPOLAZIONE E CAMPIONI
p. 1/2 POPOLAZIONE E CAMPIONI POPOLAZIONE insieme di tutti quegli elementi che hanno almeno una caratteristica comune (persone, oggetti,misure, osservazioni). Consideriamo il caso di caratteristiche associate
Dettagli