Computazione per l interazione naturale: processi gaussiani

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Computazione per l interazione naturale: processi gaussiani"

Transcript

1 Computazione per l interazione naturale: processi gaussiani Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it Apprendimento supervisionato // (GP)

2 //idee di base Supponiamo di avere 6 punti rumorosi: vogliamo predire a x*=0.2 //idee di base Supponiamo di avere 6 punti rumorosi: vogliamo predire a x*=0.2 Non assumiamo un modello parametrico, esempio: Lasciamo che i dati parlino da soli Assumiamo che i dati siano stati generati da una distribuzione Gaussiana n- variata

3 //idee di base Assumiamo che i dati siano stati generati da una distribuzione Gaussiana n- variata: y correlato a y media 0 funzione di covarianza k(x,x ) Caratteristiche di k(x,x ) massima per x vicino a x se x lontano da x x vicino a x esempio: //idee di base Assumiamo che i dati siano stati generati da una distribuzione Gaussiana n- variata con rumore gaussiano additivo il punto è la media di y* e f* Incorporiamo il rumore nel kernel Vogliamo predire y* e non la reale funzione f* media uguale covarianza diversa

4 //idee di base Calcoliamo le covarianze fra tutte le possibili combinazioni di punti. otteniamo tre matrici il punto è la media di y* e f* //idee di base Regressione con GP Assumiamo che i dati siano stati generati da una distribuzione Gaussiana n- variata con rumore gaussiano additivo il punto è la media di y* e f* Vogliamo predire Usando le proprietà delle Gaussiane Predizione Incertezza

5 //idee di base Regressione con GP per il punto y*, con Nell esempio, stimando dalle error bar, e con una scelta appropriata di e il punto è la media di y* e f* Predizione Incertezza //idee di base Regressione con GP per 1000 punti Nell esempio, stimando dalle error bar, e con una scelta appropriata di e

6 //idee di base Regressione con GP per 1000 punti Nell esempio, stimando dalle error bar, e con una scelta appropriata di e //idee di base Possiamo incorporare la fisica del processo nella funzione di kernel

7 //idee di base Possiamo incorporare la fisica del processo nella funzione di kernel //idee di base Possiamo incorporare la fisica del processo nella funzione di kernel

8 Esempio Definizione della funzione di kernel k(x,z) % definizione del kernel e della bandwidth tau = 1.0; k exp(-(x-z)'*(x-z) / (2*tau^2)); Creazione di un data set % crea un training set corrotto da rumore m_train = 10; i_train = floor(rand(m_train,1) * size(x,1) + 1); X_train = X(i_train); y_train = h(i_train) + sigma * randn(m_train,1); funzione vera (latente) Esempio Predizione: X_test = X; function [K] = compute_kernel_matrix(k, X, Z) end m = size(x,1); n = size(z,1); K = zeros(m,n); for i = 1:m for j = 1:n K(i,j) = k(x(i,:)', Z(j,:)'); end end K_test_test = compute_kernel_matrix(k,x_test,x_test); K_test_train = compute_kernel_matrix(k,x_test,x_train); K_train_train = compute_kernel_matrix(k,x_train,x_train); G = K_train_train + sigma^2 * eye(size(x_train,1)); mu_test = K_test_train * (G \ y_train); Sigma_test = K_test_test + sigma^2 * eye(size(x_test,1)) - K_test_train * (G \ (K_test_train'));

9 //idee di base Fantastico! Ma... che cosa abbiamo fatto realmente e come si collega all approccio Bayesiano? come si effettua una scelta appropriata dei parametri?? Riprendiamo la regressione lineare L a p r o b a b i l i t à Gaussiana a priori sui pesi equivale a un a priori Gaussiano sulle funzioni y Congiunta Normale Design Matrix //fondamenti concettuali A priori Gaussiano sulle funzioni y Mi bastano media e varianza per specificarla Si può dimostrare che Media nulla basta la varianza per specificarla Matrice di Gram Mi bastano i dati per specificare la varianza

10 //fondamenti concettuali P r o b a b i l i t à G a u s s i a n a (congiunta) sui punti della funzione Probabilità Gaussiana a priori sulla funzione f è una variabile aleatoria I parametri w sono spariti! //fondamenti concettuali function [y] = sample_gp_prior(k, X) end K = compute_kernel_matrix(k, X, X); % campiona da una distribuzione Gaussiana a media nulla % con matrice di covarianza K [U,S,V] = svd(k); A = U*sqrt(S)*V'; y = A * randn(size(x,1),1);

11 //fondamenti concettuali Processo Gaussiano f è una variabile aleatoria I parametri w sono spariti! //fondamenti concettuali Processo Gaussiano f è una variabile aleatoria I parametri w sono spariti!

12 //fondamenti concettuali Processo Gaussiano //fondamenti concettuali Processo Gaussiano Usando Kernel diversi...

13 //fondamenti concettuali //definizione formale Un processo Gaussiano definisce una distribuzione su funzioni p(f) dove può essere considerato un vettore a dimensionalità infinita (un processo stocastico) Definizione: p(f) è un processo Gaussiano se per ogni sottoinsieme finito la distribuzione sul sottoinsieme finito (vettore n- dimensionale) è una Gaussiana multivariata

14 Distribuzione Gaussiana vs. Processo Gaussiano //Modello grafico p a r a m e t r i del kernel n=1,...,n

15 //Regressione Il modello assumendo rumore Gaussiano La distribuzione congiunta su e //Regressione Predizione rispetto a un nuovo dato : La congiunta su Partiziono la matrice di covarianza come

16 //Regressione Sfruttando le proprietà delle congiunte di Gaussiane espresse in forma matriciale si ottiene che la predizione è specificabile come //Regressione: esempio

17 //Regressione: esempio //Regressione: esempio

18 //Regressione: esempio //Regressione: esempio

19 //Regressione: esempio //Regressione: esempio

20 //Regressione: esempio //Parametri del kernel La funzione di kernel, dunque la covarianza, ci dice quanto due punti sono correlati

21 //Parametri del kernel La matrice di covarianza deve essere semidefinita e positiva In generale la funzione di covarianza ha dei parametri da apprendere varianza del segnale //Parametri del kernel La matrice di covarianza deve essere semidefinita e positiva In generale la funzione di covarianza ha dei parametri da apprendere lunghezza di scala o di correlazione

22 //Parametri del kernel La matrice di covarianza deve essere semidefinita e positiva In generale la funzione di covarianza ha dei parametri da apprendere approccio ML: si massimizza approccio MAP: si massimizza approccio totalmente Bayesiano: non trattabile, approssimazioni //Parametri del kernel

23 //Parametri del kernel //Parametri del kernel

24 //Parametri del kernel //Parametri del kernel

25 //Parametri del kernel //Parametri del kernel

26 //Parametri del kernel //Classificazione Come nei casi di classificazione già discussi, usiamo una funzione di attivazione non lineare (e.g., sigmoide)

27 //Classificazione Come nei casi di classificazione già discussi, usiamo una funzione di attivazione non lineare (e.g., sigmoide) Per due classi la probabilità del target è Bernoulliana //Classificazione Training set: Obiettivo: trovare la distribuzione predittiva Introduciamo un GP prior sul vettore = [ ] La matrice di covarianza non ha termini di rumore perchè i dati di training sono correttamente classificati Introduciamo solo una perturbazione per assicurarci che è semidefinita positiva

28 //Classificazione Distribuzione predittiva se è approssimabile come Gaussiana possiamo calcolare //Classificazione Distribuzione predittiva usando Bayes

29 //Classificazione Distribuzione predittiva usando Bayes //Classificazione Distribuzione predittiva usando Bayes

30 //Classificazione Distribuzione predittiva usando Bayes //Classificazione Approssimazione di Laplace: sviluppiamo in serie Taylor al second ordine, usando la forma logaritmica Alla moda (max) il gradiente si annulla per an si trova iterativamente (IRLS, )

31 //Classificazione Distribuzione predittiva usando Bayes //Classificazione Distribuzione predittiva

32 //Classificazione In generale la funzione di covarianza ha dei parametri da apprendere //Classificazione In generale la funzione di covarianza ha dei parametri da apprendere Massimizziamo la funzione di likelihood Approx di Laplace

33 //Classificazione Massimizzando il gradiente rispetto ai parametri della likelihood //Classificazione

34 //In conclusione... I GP sono modelli non parametrici Un GP è una collezione di v.a. che hanno distribuzione congiunta Gaussiana Un GP è completamente specificato da una funzione media e una funzione di covarianza Il problema dell apprendimento in un GP è quello di imparare i parametri della funzione di covarianza

Gaussian processes (GP)

Gaussian processes (GP) Gaussian processes (GP) Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it Giuseppe.Boccignone@unimi.it http://boccignone.di.unimi.it/compaff017.html

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2018.html

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html

Dettagli

Computazione per l interazione naturale: Regressione lineare

Computazione per l interazione naturale: Regressione lineare Computazione per l interazione naturale: Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it http://homes.dsi.unimi.it/~boccignone/l

Dettagli

Regressione. Apprendimento supervisionato //Regressione. Corso di Sistemi di Elaborazione dell Informazione

Regressione. Apprendimento supervisionato //Regressione. Corso di Sistemi di Elaborazione dell Informazione Regressione SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Computazione per l interazione naturale: classificazione probabilistica

Computazione per l interazione naturale: classificazione probabilistica Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Computazione per l interazione naturale: regressione logistica Bayesiana

Computazione per l interazione naturale: regressione logistica Bayesiana Computazione per l interazione naturale: regressione logistica Bayesiana Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità)

Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici (1)

Computazione per l interazione naturale: fondamenti probabilistici (1) Computazione per l interazione naturale: fondamenti probabilistici (1) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Computazione per l interazione naturale: Modelli dinamici

Computazione per l interazione naturale: Modelli dinamici Computazione per l interazione naturale: Modelli dinamici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Computazione per l interazione naturale: classificazione probabilistica

Computazione per l interazione naturale: classificazione probabilistica Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html

Dettagli

Computazione per l interazione naturale: classificazione supervisionata

Computazione per l interazione naturale: classificazione supervisionata Computazione per l interazione naturale: classificazione supervisionata Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò

Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò Kernel Methods Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 14/05/2018 Kernel Methods Definizione di Kernel Costruzione di Kernel Support Vector Machines Problema primale e duale

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici (2)

Computazione per l interazione naturale: fondamenti probabilistici (2) Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Computazione per l interazione naturale: clustering e riduzione di dimensionalità

Computazione per l interazione naturale: clustering e riduzione di dimensionalità Computazione per l interazione naturale: clustering e riduzione di dimensionalità Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici (2)

Computazione per l interazione naturale: fondamenti probabilistici (2) Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Metodi Bayesiani Fabio Aiolli 11 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 11 Dicembre 2017 1 / 19 Metodi Bayesiani I metodi Bayesiani forniscono tecniche computazionali

Dettagli

Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri

Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano

Dettagli

Riduzione di dimensionalità

Riduzione di dimensionalità Riduzione di dimensionalità SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Campionamento. Una grandezza fisica e' distribuita secondo una certa PDF

Campionamento. Una grandezza fisica e' distribuita secondo una certa PDF Campionamento Una grandezza fisica e' distribuita secondo una certa PDF La pdf e' caratterizzata da determinati parametri Non abbiamo una conoscenza diretta della pdf Possiamo determinare una distribuzione

Dettagli

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici

Computazione per l interazione naturale: fondamenti probabilistici Computazione per l interazione naturale: fondamenti probabilistici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2017.html

Dettagli

Regressione Lineare. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò

Regressione Lineare. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò Regressione Lineare Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 23/04/2018 Regressione Lineare Supervised Learning Supervised Learning: recap È il sottocampo del ML più vasto

Dettagli

Algoritmi di classificazione supervisionati

Algoritmi di classificazione supervisionati Corso di Bioinformatica Algoritmi di classificazione supervisionati Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di apprendimento supervisionato per problemi di biologia computazionale

Dettagli

Presentazione dell edizione italiana

Presentazione dell edizione italiana 1 Indice generale Presentazione dell edizione italiana Prefazione xi xiii Capitolo 1 Una introduzione alla statistica 1 1.1 Raccolta dei dati e statistica descrittiva... 1 1.2 Inferenza statistica e modelli

Dettagli

Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione

Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione Corso di Bioinformatica Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di machine learning I metodi

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Analisi multivariata per osservazioni appaiate. Analisi multivariata per osservazioni appaiate

Analisi multivariata per osservazioni appaiate. Analisi multivariata per osservazioni appaiate Introduzione Notazione Modello additivo Verifica d ipotesi Sia X una variabile q-dimensionale, a valori reali, non degenere, osservata in k tempi diversi (τ 1, τ 2,..., τ k ), sulle stesse n unità statistiche

Dettagli

Statistica 2 parte ARGOMENTI

Statistica 2 parte ARGOMENTI Statistica 2 parte ARGOMENTI Vettori gaussiani Matrice di covarianza e sua positività Marginali di un vettore normale Trasformazioni affini di vettori normali Indipendenza delle componenti scorrelate di

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Metodi Bayesiani - Naive Bayes Fabio Aiolli 13 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 13 Dicembre 2017 1 / 18 Classificatore Naive Bayes Una delle tecniche più semplici

Dettagli

Statistica ARGOMENTI. Calcolo combinatorio

Statistica ARGOMENTI. Calcolo combinatorio Statistica ARGOMENTI Calcolo combinatorio Probabilità Disposizioni semplici Disposizioni con ripetizione Permutazioni semplici Permutazioni con ripetizioni Combinazioni semplici Assiomi di probabilità

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici

Computazione per l interazione naturale: fondamenti probabilistici Computazione per l interazione naturale: fondamenti probabilistici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html

Dettagli

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza

Dettagli

Statistica multivariata 27/09/2016. D.Rodi, 2016

Statistica multivariata 27/09/2016. D.Rodi, 2016 Statistica multivariata 27/09/2016 Metodi Statistici Statistica Descrittiva Studio di uno o più fenomeni osservati sull INTERA popolazione di interesse (rilevazione esaustiva) Descrizione delle caratteristiche

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Teoria della decisione di Bayes Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario

Dettagli

METODI DI CLASSIFICAZIONE. Federico Marini

METODI DI CLASSIFICAZIONE. Federico Marini METODI DI CLASSIFICAZIONE Federico Marini Introduzione Nella parte introduttiva dell analisi multivariata abbiamo descritto la possibilità di riconoscere l origine di alcuni campioni come uno dei campi

Dettagli

Approccio statistico alla classificazione

Approccio statistico alla classificazione Approccio statistico alla classificazione Approccio parametrico e non parametrico Finestra di Parzen Classificatori K-NN 1-NN Limitazioni dell approccio bayesiano Con l approccio bayesiano, sarebbe possibile

Dettagli

Cenni di apprendimento in Reti Bayesiane

Cenni di apprendimento in Reti Bayesiane Sistemi Intelligenti 216 Cenni di apprendimento in Reti Bayesiane Esistono diverse varianti di compiti di apprendimento La struttura della rete può essere nota o sconosciuta Esempi di apprendimento possono

Dettagli

9.3 Il metodo dei minimi quadrati in formalismo matriciale

9.3 Il metodo dei minimi quadrati in formalismo matriciale 8 CAPIOLO 9. IMA DEI PARAMERI MEODO DEI MINIMI QADRAI 9.3 Il metodo dei minimi quadrati in formalismo matriciale Nel caso si debba applicare il metodo minimi quadrati con molti parametri risulta vantaggioso

Dettagli

Rischio statistico e sua analisi

Rischio statistico e sua analisi F94 Metodi statistici per l apprendimento Rischio statistico e sua analisi Docente: Nicolò Cesa-Bianchi versione 7 aprile 018 Per analizzare un algoritmo di apprendimento dobbiamo costruire un modello

Dettagli

Minimi quadrati e massima verosimiglianza

Minimi quadrati e massima verosimiglianza Minimi quadrati e massima verosimiglianza 1 Introduzione Nella scorsa lezione abbiamo assunto che la forma delle probilità sottostanti al problema fosse nota e abbiamo usato gli esempi per stimare i parametri

Dettagli

La likelihood. , x 2. } sia prodotto a partire dal particolare valore di a: ; a... f x N. La probabilità che l'i ma misura sia compresa tra x i

La likelihood. , x 2. } sia prodotto a partire dal particolare valore di a: ; a... f x N. La probabilità che l'i ma misura sia compresa tra x i La likelihood E' dato un set di misure {x 1, x 2, x 3,...x N } (ciascuna delle quali puo' essere multidimensionale) Supponiamo che la pdf (f) dipenda da un parametro a (anch'esso eventualmente multidimensionale)

Dettagli

Analisi Discriminante Strumenti quantitativi per la gestione

Analisi Discriminante Strumenti quantitativi per la gestione Analisi Discriminante Strumenti quantitativi per la gestione Emanuele Taufer Un esempio introduttivo Approccio con Bayes Perchè un altro metodo di classificazione? Classificazione con Bayes Analisi discriminante

Dettagli

Statistica. Capitolo 10. Verifica di Ipotesi su una Singola Popolazione. Cap. 10-1

Statistica. Capitolo 10. Verifica di Ipotesi su una Singola Popolazione. Cap. 10-1 Statistica Capitolo 1 Verifica di Ipotesi su una Singola Popolazione Cap. 1-1 Obiettivi del Capitolo Dopo aver completato il capitolo, sarete in grado di: Formulare ipotesi nulla ed ipotesi alternativa

Dettagli

Stima dell intervallo per un parametro

Stima dell intervallo per un parametro Stima dell intervallo per un parametro In aggiunta alla stima puntuale di un parametro dobbiamo dare l intervallo che rappresenta l incertezza statistica. Questo intervallo deve: comunicare in modo obbiettivo

Dettagli

La Decisione Statistica Campione aleatorio: risultato dell osservazione di un fenomeno soggetto a fluttuazioni casuali.

La Decisione Statistica Campione aleatorio: risultato dell osservazione di un fenomeno soggetto a fluttuazioni casuali. La Decisione Statistica Campione aleatorio: risultato dell osservazione di un fenomeno soggetto a fluttuazioni casuali. Analisi del campione: - descrizione sintetica (statistica descrittiva) - deduzione

Dettagli

Naïve Bayesian Classification

Naïve Bayesian Classification Naïve Bayesian Classification Di Alessandro rezzani Sommario Naïve Bayesian Classification (o classificazione Bayesiana)... 1 L algoritmo... 2 Naive Bayes in R... 5 Esempio 1... 5 Esempio 2... 5 L algoritmo

Dettagli

1 Alcuni risultati sulle variabili Gaussiane multivariate

1 Alcuni risultati sulle variabili Gaussiane multivariate Il modello lineare-gaussiano e il filtro di Kalman Prof. P.Dai Pra 1 Alcuni risultati sulle variabili Gaussiane multivariate In questo paragrafo verranno enunciate e dimostrate alcune proprietà del valor

Dettagli

Modelli Probabilistici per la Computazione Affettiva: Inferenza approssimata con Monte Carlo

Modelli Probabilistici per la Computazione Affettiva: Inferenza approssimata con Monte Carlo Modelli Probabilistici per la Computazione Affettiva: Inferenza approssimata con Monte Carlo Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A Università di Siena Teoria della Stima Lucidi del corso di A.A. 2002-2003 Università di Siena 1 Indice Approcci al problema della stima Stima parametrica Stima bayesiana Proprietà degli stimatori Stime

Dettagli

Probabilità e Statistica

Probabilità e Statistica Diario delle lezioni e del tutorato di Probabilità e Statistica a.a. 2014/2015 www.mat.uniroma2.it/~caramell/did 1415/ps.htm 02/03/2015 - Lezioni 1, 2 Breve introduzione al corso. Fenomeni deterministici

Dettagli

Sistemi di Elaborazione dell Informazione 170. Caso Non Separabile

Sistemi di Elaborazione dell Informazione 170. Caso Non Separabile Sistemi di Elaborazione dell Informazione 170 Caso Non Separabile La soluzione vista in precedenza per esempi non-linearmente separabili non garantisce usualmente buone prestazioni perchè un iperpiano

Dettagli

Test statistici. Per ogni processo che stiamo considerando avremo una ipotesi per la pdf di e.g.

Test statistici. Per ogni processo che stiamo considerando avremo una ipotesi per la pdf di e.g. Test statistici Supponiamo che il risultato delle misure su un certo evento sia un insieme di valori x 1 = numero muoni, x 2 = p t medio dei jet, x 3 = energia mancante,... è distribuito secondo una pdf

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Classificatori generativi Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario Approcci

Dettagli

Esercizi di statistica

Esercizi di statistica Esercizi di statistica Test a scelta multipla (la risposta corretta è la prima) [1] Il seguente campione è stato estratto da una popolazione distribuita normalmente: -.4, 5.5,, -.5, 1.1, 7.4, -1.8, -..

Dettagli

LEZIONI IN LABORATORIO Corso di MARKETING L. Baldi Università degli Studi di Milano. Strumenti statistici in Excell

LEZIONI IN LABORATORIO Corso di MARKETING L. Baldi Università degli Studi di Milano. Strumenti statistici in Excell LEZIONI IN LABORATORIO Corso di MARKETING L. Baldi Università degli Studi di Milano Strumenti statistici in Excell Pacchetto Analisi di dati Strumenti di analisi: Analisi varianza: ad un fattore Analisi

Dettagli

Classificatori Bayesiani. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna

Classificatori Bayesiani. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna lassificatori Bayesiani rof. Matteo Golfarelli lma Mater Studiorum - Università di Bologna lassificatori Bayesiani Rappresentano un approccio probabilistico per risolvere problemi di classificazione In

Dettagli

Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2017/18 - Prova scritta

Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2017/18 - Prova scritta Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA A.A. 2017/18 - Prova scritta 2018-09-12 La durata della prova è di tre ore. Le risposte devono essere adeguatamente giustificate.

Dettagli

Statistica Applicata all edilizia: il modello di regressione

Statistica Applicata all edilizia: il modello di regressione Statistica Applicata all edilizia: il modello di regressione E-mail: orietta.nicolis@unibg.it 27 aprile 2009 Indice Il modello di Regressione Lineare 1 Il modello di Regressione Lineare Analisi di regressione

Dettagli

Brevi richiami su variabili aleatorie e processi stocastici

Brevi richiami su variabili aleatorie e processi stocastici Appendice Parte 9, 1 Brevi richiami su variabili aleatorie e processi stocastici Richiami di teoria della probabilita` Appendice Parte 9, 2 Esperimento casuale: analisi degli elementi caratteristici dei

Dettagli

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Metodi per l Analisi dei Dati Sperimentali AA009/010 IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Sommario Massima Verosimiglianza Introduzione La Massima Verosimiglianza Esempio 1: una sola misura sperimentale

Dettagli

Metodi supervisionati di classificazione

Metodi supervisionati di classificazione Metodi supervisionati di classificazione Giorgio Valentini e-mail: valentini@dsi.unimi.it DSI - Dipartimento di Scienze dell'informazione Classificazione bio-molecolare di tessuti e geni Diagnosi a livello

Dettagli

Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning)

Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Rappresentazione dei dati con i kernel Abbiamo una serie di oggetti S

Dettagli

Università di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti

Università di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Università di Siena Corso di STATISTICA Parte seconda: Teoria della stima Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Master E 2 C Centro per lo Studio dei Sistemi Complessi Università di

Dettagli

Trasformazione di Problemi Non Lineari

Trasformazione di Problemi Non Lineari Capitolo 2 Trasformazione di Problemi Non Lineari 2.1 Trasformazione in problema di PL In questa sezione, verranno presentati tre classi di problemi di programmazione non lineare che, attraverso l uso

Dettagli

Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prima prova in itinere

Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prima prova in itinere Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (69AA) A.A. 016/17 - Prima prova in itinere 017-01-13 La durata della prova è di tre ore. Le risposte devono essere adeguatamente giustificate.

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Classificazione Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sistema di classificazione

Dettagli

Apprendimento Bayesiano

Apprendimento Bayesiano Apprendimento Automatico 232 Apprendimento Bayesiano [Capitolo 6, Mitchell] Teorema di Bayes Ipotesi MAP e ML algoritmi di apprendimento MAP Principio MDL (Minimum description length) Classificatore Ottimo

Dettagli

Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof. Fabio Perroni. 5. Rango

Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof. Fabio Perroni. 5. Rango Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof Fabio Perroni 5 Rango Definizione 1 Sia A M m,n (K) una matrice m n a coefficienti nel campo K Il rango

Dettagli

Tipi di variabili. Indici di tendenza centrale e di dispersione

Tipi di variabili. Indici di tendenza centrale e di dispersione Tipi di variabili. Indici di tendenza centrale e di dispersione L. Boni Variabile casuale In teoria della probabilità, una variabile casuale (o variabile aleatoria o variabile stocastica o random variable)

Dettagli

Indice. Presentazione

Indice. Presentazione Indice Presentazione v 1 Il problema statistico 1 1.1 Esperienze e regole 1 1.2 Un esempio introduttivo 3 1.3 Esperienze ed errori 4 1.4 Errori e fluttuazioni 6 1.5 Quando non ci sono regole 7 1.6 Conclusione

Dettagli

STATISTICA MULTIVARIATA SSD MAT/06

STATISTICA MULTIVARIATA SSD MAT/06 Università degli studi di Ferrara Dipartimento di Matematica A.A. 2018/2019 I semestre STATISTICA MULTIVARIATA SSD MAT/06 LEZION 13 Analisi della interdipendenza e della dipendenza : overview Docente:

Dettagli

1 Serie temporali. 1.1 Processi MA

1 Serie temporali. 1.1 Processi MA 1 Serie temporali Un processo stocastico 1 {X t, t T }, dove T = N o T = Z, si dice stazionario se (X 1,..., X n ) e (X k+1,...,x k+n ) hanno la stessa distribuzione per ogni n 1 e per ogni k T. Un processo

Dettagli

Introduzione generale. Cenni storici. 1 Problema di de Mèrè e soluzione. martedì 27 febbraio 2007

Introduzione generale. Cenni storici. 1 Problema di de Mèrè e soluzione. martedì 27 febbraio 2007 Corso di Calcolo delle probabilità - SIGAD -A.A. 2007/2008 Registro provvisorio delle Lezioni tenute da: Giuseppe Sanfilippo Settimana Giorno Lezione Lez N. Argomento Effettuata =SI Introduzione generale.

Dettagli

ANNO ACCADEMICO Statistica per l Analisi dei Dati

ANNO ACCADEMICO Statistica per l Analisi dei Dati FACOLTÀ Economia ANNO ACCADEMICO 2011-2012 CORSO DI LAUREA Statistica per l Analisi dei Dati INSEGNAMENTO Calcolo delle Probabilità TIPO DI ATTIVITÀ Formativa di base AMBITO DISCIPLINARE Statistico-probabilistico

Dettagli

VIII Indice 2.6 Esperimenti Dicotomici Ripetuti: Binomiale ed Ipergeometrica Processi Stocastici: Bernoul

VIII Indice 2.6 Esperimenti Dicotomici Ripetuti: Binomiale ed Ipergeometrica Processi Stocastici: Bernoul 1 Introduzione alla Teoria della Probabilità... 1 1.1 Introduzione........................................ 1 1.2 Spazio dei Campioni ed Eventi Aleatori................ 2 1.3 Misura di Probabilità... 5

Dettagli

Elementi di Probabilità e Statistica - 052AA - A.A

Elementi di Probabilità e Statistica - 052AA - A.A Elementi di Probabilità e Statistica - 05AA - A.A. 014-015 Prima prova di verifica intermedia - 9 aprile 015 Problema 1. Dati due eventi A, B, su uno spazio probabilizzato (Ω, F, P), diciamo che A è in

Dettagli

Esercizi su leggi Gaussiane

Esercizi su leggi Gaussiane Esercizi su leggi Gaussiane. Siano X e Y v.a. indipendenti e con distribuzione normale standard. Trovare le densità di X, X +Y e X, X. Mostrare che queste due variabili aleatorie bidimensionali hanno le

Dettagli

1 L analisi discriminante lineare

1 L analisi discriminante lineare 1 L analisi discriminante lineare L analisi discriminante lineare presuppone che p variabili (quantitative) Y 1,... Y p siano state misurate su osservazioni appartenenti a 2 o più gruppi: G 1,...,G k,

Dettagli

Corso di STATISTICA EGA - Classe 1 aa Docenti: Luca Frigau, Claudio Conversano

Corso di STATISTICA EGA - Classe 1 aa Docenti: Luca Frigau, Claudio Conversano Corso di STATISTICA EGA - Classe 1 aa 2017-2018 Docenti: Luca Frigau, Claudio Conversano Il corso è organizzato in 36 incontri, per un totale di 72 ore di lezione. Sono previste 18 ore di esercitazione

Dettagli

Probablità, Statistica e Processi Stocastici

Probablità, Statistica e Processi Stocastici Probablità, Statistica e Processi Stocastici Franco Flandoli, Università di Pisa Matrice di covarianza Dato un vettore aleatorio (anche non gaussiano) X = (X 1,..., X n ), chiamiamo sua media il vettore

Dettagli

COGNOME.NOME...MATR..

COGNOME.NOME...MATR.. STATISTICA 29.01.15 - PROVA GENERALE (CHALLENGE) Modalità A (A) ai fini della valutazione verranno considerate solo le risposte riportate dallo studente negli appositi riquadri bianchi: in caso di necessità

Dettagli

Esercitazione del

Esercitazione del Esercizi sulla regressione lineare. Esercitazione del 21.05.2013 Esercizio dal tema d esame del 13.06.2011. Si consideri il seguente campione di n = 9 osservazioni relative ai caratteri ed Y: 7 17 8 36

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Comput per l inter naturale: macchine che apprendono Corso di Inter uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it http://boccignone.di.unimi.it/ium2_2014.html

Dettagli

Università degli Studi di Roma Tor Vergata

Università degli Studi di Roma Tor Vergata Funzioni kernel Note dal corso di Machine Learning Corso di Laurea Specialistica in Informatica a.a. 2010-2011 Prof. Giorgio Gambosi Università degli Studi di Roma Tor Vergata 2 Queste note derivano da

Dettagli

Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2017/2018. Giovanni Lafratta

Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2017/2018. Giovanni Lafratta Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2017/2018 Giovanni Lafratta ii Indice 1 Spazi, Disegni e Strategie Campionarie 1 2 Campionamento casuale

Dettagli

Classificazione Bayesiana

Classificazione Bayesiana Classificazione Bayesiana Selezionare, dato un certo pattern x, la classe ci che ha, a posteriori, la massima probabilità rispetto al pattern: P(C=c i x)>p(c=c j x) j i Teorema di Bayes (TDB): P(A B) =

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico On AIR s.r.l. Tecniche di riconoscimento statistico Teoria e applicazioni industriali Parte 3 Costruzione di un classificatore Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr

Dettagli

Bayes, PDF, CDF. Renato Mainetti

Bayes, PDF, CDF. Renato Mainetti Bayes, PDF, CDF Renato Mainetti Importiamo i dati di un esperimento Censimento volatili isola di Nim: 100 volatili vivono su quest isola 30 piccioni marroni (classe 1) 20 piccioni bianchi (classe 2) 10

Dettagli

APPUNTI DI STATISTICA INFERENZIALE. Avalle Fulvia, maggio 2014, ITSOS MARIE CURIE CLASSI 4A BIO e 4B BIO

APPUNTI DI STATISTICA INFERENZIALE. Avalle Fulvia, maggio 2014, ITSOS MARIE CURIE CLASSI 4A BIO e 4B BIO APPUNTI DI STATISTICA INFERENZIALE Avalle Fulvia, maggio 2014, ITSOS MARIE CURIE CLASSI 4A BIO e 4B BIO PREREQUISITI VARIABILE ALEATORIA (QUANTITATIVA): è una funzione che associa un numero reale ad ogni

Dettagli

Argomenti della lezione:

Argomenti della lezione: Lezione 7 Argomenti della lezione: La regressione semplice Il modello teorico Il calcolo dei parametri Regressione lineare Esamina la relazione lineare tra una o più variabili esplicative (o indipendenti,

Dettagli

Online Gradient Descent

Online Gradient Descent F94 Metodi statistici per l apprendimento Online Gradient Descent Docente: Nicolò Cesa-Bianchi versione 30 aprile 08 L analisi del Perceptrone ha rivelato come sia possibile ottenere dei maggioranti sul

Dettagli