Computazione per l interazione naturale: processi gaussiani
|
|
- Sibilla Bevilacqua
- 5 anni fa
- Visualizzazioni
Transcript
1 Computazione per l interazione naturale: processi gaussiani Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it Apprendimento supervisionato // (GP)
2 //idee di base Supponiamo di avere 6 punti rumorosi: vogliamo predire a x*=0.2 //idee di base Supponiamo di avere 6 punti rumorosi: vogliamo predire a x*=0.2 Non assumiamo un modello parametrico, esempio: Lasciamo che i dati parlino da soli Assumiamo che i dati siano stati generati da una distribuzione Gaussiana n- variata
3 //idee di base Assumiamo che i dati siano stati generati da una distribuzione Gaussiana n- variata: y correlato a y media 0 funzione di covarianza k(x,x ) Caratteristiche di k(x,x ) massima per x vicino a x se x lontano da x x vicino a x esempio: //idee di base Assumiamo che i dati siano stati generati da una distribuzione Gaussiana n- variata con rumore gaussiano additivo il punto è la media di y* e f* Incorporiamo il rumore nel kernel Vogliamo predire y* e non la reale funzione f* media uguale covarianza diversa
4 //idee di base Calcoliamo le covarianze fra tutte le possibili combinazioni di punti. otteniamo tre matrici il punto è la media di y* e f* //idee di base Regressione con GP Assumiamo che i dati siano stati generati da una distribuzione Gaussiana n- variata con rumore gaussiano additivo il punto è la media di y* e f* Vogliamo predire Usando le proprietà delle Gaussiane Predizione Incertezza
5 //idee di base Regressione con GP per il punto y*, con Nell esempio, stimando dalle error bar, e con una scelta appropriata di e il punto è la media di y* e f* Predizione Incertezza //idee di base Regressione con GP per 1000 punti Nell esempio, stimando dalle error bar, e con una scelta appropriata di e
6 //idee di base Regressione con GP per 1000 punti Nell esempio, stimando dalle error bar, e con una scelta appropriata di e //idee di base Possiamo incorporare la fisica del processo nella funzione di kernel
7 //idee di base Possiamo incorporare la fisica del processo nella funzione di kernel //idee di base Possiamo incorporare la fisica del processo nella funzione di kernel
8 Esempio Definizione della funzione di kernel k(x,z) % definizione del kernel e della bandwidth tau = 1.0; k exp(-(x-z)'*(x-z) / (2*tau^2)); Creazione di un data set % crea un training set corrotto da rumore m_train = 10; i_train = floor(rand(m_train,1) * size(x,1) + 1); X_train = X(i_train); y_train = h(i_train) + sigma * randn(m_train,1); funzione vera (latente) Esempio Predizione: X_test = X; function [K] = compute_kernel_matrix(k, X, Z) end m = size(x,1); n = size(z,1); K = zeros(m,n); for i = 1:m for j = 1:n K(i,j) = k(x(i,:)', Z(j,:)'); end end K_test_test = compute_kernel_matrix(k,x_test,x_test); K_test_train = compute_kernel_matrix(k,x_test,x_train); K_train_train = compute_kernel_matrix(k,x_train,x_train); G = K_train_train + sigma^2 * eye(size(x_train,1)); mu_test = K_test_train * (G \ y_train); Sigma_test = K_test_test + sigma^2 * eye(size(x_test,1)) - K_test_train * (G \ (K_test_train'));
9 //idee di base Fantastico! Ma... che cosa abbiamo fatto realmente e come si collega all approccio Bayesiano? come si effettua una scelta appropriata dei parametri?? Riprendiamo la regressione lineare L a p r o b a b i l i t à Gaussiana a priori sui pesi equivale a un a priori Gaussiano sulle funzioni y Congiunta Normale Design Matrix //fondamenti concettuali A priori Gaussiano sulle funzioni y Mi bastano media e varianza per specificarla Si può dimostrare che Media nulla basta la varianza per specificarla Matrice di Gram Mi bastano i dati per specificare la varianza
10 //fondamenti concettuali P r o b a b i l i t à G a u s s i a n a (congiunta) sui punti della funzione Probabilità Gaussiana a priori sulla funzione f è una variabile aleatoria I parametri w sono spariti! //fondamenti concettuali function [y] = sample_gp_prior(k, X) end K = compute_kernel_matrix(k, X, X); % campiona da una distribuzione Gaussiana a media nulla % con matrice di covarianza K [U,S,V] = svd(k); A = U*sqrt(S)*V'; y = A * randn(size(x,1),1);
11 //fondamenti concettuali Processo Gaussiano f è una variabile aleatoria I parametri w sono spariti! //fondamenti concettuali Processo Gaussiano f è una variabile aleatoria I parametri w sono spariti!
12 //fondamenti concettuali Processo Gaussiano //fondamenti concettuali Processo Gaussiano Usando Kernel diversi...
13 //fondamenti concettuali //definizione formale Un processo Gaussiano definisce una distribuzione su funzioni p(f) dove può essere considerato un vettore a dimensionalità infinita (un processo stocastico) Definizione: p(f) è un processo Gaussiano se per ogni sottoinsieme finito la distribuzione sul sottoinsieme finito (vettore n- dimensionale) è una Gaussiana multivariata
14 Distribuzione Gaussiana vs. Processo Gaussiano //Modello grafico p a r a m e t r i del kernel n=1,...,n
15 //Regressione Il modello assumendo rumore Gaussiano La distribuzione congiunta su e //Regressione Predizione rispetto a un nuovo dato : La congiunta su Partiziono la matrice di covarianza come
16 //Regressione Sfruttando le proprietà delle congiunte di Gaussiane espresse in forma matriciale si ottiene che la predizione è specificabile come //Regressione: esempio
17 //Regressione: esempio //Regressione: esempio
18 //Regressione: esempio //Regressione: esempio
19 //Regressione: esempio //Regressione: esempio
20 //Regressione: esempio //Parametri del kernel La funzione di kernel, dunque la covarianza, ci dice quanto due punti sono correlati
21 //Parametri del kernel La matrice di covarianza deve essere semidefinita e positiva In generale la funzione di covarianza ha dei parametri da apprendere varianza del segnale //Parametri del kernel La matrice di covarianza deve essere semidefinita e positiva In generale la funzione di covarianza ha dei parametri da apprendere lunghezza di scala o di correlazione
22 //Parametri del kernel La matrice di covarianza deve essere semidefinita e positiva In generale la funzione di covarianza ha dei parametri da apprendere approccio ML: si massimizza approccio MAP: si massimizza approccio totalmente Bayesiano: non trattabile, approssimazioni //Parametri del kernel
23 //Parametri del kernel //Parametri del kernel
24 //Parametri del kernel //Parametri del kernel
25 //Parametri del kernel //Parametri del kernel
26 //Parametri del kernel //Classificazione Come nei casi di classificazione già discussi, usiamo una funzione di attivazione non lineare (e.g., sigmoide)
27 //Classificazione Come nei casi di classificazione già discussi, usiamo una funzione di attivazione non lineare (e.g., sigmoide) Per due classi la probabilità del target è Bernoulliana //Classificazione Training set: Obiettivo: trovare la distribuzione predittiva Introduciamo un GP prior sul vettore = [ ] La matrice di covarianza non ha termini di rumore perchè i dati di training sono correttamente classificati Introduciamo solo una perturbazione per assicurarci che è semidefinita positiva
28 //Classificazione Distribuzione predittiva se è approssimabile come Gaussiana possiamo calcolare //Classificazione Distribuzione predittiva usando Bayes
29 //Classificazione Distribuzione predittiva usando Bayes //Classificazione Distribuzione predittiva usando Bayes
30 //Classificazione Distribuzione predittiva usando Bayes //Classificazione Approssimazione di Laplace: sviluppiamo in serie Taylor al second ordine, usando la forma logaritmica Alla moda (max) il gradiente si annulla per an si trova iterativamente (IRLS, )
31 //Classificazione Distribuzione predittiva usando Bayes //Classificazione Distribuzione predittiva
32 //Classificazione In generale la funzione di covarianza ha dei parametri da apprendere //Classificazione In generale la funzione di covarianza ha dei parametri da apprendere Massimizziamo la funzione di likelihood Approx di Laplace
33 //Classificazione Massimizzando il gradiente rispetto ai parametri della likelihood //Classificazione
34 //In conclusione... I GP sono modelli non parametrici Un GP è una collezione di v.a. che hanno distribuzione congiunta Gaussiana Un GP è completamente specificato da una funzione media e una funzione di covarianza Il problema dell apprendimento in un GP è quello di imparare i parametri della funzione di covarianza
Gaussian processes (GP)
Gaussian processes (GP) Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it Giuseppe.Boccignone@unimi.it http://boccignone.di.unimi.it/compaff017.html
DettagliComputazione per l interazione naturale: Regressione probabilistica
Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2018.html
DettagliComputazione per l interazione naturale: Regressione probabilistica
Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html
DettagliComputazione per l interazione naturale: Regressione lineare
Computazione per l interazione naturale: Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it http://homes.dsi.unimi.it/~boccignone/l
DettagliRegressione. Apprendimento supervisionato //Regressione. Corso di Sistemi di Elaborazione dell Informazione
Regressione SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: classificazione probabilistica
Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: regressione logistica Bayesiana
Computazione per l interazione naturale: regressione logistica Bayesiana Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità)
Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliComputazione per l interazione naturale: fondamenti probabilistici (1)
Computazione per l interazione naturale: fondamenti probabilistici (1) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliComputazione per l interazione naturale: Modelli dinamici
Computazione per l interazione naturale: Modelli dinamici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliComputazione per l interazione naturale: classificazione probabilistica
Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html
DettagliComputazione per l interazione naturale: classificazione supervisionata
Computazione per l interazione naturale: classificazione supervisionata Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliKernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò
Kernel Methods Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 14/05/2018 Kernel Methods Definizione di Kernel Costruzione di Kernel Support Vector Machines Problema primale e duale
DettagliComputazione per l interazione naturale: fondamenti probabilistici (2)
Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliComputazione per l interazione naturale: clustering e riduzione di dimensionalità
Computazione per l interazione naturale: clustering e riduzione di dimensionalità Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: fondamenti probabilistici (2)
Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: macchine che apprendono
Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliApprendimento Automatico
Apprendimento Automatico Metodi Bayesiani Fabio Aiolli 11 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 11 Dicembre 2017 1 / 19 Metodi Bayesiani I metodi Bayesiani forniscono tecniche computazionali
DettagliModelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri
Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano
DettagliRiduzione di dimensionalità
Riduzione di dimensionalità SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliCampionamento. Una grandezza fisica e' distribuita secondo una certa PDF
Campionamento Una grandezza fisica e' distribuita secondo una certa PDF La pdf e' caratterizzata da determinati parametri Non abbiamo una conoscenza diretta della pdf Possiamo determinare una distribuzione
DettagliSequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:
Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza
DettagliComputazione per l interazione naturale: fondamenti probabilistici
Computazione per l interazione naturale: fondamenti probabilistici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2017.html
DettagliRegressione Lineare. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò
Regressione Lineare Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 23/04/2018 Regressione Lineare Supervised Learning Supervised Learning: recap È il sottocampo del ML più vasto
DettagliAlgoritmi di classificazione supervisionati
Corso di Bioinformatica Algoritmi di classificazione supervisionati Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di apprendimento supervisionato per problemi di biologia computazionale
DettagliPresentazione dell edizione italiana
1 Indice generale Presentazione dell edizione italiana Prefazione xi xiii Capitolo 1 Una introduzione alla statistica 1 1.1 Raccolta dei dati e statistica descrittiva... 1 1.2 Inferenza statistica e modelli
DettagliMachine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione
Corso di Bioinformatica Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di machine learning I metodi
DettagliComputazione per l interazione naturale: macchine che apprendono
Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliAnalisi multivariata per osservazioni appaiate. Analisi multivariata per osservazioni appaiate
Introduzione Notazione Modello additivo Verifica d ipotesi Sia X una variabile q-dimensionale, a valori reali, non degenere, osservata in k tempi diversi (τ 1, τ 2,..., τ k ), sulle stesse n unità statistiche
DettagliStatistica 2 parte ARGOMENTI
Statistica 2 parte ARGOMENTI Vettori gaussiani Matrice di covarianza e sua positività Marginali di un vettore normale Trasformazioni affini di vettori normali Indipendenza delle componenti scorrelate di
DettagliApprendimento Automatico
Apprendimento Automatico Metodi Bayesiani - Naive Bayes Fabio Aiolli 13 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 13 Dicembre 2017 1 / 18 Classificatore Naive Bayes Una delle tecniche più semplici
DettagliStatistica ARGOMENTI. Calcolo combinatorio
Statistica ARGOMENTI Calcolo combinatorio Probabilità Disposizioni semplici Disposizioni con ripetizione Permutazioni semplici Permutazioni con ripetizioni Combinazioni semplici Assiomi di probabilità
DettagliComputazione per l interazione naturale: fondamenti probabilistici
Computazione per l interazione naturale: fondamenti probabilistici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html
DettagliSequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:
Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza
DettagliStatistica multivariata 27/09/2016. D.Rodi, 2016
Statistica multivariata 27/09/2016 Metodi Statistici Statistica Descrittiva Studio di uno o più fenomeni osservati sull INTERA popolazione di interesse (rilevazione esaustiva) Descrizione delle caratteristiche
DettagliRiconoscimento e recupero dell informazione per bioinformatica
Riconoscimento e recupero dell informazione per bioinformatica Teoria della decisione di Bayes Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario
DettagliMETODI DI CLASSIFICAZIONE. Federico Marini
METODI DI CLASSIFICAZIONE Federico Marini Introduzione Nella parte introduttiva dell analisi multivariata abbiamo descritto la possibilità di riconoscere l origine di alcuni campioni come uno dei campi
DettagliApproccio statistico alla classificazione
Approccio statistico alla classificazione Approccio parametrico e non parametrico Finestra di Parzen Classificatori K-NN 1-NN Limitazioni dell approccio bayesiano Con l approccio bayesiano, sarebbe possibile
DettagliCenni di apprendimento in Reti Bayesiane
Sistemi Intelligenti 216 Cenni di apprendimento in Reti Bayesiane Esistono diverse varianti di compiti di apprendimento La struttura della rete può essere nota o sconosciuta Esempi di apprendimento possono
Dettagli9.3 Il metodo dei minimi quadrati in formalismo matriciale
8 CAPIOLO 9. IMA DEI PARAMERI MEODO DEI MINIMI QADRAI 9.3 Il metodo dei minimi quadrati in formalismo matriciale Nel caso si debba applicare il metodo minimi quadrati con molti parametri risulta vantaggioso
DettagliRischio statistico e sua analisi
F94 Metodi statistici per l apprendimento Rischio statistico e sua analisi Docente: Nicolò Cesa-Bianchi versione 7 aprile 018 Per analizzare un algoritmo di apprendimento dobbiamo costruire un modello
DettagliMinimi quadrati e massima verosimiglianza
Minimi quadrati e massima verosimiglianza 1 Introduzione Nella scorsa lezione abbiamo assunto che la forma delle probilità sottostanti al problema fosse nota e abbiamo usato gli esempi per stimare i parametri
DettagliLa likelihood. , x 2. } sia prodotto a partire dal particolare valore di a: ; a... f x N. La probabilità che l'i ma misura sia compresa tra x i
La likelihood E' dato un set di misure {x 1, x 2, x 3,...x N } (ciascuna delle quali puo' essere multidimensionale) Supponiamo che la pdf (f) dipenda da un parametro a (anch'esso eventualmente multidimensionale)
DettagliAnalisi Discriminante Strumenti quantitativi per la gestione
Analisi Discriminante Strumenti quantitativi per la gestione Emanuele Taufer Un esempio introduttivo Approccio con Bayes Perchè un altro metodo di classificazione? Classificazione con Bayes Analisi discriminante
DettagliStatistica. Capitolo 10. Verifica di Ipotesi su una Singola Popolazione. Cap. 10-1
Statistica Capitolo 1 Verifica di Ipotesi su una Singola Popolazione Cap. 1-1 Obiettivi del Capitolo Dopo aver completato il capitolo, sarete in grado di: Formulare ipotesi nulla ed ipotesi alternativa
DettagliStima dell intervallo per un parametro
Stima dell intervallo per un parametro In aggiunta alla stima puntuale di un parametro dobbiamo dare l intervallo che rappresenta l incertezza statistica. Questo intervallo deve: comunicare in modo obbiettivo
DettagliLa Decisione Statistica Campione aleatorio: risultato dell osservazione di un fenomeno soggetto a fluttuazioni casuali.
La Decisione Statistica Campione aleatorio: risultato dell osservazione di un fenomeno soggetto a fluttuazioni casuali. Analisi del campione: - descrizione sintetica (statistica descrittiva) - deduzione
DettagliNaïve Bayesian Classification
Naïve Bayesian Classification Di Alessandro rezzani Sommario Naïve Bayesian Classification (o classificazione Bayesiana)... 1 L algoritmo... 2 Naive Bayes in R... 5 Esempio 1... 5 Esempio 2... 5 L algoritmo
Dettagli1 Alcuni risultati sulle variabili Gaussiane multivariate
Il modello lineare-gaussiano e il filtro di Kalman Prof. P.Dai Pra 1 Alcuni risultati sulle variabili Gaussiane multivariate In questo paragrafo verranno enunciate e dimostrate alcune proprietà del valor
DettagliModelli Probabilistici per la Computazione Affettiva: Inferenza approssimata con Monte Carlo
Modelli Probabilistici per la Computazione Affettiva: Inferenza approssimata con Monte Carlo Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliUniversità di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A
Università di Siena Teoria della Stima Lucidi del corso di A.A. 2002-2003 Università di Siena 1 Indice Approcci al problema della stima Stima parametrica Stima bayesiana Proprietà degli stimatori Stime
DettagliProbabilità e Statistica
Diario delle lezioni e del tutorato di Probabilità e Statistica a.a. 2014/2015 www.mat.uniroma2.it/~caramell/did 1415/ps.htm 02/03/2015 - Lezioni 1, 2 Breve introduzione al corso. Fenomeni deterministici
DettagliSistemi di Elaborazione dell Informazione 170. Caso Non Separabile
Sistemi di Elaborazione dell Informazione 170 Caso Non Separabile La soluzione vista in precedenza per esempi non-linearmente separabili non garantisce usualmente buone prestazioni perchè un iperpiano
DettagliTest statistici. Per ogni processo che stiamo considerando avremo una ipotesi per la pdf di e.g.
Test statistici Supponiamo che il risultato delle misure su un certo evento sia un insieme di valori x 1 = numero muoni, x 2 = p t medio dei jet, x 3 = energia mancante,... è distribuito secondo una pdf
DettagliRiconoscimento e recupero dell informazione per bioinformatica
Riconoscimento e recupero dell informazione per bioinformatica Classificatori generativi Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario Approcci
DettagliEsercizi di statistica
Esercizi di statistica Test a scelta multipla (la risposta corretta è la prima) [1] Il seguente campione è stato estratto da una popolazione distribuita normalmente: -.4, 5.5,, -.5, 1.1, 7.4, -1.8, -..
DettagliLEZIONI IN LABORATORIO Corso di MARKETING L. Baldi Università degli Studi di Milano. Strumenti statistici in Excell
LEZIONI IN LABORATORIO Corso di MARKETING L. Baldi Università degli Studi di Milano Strumenti statistici in Excell Pacchetto Analisi di dati Strumenti di analisi: Analisi varianza: ad un fattore Analisi
DettagliClassificatori Bayesiani. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna
lassificatori Bayesiani rof. Matteo Golfarelli lma Mater Studiorum - Università di Bologna lassificatori Bayesiani Rappresentano un approccio probabilistico per risolvere problemi di classificazione In
DettagliCorso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2017/18 - Prova scritta
Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA A.A. 2017/18 - Prova scritta 2018-09-12 La durata della prova è di tre ore. Le risposte devono essere adeguatamente giustificate.
DettagliStatistica Applicata all edilizia: il modello di regressione
Statistica Applicata all edilizia: il modello di regressione E-mail: orietta.nicolis@unibg.it 27 aprile 2009 Indice Il modello di Regressione Lineare 1 Il modello di Regressione Lineare Analisi di regressione
DettagliBrevi richiami su variabili aleatorie e processi stocastici
Appendice Parte 9, 1 Brevi richiami su variabili aleatorie e processi stocastici Richiami di teoria della probabilita` Appendice Parte 9, 2 Esperimento casuale: analisi degli elementi caratteristici dei
DettagliIL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA
Metodi per l Analisi dei Dati Sperimentali AA009/010 IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Sommario Massima Verosimiglianza Introduzione La Massima Verosimiglianza Esempio 1: una sola misura sperimentale
DettagliMetodi supervisionati di classificazione
Metodi supervisionati di classificazione Giorgio Valentini e-mail: valentini@dsi.unimi.it DSI - Dipartimento di Scienze dell'informazione Classificazione bio-molecolare di tessuti e geni Diagnosi a livello
DettagliComputazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning)
Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliApprendimento Automatico
Apprendimento Automatico Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Rappresentazione dei dati con i kernel Abbiamo una serie di oggetti S
DettagliUniversità di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti
Università di Siena Corso di STATISTICA Parte seconda: Teoria della stima Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Master E 2 C Centro per lo Studio dei Sistemi Complessi Università di
DettagliTrasformazione di Problemi Non Lineari
Capitolo 2 Trasformazione di Problemi Non Lineari 2.1 Trasformazione in problema di PL In questa sezione, verranno presentati tre classi di problemi di programmazione non lineare che, attraverso l uso
DettagliCorso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prima prova in itinere
Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (69AA) A.A. 016/17 - Prima prova in itinere 017-01-13 La durata della prova è di tre ore. Le risposte devono essere adeguatamente giustificate.
DettagliRiconoscimento e recupero dell informazione per bioinformatica
Riconoscimento e recupero dell informazione per bioinformatica Classificazione Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sistema di classificazione
DettagliApprendimento Bayesiano
Apprendimento Automatico 232 Apprendimento Bayesiano [Capitolo 6, Mitchell] Teorema di Bayes Ipotesi MAP e ML algoritmi di apprendimento MAP Principio MDL (Minimum description length) Classificatore Ottimo
DettagliCorso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof. Fabio Perroni. 5. Rango
Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof Fabio Perroni 5 Rango Definizione 1 Sia A M m,n (K) una matrice m n a coefficienti nel campo K Il rango
DettagliTipi di variabili. Indici di tendenza centrale e di dispersione
Tipi di variabili. Indici di tendenza centrale e di dispersione L. Boni Variabile casuale In teoria della probabilità, una variabile casuale (o variabile aleatoria o variabile stocastica o random variable)
DettagliIndice. Presentazione
Indice Presentazione v 1 Il problema statistico 1 1.1 Esperienze e regole 1 1.2 Un esempio introduttivo 3 1.3 Esperienze ed errori 4 1.4 Errori e fluttuazioni 6 1.5 Quando non ci sono regole 7 1.6 Conclusione
DettagliSTATISTICA MULTIVARIATA SSD MAT/06
Università degli studi di Ferrara Dipartimento di Matematica A.A. 2018/2019 I semestre STATISTICA MULTIVARIATA SSD MAT/06 LEZION 13 Analisi della interdipendenza e della dipendenza : overview Docente:
Dettagli1 Serie temporali. 1.1 Processi MA
1 Serie temporali Un processo stocastico 1 {X t, t T }, dove T = N o T = Z, si dice stazionario se (X 1,..., X n ) e (X k+1,...,x k+n ) hanno la stessa distribuzione per ogni n 1 e per ogni k T. Un processo
DettagliIntroduzione generale. Cenni storici. 1 Problema di de Mèrè e soluzione. martedì 27 febbraio 2007
Corso di Calcolo delle probabilità - SIGAD -A.A. 2007/2008 Registro provvisorio delle Lezioni tenute da: Giuseppe Sanfilippo Settimana Giorno Lezione Lez N. Argomento Effettuata =SI Introduzione generale.
DettagliANNO ACCADEMICO Statistica per l Analisi dei Dati
FACOLTÀ Economia ANNO ACCADEMICO 2011-2012 CORSO DI LAUREA Statistica per l Analisi dei Dati INSEGNAMENTO Calcolo delle Probabilità TIPO DI ATTIVITÀ Formativa di base AMBITO DISCIPLINARE Statistico-probabilistico
DettagliVIII Indice 2.6 Esperimenti Dicotomici Ripetuti: Binomiale ed Ipergeometrica Processi Stocastici: Bernoul
1 Introduzione alla Teoria della Probabilità... 1 1.1 Introduzione........................................ 1 1.2 Spazio dei Campioni ed Eventi Aleatori................ 2 1.3 Misura di Probabilità... 5
DettagliElementi di Probabilità e Statistica - 052AA - A.A
Elementi di Probabilità e Statistica - 05AA - A.A. 014-015 Prima prova di verifica intermedia - 9 aprile 015 Problema 1. Dati due eventi A, B, su uno spazio probabilizzato (Ω, F, P), diciamo che A è in
DettagliEsercizi su leggi Gaussiane
Esercizi su leggi Gaussiane. Siano X e Y v.a. indipendenti e con distribuzione normale standard. Trovare le densità di X, X +Y e X, X. Mostrare che queste due variabili aleatorie bidimensionali hanno le
Dettagli1 L analisi discriminante lineare
1 L analisi discriminante lineare L analisi discriminante lineare presuppone che p variabili (quantitative) Y 1,... Y p siano state misurate su osservazioni appartenenti a 2 o più gruppi: G 1,...,G k,
DettagliCorso di STATISTICA EGA - Classe 1 aa Docenti: Luca Frigau, Claudio Conversano
Corso di STATISTICA EGA - Classe 1 aa 2017-2018 Docenti: Luca Frigau, Claudio Conversano Il corso è organizzato in 36 incontri, per un totale di 72 ore di lezione. Sono previste 18 ore di esercitazione
DettagliProbablità, Statistica e Processi Stocastici
Probablità, Statistica e Processi Stocastici Franco Flandoli, Università di Pisa Matrice di covarianza Dato un vettore aleatorio (anche non gaussiano) X = (X 1,..., X n ), chiamiamo sua media il vettore
DettagliCOGNOME.NOME...MATR..
STATISTICA 29.01.15 - PROVA GENERALE (CHALLENGE) Modalità A (A) ai fini della valutazione verranno considerate solo le risposte riportate dallo studente negli appositi riquadri bianchi: in caso di necessità
DettagliEsercitazione del
Esercizi sulla regressione lineare. Esercitazione del 21.05.2013 Esercizio dal tema d esame del 13.06.2011. Si consideri il seguente campione di n = 9 osservazioni relative ai caratteri ed Y: 7 17 8 36
DettagliComputazione per l interazione naturale: macchine che apprendono
Comput per l inter naturale: macchine che apprendono Corso di Inter uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it http://boccignone.di.unimi.it/ium2_2014.html
DettagliUniversità degli Studi di Roma Tor Vergata
Funzioni kernel Note dal corso di Machine Learning Corso di Laurea Specialistica in Informatica a.a. 2010-2011 Prof. Giorgio Gambosi Università degli Studi di Roma Tor Vergata 2 Queste note derivano da
DettagliConcetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2017/2018. Giovanni Lafratta
Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2017/2018 Giovanni Lafratta ii Indice 1 Spazi, Disegni e Strategie Campionarie 1 2 Campionamento casuale
DettagliClassificazione Bayesiana
Classificazione Bayesiana Selezionare, dato un certo pattern x, la classe ci che ha, a posteriori, la massima probabilità rispetto al pattern: P(C=c i x)>p(c=c j x) j i Teorema di Bayes (TDB): P(A B) =
DettagliTecniche di riconoscimento statistico
On AIR s.r.l. Tecniche di riconoscimento statistico Teoria e applicazioni industriali Parte 3 Costruzione di un classificatore Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr
DettagliBayes, PDF, CDF. Renato Mainetti
Bayes, PDF, CDF Renato Mainetti Importiamo i dati di un esperimento Censimento volatili isola di Nim: 100 volatili vivono su quest isola 30 piccioni marroni (classe 1) 20 piccioni bianchi (classe 2) 10
DettagliAPPUNTI DI STATISTICA INFERENZIALE. Avalle Fulvia, maggio 2014, ITSOS MARIE CURIE CLASSI 4A BIO e 4B BIO
APPUNTI DI STATISTICA INFERENZIALE Avalle Fulvia, maggio 2014, ITSOS MARIE CURIE CLASSI 4A BIO e 4B BIO PREREQUISITI VARIABILE ALEATORIA (QUANTITATIVA): è una funzione che associa un numero reale ad ogni
DettagliArgomenti della lezione:
Lezione 7 Argomenti della lezione: La regressione semplice Il modello teorico Il calcolo dei parametri Regressione lineare Esamina la relazione lineare tra una o più variabili esplicative (o indipendenti,
DettagliOnline Gradient Descent
F94 Metodi statistici per l apprendimento Online Gradient Descent Docente: Nicolò Cesa-Bianchi versione 30 aprile 08 L analisi del Perceptrone ha rivelato come sia possibile ottenere dei maggioranti sul
Dettagli