Gaussian processes (GP)
|
|
- Nicolina Borrelli
- 6 anni fa
- Visualizzazioni
Transcript
1 Gaussian processes (GP) Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano Processi stocastici // Classi di processi Processi Gaussiani: prendendo un qualsiasi numero finito di variabili aleatorie, dall ensemble che forma il processo aleatorio stesso, esse hanno una distribuzione di probabilità congiunta gaussiana (multivariata) ocess). A t 1,...,t n, Più precisamente: scelta di (x 1,...,x n ) N(µ, Σ). = {X t } t 0 è Gaussiano } se per qualunque or(x si ha che,. (X t1,...,x tn ) (x 1,...,x n ) = 1 { (π)n Σ exp 1 } (x µ) Σ 1 (x µ)
2 Processi Gaussiani (GP) e Machine Learning Processi Gaussiani: prendendo un qualsiasi numero finito di variabili aleatorie, dalla collezione che forma il processo aleatorio stesso, esse hanno una distribuzione di probabilità congiunta gaussiana (multivariata) Un processo Gaussiano è completamente specificato mediante media e matrice di covarianza (µ, Σ) Processi stocastici // Simulazione di processi Gaussiani Simulazione di un processo di Ornstein-Uhlenbeck (O-U): t 1 =1/h, t =/h,..., t n =1 µ i = µ(t 1 )= 0 %use mesh size h m = 1000; h = 1/m; t = h : h : 1; n = length(t); %paramter of OU process alpha = 10; %Make the mean vector mu = zeros(1,n); for i = 1:n mu(i) = 0; end ocess at fixedticess. This Σ i,j = r(t i,t j ) =e α s t /. t 1,...,t n to be process (X t1,...,x tn ) density is comp %Make the covariance matrix Sigma = zeros(n,n); for i = 1:n for j = 1:n Sigma(i,j) = exp(-alpha * abs(t(i) - t(j)) / ); end end %Generate the multivariate normal vector A = chol(sigma); X = mu + randn(1,n) * A; %Plot plot(t,x);
3 Processi stocastici // Simulazione di processi Gaussiani Simulazione di un processo di Ornstein-Uhlenbeck (O-U): Xt α =10. %use mesh size h m = 1000; h = 1/m; t = h : h : 1; n = length(t); %paramter of OU process alpha = 10; %Make the mean vector mu = zeros(1,n); for i = 1:n mu(i) = 0; end t Xt α = t %Make the covariance matrix Sigma = zeros(n,n); for i = 1:n for j = 1:n Sigma(i,j) = exp(-alpha * abs(t(i) - t(j)) / ); end end %Generate the multivariate normal vector A = chol(sigma); X = mu + randn(1,n) * A; %Plot plot(t,x); Processi Gaussiani (GP) e Machine Learning Processi Gaussiani: prendendo un qualsiasi numero finito di variabili aleatorie, dalla collezione che forma il processo aleatorio stesso, esse hanno una distribuzione di probabilità congiunta gaussiana (multivariata) Un processo Gaussiano è completamente specificato mediante media e matrice di covarianza Problema per il Machine Learning: imparare i parametri della funzione di covarianza
4 Processi Gaussiani: presentazione intuitiva //idee di base Supponiamo di avere 6 punti rumorosi: vogliamo predire a x*=0. //idee di base Supponiamo di avere 6 punti rumorosi: vogliamo predire a x*=0. Non assumiamo un modello parametrico, esempio: Lasciamo che i dati parlino da soli Assumiamo che i dati siano stati generati da una distribuzione Gaussiana n-variata
5 //idee di base Assumiamo che i dati siano stati generati da una distribuzione Gaussiana n-variata: y correlato a y media 0 funzione di covarianza k(x,x ) Caratteristiche di k(x,x ) massima per x vicino a x se x lontano da x x vicino a x esempio: //idee di base Assumiamo che i dati siano stati generati da una distribuzione Gaussiana n-variata con rumore gaussiano additivo il punto è la media di y* e f* Incorporiamo il rumore nel kernel Vogliamo predire y* e non la reale funzione f* media uguale covarianza diversa
6 //idee di base Calcoliamo le covarianze fra tutte le possibili combinazioni di punti. otteniamo tre matrici il punto è la media di y* e f* //idee di base Regressione con GP Assumiamo che i dati siano stati generati da una distribuzione Gaussiana n-variata con rumore gaussiano additivo il punto è la media di y* e f* Vogliamo predire Usando le proprietà delle Gaussiane Predizione Incertezza
7 //idee di base Regressione con GP per il punto y*, con Nell esempio, stimando dalle error bar, e con una scelta appropriata di e il punto è la media di y* e f* Predizione Incertezza //idee di base Regressione con GP per 1000 punti Nell esempio, stimando dalle error bar, e con una scelta appropriata di e
8 //idee di base Regressione con GP per 1000 punti Nell esempio, stimando dalle error bar, e con una scelta appropriata di e //idee di base Possiamo incorporare la fisica del processo nella funzione di kernel
9 //idee di base Possiamo incorporare la fisica del processo nella funzione di kernel //idee di base Possiamo incorporare la fisica del processo nella funzione di kernel
10 Esempio Definizione della funzione di kernel k(x,z) % definizione del kernel e della bandwidth tau = 1.0; k exp(-(x-z)'*(x-z) / (*tau^)); Creazione di un data set % crea un training set corrotto da rumore m_train = 10; i_train = floor(rand(m_train,1) * size(x,1) + 1); X_train = X(i_train); y_train = h(i_train) + sigma * randn(m_train,1); funzione vera (latente) Esempio Predizione: X_test = X; function [K] = compute_kernel_matrix(k, X, Z) end m = size(x,1); n = size(z,1); K = zeros(m,n); for i = 1:m for j = 1:n K(i,j) = k(x(i,:)', Z(j,:)'); end end K_test_test = compute_kernel_matrix(k,x_test,x_test); K_test_train = compute_kernel_matrix(k,x_test,x_train); K_train_train = compute_kernel_matrix(k,x_train,x_train); G = K_train_train + sigma^ * eye(size(x_train,1)); mu_test = K_test_train * (G \ y_train); Sigma_test = K_test_test + sigma^ * eye(size(x_test,1)) - K_test_train * (G \ (K_test_train'));
11 //idee di base Fantastico! Ma... che cosa abbiamo fatto realmente e come si collega all approccio Bayesiano? come si effettua una scelta appropriata dei parametri?? Riprendiamo la regressione lineare L a p r o b a b i l i t à Gaussiana a priori sui pesi equivale a un a priori Gaussiano sulle funzioni y Congiunta Normale Design Matrix A priori Gaussiano sulle funzioni y Mi bastano media e varianza per specificarla Si può dimostrare che Media nulla basta la varianza per specificarla Matrice di Gram Mi bastano i dati per specificare la varianza
12 P r o b a b i l i t à G a u s s i a n a (congiunta) sui punti della funzione Probabilità Gaussiana a priori sulla funzione f è una variabile aleatoria I parametri w sono spariti! Quando campiono dal processo Gaussiano campiono una funzione function [f] = sample_gp_prior(k, X) end K = compute_kernel_matrix(k, X, X); % campiona da una distribuzione Gaussiana a media nulla % con matrice di covarianza K [U,S,V] = svd(k); A = U*sqrt(S)*V'; f = A * randn(size(x,1),1);
13 Processo Gaussiano Quando campiono dal processo Gaussiano campiono una funzione I parametri w sono spariti! Processo Gaussiano Quando campiono dal processo Gaussiano campiono una funzione Cioè: è una distribuzione di probabilità su funzioni? I parametri w sono spariti! E quindi una funzione è una variabile aleatoria?
14 Vediamola in questo modo.. campioniamo da una Gaussiana D x x 1 x 1 x Vediamola in questo modo.. campioniamo da una Gaussiana D x x 1 x 1 x
15 Processi Gaussiani which we can plot in a horizontal manner, if we wish and where we can display a -D point using both plots and where we can display a -D point using both plots Vediamola in questo modo.. campioniamo da una Gaussiana D 0 x - - x1 x1 x Processi Gaussiani which we can plot in a horizontal manner, if we wish and where we can display a -D point using both plots and where we can display a -D point using both plots Vediamola in questo modo.. campioniamo da una Gaussiana D 0 x - - x1 x1 x
16 Processi Gaussiani which we can plot in a horizontal manner, if we wish and where we can display a -D point using both plots and where we can display a -D point using both plots Vediamola in questo modo.. campioniamo da una Gaussiana D 0 x - - x11 x1 x Processi Gaussiani which we can plot in a horizontal manner, if we wish Vediamola in questo modo.. campioniamo da una Gaussiana D 0 x - - x1 x1 x
17 .. e uniamo le due coordinate con una retta x x 1 x 1 x.. e uniamo le due coordinate con una retta x x 1 x 1 x
18 Processi Gaussiani which we can plot in a horizontal manner, if we wish and where we can display a -D point using both plots and where we can display a -D point using both plots.. e uniamo le due coordinate con una retta 0 x - - x1 x1 x Processi Gaussiani which we can plot in a horizontal manner, if we wish and where we can display a -D point using both plots and where we can display a -D point using both plots.. e uniamo le due coordinate con una retta 0 x - - x1 x11 x
19 Adesso da una Gaussiana 3D x 1 x x 3 Adesso da una Gaussiana 3D x 1 x x 3
20 Adesso da una Gaussiana 3D x 1 x x 3 Adesso da una Gaussiana 3D x 1 x x 3
21 Adesso da una Gaussiana 3D x 1 x x 3 Adesso da una Gaussiana 3D x 1 x x 3
22 Adesso da una Gaussiana 5D x 1 x x 3 x x 5 Adesso da una Gaussiana 5D x 1 x x 3 x x 5
23 Adesso da una Gaussiana 5D x 1 x x 3 x x 5 Adesso da una Gaussiana 5D x 1 x x 3 x x 5
24 Adesso 3 campionamenti da una Gaussiana 5D x Processo Gaussiano f è una variabile aleatoria I parametri w sono spariti!
25 Distribuzione Gaussiana vs. Processo Gaussiano //definizione formale Un processo Gaussiano definisce una distribuzione su funzioni p(f) dove può essere considerato un vettore a dimensionalità infinita (un processo stocastico) Definizione: p(f) è un processo Gaussiano se per ogni sottoinsieme finito la distribuzione sul sottoinsieme finito (vettore n-dimensionale) è una Gaussiana multivariata che cosa ci dice il kernel?
26 //Che cosa ci dice il kernel. La funzione di kernel, dunque la covarianza, ci dice quanto due punti sono correlati Processo Gaussiano
27 Processo Gaussiano Usando Kernel diversi...
28 //Modello grafico p a r a m e t r i del kernel n=1,...,n //Regressione Il modello assumendo rumore Gaussiano La distribuzione congiunta su e
29 //Regressione Predizione rispetto a un nuovo dato : La congiunta su Partiziono la matrice di covarianza come //Regressione Sfruttando le proprietà delle congiunte di Gaussiane espresse in forma matriciale si ottiene che la predizione è specificabile come
30 //Regressione: esempio //Regressione: esempio
31 //Regressione: esempio //Regressione: esempio
32 //Regressione: esempio //Regressione: esempio
33 //Regressione: esempio //Regressione: esempio
34 //Parametri del kernel La matrice di covarianza deve essere semidefinita e positiva In generale la funzione di covarianza ha dei parametri da apprendere varianza del segnale //Parametri del kernel La matrice di covarianza deve essere semidefinita e positiva In generale la funzione di covarianza ha dei parametri da apprendere lunghezza di scala o di correlazione
35 //Parametri del kernel La matrice di covarianza deve essere semidefinita e positiva In generale la funzione di covarianza ha dei parametri da apprendere approccio ML: si massimizza approccio MAP: si massimizza approccio totalmente Bayesiano: non trattabile, approssimazioni //Parametri del kernel
36 //Parametri del kernel //Parametri del kernel
37 //Parametri del kernel //Parametri del kernel
38 //Parametri del kernel //Parametri del kernel
39 //Parametri del kernel
Computazione per l interazione naturale: processi gaussiani
Computazione per l interazione naturale: processi gaussiani Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliComputazione per l interazione naturale: Regressione probabilistica
Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html
DettagliComputazione per l interazione naturale: Regressione probabilistica
Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2017.html
DettagliComputazione per l interazione naturale: Regressione probabilistica
Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2018.html
DettagliComputazione per l interazione naturale: Regressione lineare
Computazione per l interazione naturale: Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it http://homes.dsi.unimi.it/~boccignone/l
DettagliComputazione per l interazione naturale: Regressione lineare (MSE)
Computazione per l interazione naturale: Regressione lineare (MSE) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2015.html
DettagliRegressione. Apprendimento supervisionato //Regressione. Corso di Sistemi di Elaborazione dell Informazione
Regressione SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: Regressione lineare Bayesiana
Computazione per l interazione naturale: Bayesiana Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: classificazione probabilistica
Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: classificazione probabilistica
Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html
DettagliComputazione per l interazione naturale: regressione logistica Bayesiana
Computazione per l interazione naturale: regressione logistica Bayesiana Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità)
Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliComputazione per l interazione naturale: fondamenti probabilistici (1)
Computazione per l interazione naturale: fondamenti probabilistici (1) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliKernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò
Kernel Methods Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 14/05/2018 Kernel Methods Definizione di Kernel Costruzione di Kernel Support Vector Machines Problema primale e duale
DettagliAnalisi multivariata per osservazioni appaiate. Analisi multivariata per osservazioni appaiate
Introduzione Notazione Modello additivo Verifica d ipotesi Sia X una variabile q-dimensionale, a valori reali, non degenere, osservata in k tempi diversi (τ 1, τ 2,..., τ k ), sulle stesse n unità statistiche
DettagliModelli Probabilistici per la Computazione Affettiva: Inferenza approssimata con Monte Carlo
Modelli Probabilistici per la Computazione Affettiva: Inferenza approssimata con Monte Carlo Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliComputazione per l interazione naturale: clustering e riduzione di dimensionalità
Computazione per l interazione naturale: clustering e riduzione di dimensionalità Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliPresentazione dell edizione italiana
1 Indice generale Presentazione dell edizione italiana Prefazione xi xiii Capitolo 1 Una introduzione alla statistica 1 1.1 Raccolta dei dati e statistica descrittiva... 1 1.2 Inferenza statistica e modelli
DettagliSequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:
Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza
DettagliSequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:
Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza
DettagliComputazione per l interazione naturale: fondamenti probabilistici (2)
Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it
DettagliBasi matematiche per il Machine Learning
Basi matematiche per il Machine Learning Corso di AA, anno 2017/18, Padova Fabio Aiolli 04 Ottobre 2017 Fabio Aiolli Basi matematiche per il Machine Learning 04 Ottobre 2017 1 / 14 Probabilità Un esperimento
DettagliComputazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning)
Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliRegressione: processi Gaussiani e Machine Learning
Regressione: processi Gaussiani e Machine Learning SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sisemi di Elaborazione dell Informazione Prof Giuseppe Boccignone Diparimeno di Informaica Universià
DettagliCalcolo delle Probabilità e Statistica Matematica: definizioni prima parte. Cap.1: Probabilità
Calcolo delle Probabilità e Statistica Matematica: definizioni prima parte Cap.1: Probabilità 1. Esperimento aleatorio (definizione informale): è un esperimento che a priori può avere diversi esiti possibili
DettagliRiduzione di dimensionalità
Riduzione di dimensionalità SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliRegressione Lineare. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò
Regressione Lineare Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 23/04/2018 Regressione Lineare Supervised Learning Supervised Learning: recap È il sottocampo del ML più vasto
DettagliCorso di probabilità e statistica
Università degli Studi di Verona Facoltà di Scienze MM.FF.NN. Corso di Laurea in Informatica Corso di probabilità e statistica (Prof. L.Morato) Esercizi Parte III: variabili aleatorie dipendenti e indipendenti,
DettagliSequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:
Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza di Variabili Aleatorie Sistema di Variabili
DettagliComputazione per l interazione naturale: Modelli dinamici
Computazione per l interazione naturale: Modelli dinamici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliEsercizi di statistica
Esercizi di statistica Test a scelta multipla (la risposta corretta è la prima) [1] Il seguente campione è stato estratto da una popolazione distribuita normalmente: -.4, 5.5,, -.5, 1.1, 7.4, -1.8, -..
DettagliModelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri
Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano
Dettagli1 Richiami di algebra lineare
1 Richiami di algebra lineare Definizione 11 (matrici e vettori) Una matrice A e un insieme di numeri A hk, h = 1,, m, k = 1,, n, ordinati in base alla coppia di indici h e k nel modo seguente A 1 A n
DettagliAnalisi Statistica Multivariata Modulo Modelli Statistici
Analisi Statistica Multivariata Modulo Modelli Statistici Gianna Monti 8 novembre 013 1 Approfondimenti 1 1.1 Esercizi Esercizio 1 Galton e il suo allievo Karl Pearson condussero alcuni studi in merito
DettagliStima dei parametri. I parametri di una pdf sono costanti che caratterizzano la sua forma. r.v. parameter. Assumiamo di avere un campione di valori
Stima dei parametri I parametri di una pdf sono costanti che caratterizzano la sua forma r.v. parameter Assumiamo di avere un campione di valori Vogliamo una funzione dei dati che permette di stimare i
DettagliComputazione per l interazione naturale: fondamenti probabilistici
Computazione per l interazione naturale: fondamenti probabilistici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2017.html
DettagliComputazione per l interazione naturale: fondamenti probabilistici (2)
Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliVettore (o matrice) casuale (o aleatorio): vettore (o matrice) i cui elementi sono variabili aleatorie
Variabili (vettori e matrici) casuali Variabile casuale (o aleatoria): Variabile che può assumere un insieme di valori ognuno con una certa probabilità La variabile aleatoria rappresenta la popolazione
DettagliIntroduzione a Matlab Costruzione di Macchine 2 Prof. Sergio Baragetti
Esercitazioni del corso di Costruzione di Macchine 2 a cura dell ing. Francesco Villa Introduzione a Matlab Costruzione di Macchine 2 Prof. Sergio Baragetti Dalmine - 27/02/2013 Introduzione a Matlab FONDAMENTI
DettagliVariabili casuali multidimensionali
Variabili casuali multidimensionali Variabili casuali multidimensionali: k-ple ordinate di variabili casuali unidimensionali definite sullo stesso spazio di probabilità X = (X 1,..., X k ) Funzione di
DettagliIl modello di regressione lineare multipla con regressori stocastici
Università di Pavia Il modello di regressione lineare multipla con regressori stocastici Eduardo Rossi Il valore atteso condizionale Modellare l esperimento casuale bivariato nel quale le variabili casuali
Dettagli9.3 Il metodo dei minimi quadrati in formalismo matriciale
9.3. IL METODO DEI MINIMI QUADRATI IN FORMALISMO MATRICIALE 121 9.3 Il metodo dei minimi quadrati in formalismo matriciale Per applicare il MMQ a funzioni polinomiali, ovvero a dipendenze di una grandezza
DettagliVariabili casuali multidimensionali
Capitolo 1 Variabili casuali multidimensionali Definizione 1.1 Le variabili casuali multidimensionali sono k-ple ordinate di variabili casuali unidimensionali definite sullo stesso spazio di probabilità.
DettagliEsercitazione 4 Distribuzioni campionarie e introduzione ai metodi Monte Carlo
Esercitazione 4 Distribuzioni campionarie e introduzione ai metodi Monte Carlo 1. Gli studi di simulazione possono permetterci di apprezzare alcune delle proprietà di distribuzioni campionarie ricavate
DettagliStatistica Applicata all edilizia: il modello di regressione
Statistica Applicata all edilizia: il modello di regressione E-mail: orietta.nicolis@unibg.it 27 aprile 2009 Indice Il modello di Regressione Lineare 1 Il modello di Regressione Lineare Analisi di regressione
DettagliMachine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione
Corso di Bioinformatica Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di machine learning I metodi
DettagliRiconoscimento e recupero dell informazione per bioinformatica
Riconoscimento e recupero dell informazione per bioinformatica Teoria della decisione di Bayes Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario
DettagliNel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0.
Regressione [] el modello di regressione lineare si assume una relazione di tipo lineare tra il valore medio della variabile dipendente Y e quello della variabile indipendente X per cui Il modello si scrive
DettagliEsercizi su leggi Gaussiane
Esercizi su leggi Gaussiane. Siano X e Y v.a. indipendenti e con distribuzione normale standard. Trovare le densità di X, X +Y e X, X. Mostrare che queste due variabili aleatorie bidimensionali hanno le
DettagliSistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese
Sistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese Università degli Studi di Milano Laboratory of Applied Intelligent Systems (AIS-Lab) Dipartimento di Informatica borghese@di.unimi.it
DettagliCorso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prova del
Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 206/7 - Prova del 207-09-08 La durata della prova è di tre ore. Le risposte devono essere adeguatamente giustificate.
DettagliAlgoritmi di classificazione supervisionati
Corso di Bioinformatica Algoritmi di classificazione supervisionati Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di apprendimento supervisionato per problemi di biologia computazionale
DettagliApproccio statistico alla classificazione
Approccio statistico alla classificazione Approccio parametrico e non parametrico Finestra di Parzen Classificatori K-NN 1-NN Limitazioni dell approccio bayesiano Con l approccio bayesiano, sarebbe possibile
DettagliProva scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016
Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 205/206 20 Settembre 206 Esercizio. Un dado equilibrato viene lanciato ripetutamente. Indichiamo con X n il risultato dell n-esimo
DettagliMetodi supervisionati di classificazione
Metodi supervisionati di classificazione Giorgio Valentini e-mail: valentini@dsi.unimi.it DSI - Dipartimento di Scienze dell'informazione Classificazione bio-molecolare di tessuti e geni Diagnosi a livello
DettagliIntroduzione alla verifica d ipotesi
Introduzione alla verifica d ipotesi Dipartimento di Matematica Università di Roma Tor Vergata 17 dicembre 2017 Consideriamo il caso in cui la nostra variabile risposta sia continua Immaginiamo che obiettivo
DettagliScheda n. 7: primi elementi sui legami tra più variabili
Scheda n. 7: primi elementi sui legami tra più variabili October 27, 2008 Matrice di covarianza e di correlazione Supponiamo di esaminare n variabili X,..., X n, ad esempio X = reddito medio, X 2 = tasso
DettagliProbablità, Statistica e Processi Stocastici
Probablità, Statistica e Processi Stocastici Franco Flandoli, Università di Pisa Matrice di covarianza Dato un vettore aleatorio (anche non gaussiano) X = (X 1,..., X n ), chiamiamo sua media il vettore
Dettagli25 - Funzioni di più Variabili Introduzione
Università degli Studi di Palermo Facoltà di Economia CdS Statistica per l Analisi dei Dati Appunti del corso di Matematica 25 - Funzioni di più Variabili Introduzione Anno Accademico 2013/2014 M. Tumminello
DettagliUniversità degli Studi di Roma Tor Vergata
Funzioni kernel Note dal corso di Machine Learning Corso di Laurea Specialistica in Informatica a.a. 2010-2011 Prof. Giorgio Gambosi Università degli Studi di Roma Tor Vergata 2 Queste note derivano da
DettagliApprendimento Automatico
Apprendimento Automatico Metodi Bayesiani Fabio Aiolli 11 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 11 Dicembre 2017 1 / 19 Metodi Bayesiani I metodi Bayesiani forniscono tecniche computazionali
DettagliBrevi richiami su variabili aleatorie e processi stocastici
Appendice Parte 9, 1 Brevi richiami su variabili aleatorie e processi stocastici Richiami di teoria della probabilita` Appendice Parte 9, 2 Esperimento casuale: analisi degli elementi caratteristici dei
DettagliModelli Grafici Probabilistici (1): concetti generali
Modelli Grafici Probabilistici (1): concetti generali Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it Giuseppe.Boccignone@unimi.it
DettagliTest d ipotesi Introduzione. Alessandra Nardi
Test d ipotesi Introduzione Alessandra Nardi alenardi@mat.uniroma2.it 1 Consideriamo il caso in cui la nostra variabile risposta sia continua Immaginiamo che obiettivo del nostro studio sia valutare il
DettagliVIII Indice 2.6 Esperimenti Dicotomici Ripetuti: Binomiale ed Ipergeometrica Processi Stocastici: Bernoul
1 Introduzione alla Teoria della Probabilità... 1 1.1 Introduzione........................................ 1 1.2 Spazio dei Campioni ed Eventi Aleatori................ 2 1.3 Misura di Probabilità... 5
DettagliTest di ipotesi (a due code, σ nota)
Test di ipotesi (a due code, σ nota) Assumiamo nota la deviazione standard σ = 43.3 mesi vogliamo sapere se esiste un intervallo I di confidenza al 95% tale che µ 0 I? Ovvero esiste ε tale che P ( X µ
DettagliStatistica. Capitolo 10. Verifica di Ipotesi su una Singola Popolazione. Cap. 10-1
Statistica Capitolo 1 Verifica di Ipotesi su una Singola Popolazione Cap. 1-1 Obiettivi del Capitolo Dopo aver completato il capitolo, sarete in grado di: Formulare ipotesi nulla ed ipotesi alternativa
DettagliModelli Probabilistici per la Computazione Affettiva: Modelli a template e rappresentazioni complesse
Modelli Probabilistici per la Computazione Affettiva: Modelli a template e rappresentazioni complesse Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliStima dei Parametri. Corso di Apprendimento Automatico Laurea Magistrale in Informatica Nicola Fanizzi
Laurea Magistrale in Informatica Nicola Fanizzi Dipartimento di Informatica Università degli Studi di Bari 20 gennaio 2009 Sommario Introduzione Stima dei parametri di massima verosimiglianza Stima dei
DettagliCOGNOME.NOME...MATR..
STATISTICA 29.01.15 - PROVA GENERALE (CHALLENGE) Modalità A (A) ai fini della valutazione verranno considerate solo le risposte riportate dallo studente negli appositi riquadri bianchi: in caso di necessità
Dettaglicon distribuzione gaussiana standard e si ponga
Laurea Triennale in Matematica, Università La Sapienza Corso di Probabilità, AA 6/7 Prova di Esonero Maggio 7 Testi e soluzioni degli esercizi proposti Siano Z, Z, Z variabili aleatorie indipendenti e
DettagliComputazione per l interazione naturale: fondamenti probabilistici
Computazione per l interazione naturale: fondamenti probabilistici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html
Dettagli1 PROCESSI STOCASTICI... 11
1 PROCESSI STOCASTICI... 11 Introduzione... 11 Rappresentazione dei dati biomedici... 11 Aleatorietà delle misure temporali... 14 Medie definite sul processo aleatorio... 16 Valore atteso... 16 Esercitazione
DettagliApprendimento Automatico
Apprendimento Automatico Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Rappresentazione dei dati con i kernel Abbiamo una serie di oggetti S
DettagliMatematica e Statistica per Scienze Ambientali
per Scienze Ambientali Variabili aleatorie - Appunti 1 1 Dipartimento di Matematica Sapienza, Università di Roma Roma, Gennaio 2013 Variabili aleatorie Un numero aleatorio è un esempio di variabile aleatoria.
DettagliCoppie di variabili aleatorie
Coppie di variabili aleatorie 1 Coppie di variabili aleatorie Definizione: Si definisce vettore aleatorio la coppia (,) dove,, sono definite sullo stesso spazio campione : S R, : S R (, ) : S R Esempio:
DettagliCorsi di Laurea in Scienze Biologiche Prova scritta di Informatica e Statistica Generale (A). 06/05/2008
Corsi di Laurea in Scienze Biologiche Prova scritta di Informatica e Statistica Generale (A). 06/05/2008 COGNOME NOME MATRICOLA 1.) Sia {x 1, x 2,..., x n } IR una popolazione statistica relativa ad una
DettagliComputazione per l interazione naturale: classificazione supervisionata
Computazione per l interazione naturale: classificazione supervisionata Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
Dettagli9. Test del χ 2 e test di Smirnov-Kolmogorov. 9.1 Stimatori di massima verosimiglianza per distribuzioni con densità finita
9. Test del χ 2 e test di Smirnov-Kolmogorov 9. Stimatori di massima verosimiglianza per distribuzioni con densità finita Supponiamo di avere un campione statistico X,..., X n e di sapere che esso è relativo
DettagliStima dei parametri. La v.c. multipla (X 1, X 2,.., X n ) ha probabilità (o densità): Le f( ) sono uguali per tutte le v.c.
Stima dei parametri Sia il carattere X rappresentato da una variabile casuale (v.c.) che si distribuisce secondo la funzione di probabilità f(x). Per investigare su tale carattere si estrae un campione
DettagliAnalisi Discriminante Strumenti quantitativi per la gestione
Analisi Discriminante Strumenti quantitativi per la gestione Emanuele Taufer Un esempio introduttivo Approccio con Bayes Perchè un altro metodo di classificazione? Classificazione con Bayes Analisi discriminante
DettagliMetodi Computazionali della Fisica Secondo Modulo: C++
Metodi Computazionali della Fisica Secondo Modulo: C++ Seconda Lezione Andrea Piccione () Metodi Comptazionali della Fisica - Secondo Modulo: C++ Milano, 09/1/08 1 / 9 La lezione di oggi Obiettivo: implementare
DettagliConcetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2016/2017. Giovanni Lafratta
Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2016/2017 Giovanni Lafratta ii Indice 1 Spazi, Disegni e Strategie Campionarie 1 2 Campionamento casuale
DettagliProbabilità e Statistica Esercizi
Corso di PIANIFICAZIONE DEI TRASPORTI 1 ing. Antonio Comi Marzo 2006 Probabilità e Statistica Esercizi 1 Variabile aleatoria X(E): funzione che associa ad un evento E dello spazio delle prove un numero
DettagliFunzioni kernel. Docente: Nicolò Cesa-Bianchi versione 18 maggio 2018
F94) Metodi statistici per l apprendimento Funzioni kernel Docente: Nicolò Cesa-Bianchi versione 18 maggio 2018 I predittori lineari possono soffrire di un errore di bias molto elevato in quanto predittore
DettagliIntroduzione ai filtri digitali
ARSLAB - Autonomous and Robotic Systems Laboratory Dipartimento di Matematica e Informatica - Università di Catania, Italy santoro@dmi.unict.it Programmazione Sistemi Robotici Sistemi, misura e predizione
DettagliMinimi quadrati e massima verosimiglianza
Minimi quadrati e massima verosimiglianza 1 Introduzione Nella scorsa lezione abbiamo assunto che la forma delle probilità sottostanti al problema fosse nota e abbiamo usato gli esempi per stimare i parametri
DettagliDistribuzioni campionarie
Le distribuzioni campionarie sono quelle che derivano dalla presenza di campioni i.i.d. a distribuzione normale. Definizione. Se X è una v.a. avente distribuzione N(0, ), allora Y = X ha distribuzione
DettagliCampionamento. Una grandezza fisica e' distribuita secondo una certa PDF
Campionamento Una grandezza fisica e' distribuita secondo una certa PDF La pdf e' caratterizzata da determinati parametri Non abbiamo una conoscenza diretta della pdf Possiamo determinare una distribuzione
DettagliRiconoscimento e recupero dell informazione per bioinformatica
Riconoscimento e recupero dell informazione per bioinformatica Classificazione Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sistema di classificazione
Dettagli1 Serie temporali. 1.1 Processi MA
1 Serie temporali Un processo stocastico 1 {X t, t T }, dove T = N o T = Z, si dice stazionario se (X 1,..., X n ) e (X k+1,...,x k+n ) hanno la stessa distribuzione per ogni n 1 e per ogni k T. Un processo
DettagliDiario delle lezioni. 1. Analisi di Fourier discreta e applicazioni alla statistica e alla probabilità: Lezioni I IV
1 Diario delle lezioni 1. Analisi di Fourier discreta e applicazioni alla statistica e alla probabilità: Lezioni I IV (a) Richiami sui numeri complessi. Spazi vettoriali con prodotto scalare. Teorema di
DettagliUniversità di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A
Università di Siena Teoria della Stima Lucidi del corso di A.A. 2002-2003 Università di Siena 1 Indice Approcci al problema della stima Stima parametrica Stima bayesiana Proprietà degli stimatori Stime
DettagliIL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA
Metodi per l Analisi dei Dati Sperimentali AA009/010 IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Sommario Massima Verosimiglianza Introduzione La Massima Verosimiglianza Esempio 1: una sola misura sperimentale
DettagliCorrelazione. Dati multivariati. Pietro Coretto Università degli Studi di Salerno
Correlazione Pietro Coretto pcoretto@unisa.it Università degli Studi di Salerno Corso di Statistica (0212700010) CDL in Economia e Management Curriculum in Management e Informatica a.a. 2018/2019 Versione:
DettagliCorso di Laurea in Ingegneria Informatica e Automatica (A-O) Università di Roma La Sapienza
Corso di Laurea in Ingegneria Informatica e Automatica (A-O) Università di Roma La Sapienza CALCOLO DELLE PROBABILITÀ E STATISTICA ESAME DEL 17/02/2016 NOME: COGNOME: MATRICOLA: Esercizio 1 Un sistema
Dettagli1 Alcuni risultati sulle variabili Gaussiane multivariate
Il modello lineare-gaussiano e il filtro di Kalman Prof. P.Dai Pra 1 Alcuni risultati sulle variabili Gaussiane multivariate In questo paragrafo verranno enunciate e dimostrate alcune proprietà del valor
Dettagli9.3 Il metodo dei minimi quadrati in formalismo matriciale
8 CAPIOLO 9. IMA DEI PARAMERI MEODO DEI MINIMI QADRAI 9.3 Il metodo dei minimi quadrati in formalismo matriciale Nel caso si debba applicare il metodo minimi quadrati con molti parametri risulta vantaggioso
Dettagli