Gaussian processes (GP)

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Gaussian processes (GP)"

Transcript

1 Gaussian processes (GP) Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano Processi stocastici // Classi di processi Processi Gaussiani: prendendo un qualsiasi numero finito di variabili aleatorie, dall ensemble che forma il processo aleatorio stesso, esse hanno una distribuzione di probabilità congiunta gaussiana (multivariata) ocess). A t 1,...,t n, Più precisamente: scelta di (x 1,...,x n ) N(µ, Σ). = {X t } t 0 è Gaussiano } se per qualunque or(x si ha che,. (X t1,...,x tn ) (x 1,...,x n ) = 1 { (π)n Σ exp 1 } (x µ) Σ 1 (x µ)

2 Processi Gaussiani (GP) e Machine Learning Processi Gaussiani: prendendo un qualsiasi numero finito di variabili aleatorie, dalla collezione che forma il processo aleatorio stesso, esse hanno una distribuzione di probabilità congiunta gaussiana (multivariata) Un processo Gaussiano è completamente specificato mediante media e matrice di covarianza (µ, Σ) Processi stocastici // Simulazione di processi Gaussiani Simulazione di un processo di Ornstein-Uhlenbeck (O-U): t 1 =1/h, t =/h,..., t n =1 µ i = µ(t 1 )= 0 %use mesh size h m = 1000; h = 1/m; t = h : h : 1; n = length(t); %paramter of OU process alpha = 10; %Make the mean vector mu = zeros(1,n); for i = 1:n mu(i) = 0; end ocess at fixedticess. This Σ i,j = r(t i,t j ) =e α s t /. t 1,...,t n to be process (X t1,...,x tn ) density is comp %Make the covariance matrix Sigma = zeros(n,n); for i = 1:n for j = 1:n Sigma(i,j) = exp(-alpha * abs(t(i) - t(j)) / ); end end %Generate the multivariate normal vector A = chol(sigma); X = mu + randn(1,n) * A; %Plot plot(t,x);

3 Processi stocastici // Simulazione di processi Gaussiani Simulazione di un processo di Ornstein-Uhlenbeck (O-U): Xt α =10. %use mesh size h m = 1000; h = 1/m; t = h : h : 1; n = length(t); %paramter of OU process alpha = 10; %Make the mean vector mu = zeros(1,n); for i = 1:n mu(i) = 0; end t Xt α = t %Make the covariance matrix Sigma = zeros(n,n); for i = 1:n for j = 1:n Sigma(i,j) = exp(-alpha * abs(t(i) - t(j)) / ); end end %Generate the multivariate normal vector A = chol(sigma); X = mu + randn(1,n) * A; %Plot plot(t,x); Processi Gaussiani (GP) e Machine Learning Processi Gaussiani: prendendo un qualsiasi numero finito di variabili aleatorie, dalla collezione che forma il processo aleatorio stesso, esse hanno una distribuzione di probabilità congiunta gaussiana (multivariata) Un processo Gaussiano è completamente specificato mediante media e matrice di covarianza Problema per il Machine Learning: imparare i parametri della funzione di covarianza

4 Processi Gaussiani: presentazione intuitiva //idee di base Supponiamo di avere 6 punti rumorosi: vogliamo predire a x*=0. //idee di base Supponiamo di avere 6 punti rumorosi: vogliamo predire a x*=0. Non assumiamo un modello parametrico, esempio: Lasciamo che i dati parlino da soli Assumiamo che i dati siano stati generati da una distribuzione Gaussiana n-variata

5 //idee di base Assumiamo che i dati siano stati generati da una distribuzione Gaussiana n-variata: y correlato a y media 0 funzione di covarianza k(x,x ) Caratteristiche di k(x,x ) massima per x vicino a x se x lontano da x x vicino a x esempio: //idee di base Assumiamo che i dati siano stati generati da una distribuzione Gaussiana n-variata con rumore gaussiano additivo il punto è la media di y* e f* Incorporiamo il rumore nel kernel Vogliamo predire y* e non la reale funzione f* media uguale covarianza diversa

6 //idee di base Calcoliamo le covarianze fra tutte le possibili combinazioni di punti. otteniamo tre matrici il punto è la media di y* e f* //idee di base Regressione con GP Assumiamo che i dati siano stati generati da una distribuzione Gaussiana n-variata con rumore gaussiano additivo il punto è la media di y* e f* Vogliamo predire Usando le proprietà delle Gaussiane Predizione Incertezza

7 //idee di base Regressione con GP per il punto y*, con Nell esempio, stimando dalle error bar, e con una scelta appropriata di e il punto è la media di y* e f* Predizione Incertezza //idee di base Regressione con GP per 1000 punti Nell esempio, stimando dalle error bar, e con una scelta appropriata di e

8 //idee di base Regressione con GP per 1000 punti Nell esempio, stimando dalle error bar, e con una scelta appropriata di e //idee di base Possiamo incorporare la fisica del processo nella funzione di kernel

9 //idee di base Possiamo incorporare la fisica del processo nella funzione di kernel //idee di base Possiamo incorporare la fisica del processo nella funzione di kernel

10 Esempio Definizione della funzione di kernel k(x,z) % definizione del kernel e della bandwidth tau = 1.0; k exp(-(x-z)'*(x-z) / (*tau^)); Creazione di un data set % crea un training set corrotto da rumore m_train = 10; i_train = floor(rand(m_train,1) * size(x,1) + 1); X_train = X(i_train); y_train = h(i_train) + sigma * randn(m_train,1); funzione vera (latente) Esempio Predizione: X_test = X; function [K] = compute_kernel_matrix(k, X, Z) end m = size(x,1); n = size(z,1); K = zeros(m,n); for i = 1:m for j = 1:n K(i,j) = k(x(i,:)', Z(j,:)'); end end K_test_test = compute_kernel_matrix(k,x_test,x_test); K_test_train = compute_kernel_matrix(k,x_test,x_train); K_train_train = compute_kernel_matrix(k,x_train,x_train); G = K_train_train + sigma^ * eye(size(x_train,1)); mu_test = K_test_train * (G \ y_train); Sigma_test = K_test_test + sigma^ * eye(size(x_test,1)) - K_test_train * (G \ (K_test_train'));

11 //idee di base Fantastico! Ma... che cosa abbiamo fatto realmente e come si collega all approccio Bayesiano? come si effettua una scelta appropriata dei parametri?? Riprendiamo la regressione lineare L a p r o b a b i l i t à Gaussiana a priori sui pesi equivale a un a priori Gaussiano sulle funzioni y Congiunta Normale Design Matrix A priori Gaussiano sulle funzioni y Mi bastano media e varianza per specificarla Si può dimostrare che Media nulla basta la varianza per specificarla Matrice di Gram Mi bastano i dati per specificare la varianza

12 P r o b a b i l i t à G a u s s i a n a (congiunta) sui punti della funzione Probabilità Gaussiana a priori sulla funzione f è una variabile aleatoria I parametri w sono spariti! Quando campiono dal processo Gaussiano campiono una funzione function [f] = sample_gp_prior(k, X) end K = compute_kernel_matrix(k, X, X); % campiona da una distribuzione Gaussiana a media nulla % con matrice di covarianza K [U,S,V] = svd(k); A = U*sqrt(S)*V'; f = A * randn(size(x,1),1);

13 Processo Gaussiano Quando campiono dal processo Gaussiano campiono una funzione I parametri w sono spariti! Processo Gaussiano Quando campiono dal processo Gaussiano campiono una funzione Cioè: è una distribuzione di probabilità su funzioni? I parametri w sono spariti! E quindi una funzione è una variabile aleatoria?

14 Vediamola in questo modo.. campioniamo da una Gaussiana D x x 1 x 1 x Vediamola in questo modo.. campioniamo da una Gaussiana D x x 1 x 1 x

15 Processi Gaussiani which we can plot in a horizontal manner, if we wish and where we can display a -D point using both plots and where we can display a -D point using both plots Vediamola in questo modo.. campioniamo da una Gaussiana D 0 x - - x1 x1 x Processi Gaussiani which we can plot in a horizontal manner, if we wish and where we can display a -D point using both plots and where we can display a -D point using both plots Vediamola in questo modo.. campioniamo da una Gaussiana D 0 x - - x1 x1 x

16 Processi Gaussiani which we can plot in a horizontal manner, if we wish and where we can display a -D point using both plots and where we can display a -D point using both plots Vediamola in questo modo.. campioniamo da una Gaussiana D 0 x - - x11 x1 x Processi Gaussiani which we can plot in a horizontal manner, if we wish Vediamola in questo modo.. campioniamo da una Gaussiana D 0 x - - x1 x1 x

17 .. e uniamo le due coordinate con una retta x x 1 x 1 x.. e uniamo le due coordinate con una retta x x 1 x 1 x

18 Processi Gaussiani which we can plot in a horizontal manner, if we wish and where we can display a -D point using both plots and where we can display a -D point using both plots.. e uniamo le due coordinate con una retta 0 x - - x1 x1 x Processi Gaussiani which we can plot in a horizontal manner, if we wish and where we can display a -D point using both plots and where we can display a -D point using both plots.. e uniamo le due coordinate con una retta 0 x - - x1 x11 x

19 Adesso da una Gaussiana 3D x 1 x x 3 Adesso da una Gaussiana 3D x 1 x x 3

20 Adesso da una Gaussiana 3D x 1 x x 3 Adesso da una Gaussiana 3D x 1 x x 3

21 Adesso da una Gaussiana 3D x 1 x x 3 Adesso da una Gaussiana 3D x 1 x x 3

22 Adesso da una Gaussiana 5D x 1 x x 3 x x 5 Adesso da una Gaussiana 5D x 1 x x 3 x x 5

23 Adesso da una Gaussiana 5D x 1 x x 3 x x 5 Adesso da una Gaussiana 5D x 1 x x 3 x x 5

24 Adesso 3 campionamenti da una Gaussiana 5D x Processo Gaussiano f è una variabile aleatoria I parametri w sono spariti!

25 Distribuzione Gaussiana vs. Processo Gaussiano //definizione formale Un processo Gaussiano definisce una distribuzione su funzioni p(f) dove può essere considerato un vettore a dimensionalità infinita (un processo stocastico) Definizione: p(f) è un processo Gaussiano se per ogni sottoinsieme finito la distribuzione sul sottoinsieme finito (vettore n-dimensionale) è una Gaussiana multivariata che cosa ci dice il kernel?

26 //Che cosa ci dice il kernel. La funzione di kernel, dunque la covarianza, ci dice quanto due punti sono correlati Processo Gaussiano

27 Processo Gaussiano Usando Kernel diversi...

28 //Modello grafico p a r a m e t r i del kernel n=1,...,n //Regressione Il modello assumendo rumore Gaussiano La distribuzione congiunta su e

29 //Regressione Predizione rispetto a un nuovo dato : La congiunta su Partiziono la matrice di covarianza come //Regressione Sfruttando le proprietà delle congiunte di Gaussiane espresse in forma matriciale si ottiene che la predizione è specificabile come

30 //Regressione: esempio //Regressione: esempio

31 //Regressione: esempio //Regressione: esempio

32 //Regressione: esempio //Regressione: esempio

33 //Regressione: esempio //Regressione: esempio

34 //Parametri del kernel La matrice di covarianza deve essere semidefinita e positiva In generale la funzione di covarianza ha dei parametri da apprendere varianza del segnale //Parametri del kernel La matrice di covarianza deve essere semidefinita e positiva In generale la funzione di covarianza ha dei parametri da apprendere lunghezza di scala o di correlazione

35 //Parametri del kernel La matrice di covarianza deve essere semidefinita e positiva In generale la funzione di covarianza ha dei parametri da apprendere approccio ML: si massimizza approccio MAP: si massimizza approccio totalmente Bayesiano: non trattabile, approssimazioni //Parametri del kernel

36 //Parametri del kernel //Parametri del kernel

37 //Parametri del kernel //Parametri del kernel

38 //Parametri del kernel //Parametri del kernel

39 //Parametri del kernel

Computazione per l interazione naturale: processi gaussiani

Computazione per l interazione naturale: processi gaussiani Computazione per l interazione naturale: processi gaussiani Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2017.html

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2018.html

Dettagli

Computazione per l interazione naturale: Regressione lineare

Computazione per l interazione naturale: Regressione lineare Computazione per l interazione naturale: Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it http://homes.dsi.unimi.it/~boccignone/l

Dettagli

Computazione per l interazione naturale: Regressione lineare (MSE)

Computazione per l interazione naturale: Regressione lineare (MSE) Computazione per l interazione naturale: Regressione lineare (MSE) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2015.html

Dettagli

Regressione. Apprendimento supervisionato //Regressione. Corso di Sistemi di Elaborazione dell Informazione

Regressione. Apprendimento supervisionato //Regressione. Corso di Sistemi di Elaborazione dell Informazione Regressione SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Computazione per l interazione naturale: Regressione lineare Bayesiana

Computazione per l interazione naturale: Regressione lineare Bayesiana Computazione per l interazione naturale: Bayesiana Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it

Dettagli

Computazione per l interazione naturale: classificazione probabilistica

Computazione per l interazione naturale: classificazione probabilistica Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Computazione per l interazione naturale: classificazione probabilistica

Computazione per l interazione naturale: classificazione probabilistica Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html

Dettagli

Computazione per l interazione naturale: regressione logistica Bayesiana

Computazione per l interazione naturale: regressione logistica Bayesiana Computazione per l interazione naturale: regressione logistica Bayesiana Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità)

Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici (1)

Computazione per l interazione naturale: fondamenti probabilistici (1) Computazione per l interazione naturale: fondamenti probabilistici (1) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò

Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò Kernel Methods Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 14/05/2018 Kernel Methods Definizione di Kernel Costruzione di Kernel Support Vector Machines Problema primale e duale

Dettagli

Analisi multivariata per osservazioni appaiate. Analisi multivariata per osservazioni appaiate

Analisi multivariata per osservazioni appaiate. Analisi multivariata per osservazioni appaiate Introduzione Notazione Modello additivo Verifica d ipotesi Sia X una variabile q-dimensionale, a valori reali, non degenere, osservata in k tempi diversi (τ 1, τ 2,..., τ k ), sulle stesse n unità statistiche

Dettagli

Modelli Probabilistici per la Computazione Affettiva: Inferenza approssimata con Monte Carlo

Modelli Probabilistici per la Computazione Affettiva: Inferenza approssimata con Monte Carlo Modelli Probabilistici per la Computazione Affettiva: Inferenza approssimata con Monte Carlo Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Computazione per l interazione naturale: clustering e riduzione di dimensionalità

Computazione per l interazione naturale: clustering e riduzione di dimensionalità Computazione per l interazione naturale: clustering e riduzione di dimensionalità Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Presentazione dell edizione italiana

Presentazione dell edizione italiana 1 Indice generale Presentazione dell edizione italiana Prefazione xi xiii Capitolo 1 Una introduzione alla statistica 1 1.1 Raccolta dei dati e statistica descrittiva... 1 1.2 Inferenza statistica e modelli

Dettagli

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza

Dettagli

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici (2)

Computazione per l interazione naturale: fondamenti probabilistici (2) Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it

Dettagli

Basi matematiche per il Machine Learning

Basi matematiche per il Machine Learning Basi matematiche per il Machine Learning Corso di AA, anno 2017/18, Padova Fabio Aiolli 04 Ottobre 2017 Fabio Aiolli Basi matematiche per il Machine Learning 04 Ottobre 2017 1 / 14 Probabilità Un esperimento

Dettagli

Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning)

Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Regressione: processi Gaussiani e Machine Learning

Regressione: processi Gaussiani e Machine Learning Regressione: processi Gaussiani e Machine Learning SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sisemi di Elaborazione dell Informazione Prof Giuseppe Boccignone Diparimeno di Informaica Universià

Dettagli

Calcolo delle Probabilità e Statistica Matematica: definizioni prima parte. Cap.1: Probabilità

Calcolo delle Probabilità e Statistica Matematica: definizioni prima parte. Cap.1: Probabilità Calcolo delle Probabilità e Statistica Matematica: definizioni prima parte Cap.1: Probabilità 1. Esperimento aleatorio (definizione informale): è un esperimento che a priori può avere diversi esiti possibili

Dettagli

Riduzione di dimensionalità

Riduzione di dimensionalità Riduzione di dimensionalità SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Regressione Lineare. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò

Regressione Lineare. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò Regressione Lineare Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 23/04/2018 Regressione Lineare Supervised Learning Supervised Learning: recap È il sottocampo del ML più vasto

Dettagli

Corso di probabilità e statistica

Corso di probabilità e statistica Università degli Studi di Verona Facoltà di Scienze MM.FF.NN. Corso di Laurea in Informatica Corso di probabilità e statistica (Prof. L.Morato) Esercizi Parte III: variabili aleatorie dipendenti e indipendenti,

Dettagli

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza di Variabili Aleatorie Sistema di Variabili

Dettagli

Computazione per l interazione naturale: Modelli dinamici

Computazione per l interazione naturale: Modelli dinamici Computazione per l interazione naturale: Modelli dinamici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Esercizi di statistica

Esercizi di statistica Esercizi di statistica Test a scelta multipla (la risposta corretta è la prima) [1] Il seguente campione è stato estratto da una popolazione distribuita normalmente: -.4, 5.5,, -.5, 1.1, 7.4, -1.8, -..

Dettagli

Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri

Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano

Dettagli

1 Richiami di algebra lineare

1 Richiami di algebra lineare 1 Richiami di algebra lineare Definizione 11 (matrici e vettori) Una matrice A e un insieme di numeri A hk, h = 1,, m, k = 1,, n, ordinati in base alla coppia di indici h e k nel modo seguente A 1 A n

Dettagli

Analisi Statistica Multivariata Modulo Modelli Statistici

Analisi Statistica Multivariata Modulo Modelli Statistici Analisi Statistica Multivariata Modulo Modelli Statistici Gianna Monti 8 novembre 013 1 Approfondimenti 1 1.1 Esercizi Esercizio 1 Galton e il suo allievo Karl Pearson condussero alcuni studi in merito

Dettagli

Stima dei parametri. I parametri di una pdf sono costanti che caratterizzano la sua forma. r.v. parameter. Assumiamo di avere un campione di valori

Stima dei parametri. I parametri di una pdf sono costanti che caratterizzano la sua forma. r.v. parameter. Assumiamo di avere un campione di valori Stima dei parametri I parametri di una pdf sono costanti che caratterizzano la sua forma r.v. parameter Assumiamo di avere un campione di valori Vogliamo una funzione dei dati che permette di stimare i

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici

Computazione per l interazione naturale: fondamenti probabilistici Computazione per l interazione naturale: fondamenti probabilistici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2017.html

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici (2)

Computazione per l interazione naturale: fondamenti probabilistici (2) Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Vettore (o matrice) casuale (o aleatorio): vettore (o matrice) i cui elementi sono variabili aleatorie

Vettore (o matrice) casuale (o aleatorio): vettore (o matrice) i cui elementi sono variabili aleatorie Variabili (vettori e matrici) casuali Variabile casuale (o aleatoria): Variabile che può assumere un insieme di valori ognuno con una certa probabilità La variabile aleatoria rappresenta la popolazione

Dettagli

Introduzione a Matlab Costruzione di Macchine 2 Prof. Sergio Baragetti

Introduzione a Matlab Costruzione di Macchine 2 Prof. Sergio Baragetti Esercitazioni del corso di Costruzione di Macchine 2 a cura dell ing. Francesco Villa Introduzione a Matlab Costruzione di Macchine 2 Prof. Sergio Baragetti Dalmine - 27/02/2013 Introduzione a Matlab FONDAMENTI

Dettagli

Variabili casuali multidimensionali

Variabili casuali multidimensionali Variabili casuali multidimensionali Variabili casuali multidimensionali: k-ple ordinate di variabili casuali unidimensionali definite sullo stesso spazio di probabilità X = (X 1,..., X k ) Funzione di

Dettagli

Il modello di regressione lineare multipla con regressori stocastici

Il modello di regressione lineare multipla con regressori stocastici Università di Pavia Il modello di regressione lineare multipla con regressori stocastici Eduardo Rossi Il valore atteso condizionale Modellare l esperimento casuale bivariato nel quale le variabili casuali

Dettagli

9.3 Il metodo dei minimi quadrati in formalismo matriciale

9.3 Il metodo dei minimi quadrati in formalismo matriciale 9.3. IL METODO DEI MINIMI QUADRATI IN FORMALISMO MATRICIALE 121 9.3 Il metodo dei minimi quadrati in formalismo matriciale Per applicare il MMQ a funzioni polinomiali, ovvero a dipendenze di una grandezza

Dettagli

Variabili casuali multidimensionali

Variabili casuali multidimensionali Capitolo 1 Variabili casuali multidimensionali Definizione 1.1 Le variabili casuali multidimensionali sono k-ple ordinate di variabili casuali unidimensionali definite sullo stesso spazio di probabilità.

Dettagli

Esercitazione 4 Distribuzioni campionarie e introduzione ai metodi Monte Carlo

Esercitazione 4 Distribuzioni campionarie e introduzione ai metodi Monte Carlo Esercitazione 4 Distribuzioni campionarie e introduzione ai metodi Monte Carlo 1. Gli studi di simulazione possono permetterci di apprezzare alcune delle proprietà di distribuzioni campionarie ricavate

Dettagli

Statistica Applicata all edilizia: il modello di regressione

Statistica Applicata all edilizia: il modello di regressione Statistica Applicata all edilizia: il modello di regressione E-mail: orietta.nicolis@unibg.it 27 aprile 2009 Indice Il modello di Regressione Lineare 1 Il modello di Regressione Lineare Analisi di regressione

Dettagli

Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione

Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione Corso di Bioinformatica Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di machine learning I metodi

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Teoria della decisione di Bayes Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario

Dettagli

Nel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0.

Nel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0. Regressione [] el modello di regressione lineare si assume una relazione di tipo lineare tra il valore medio della variabile dipendente Y e quello della variabile indipendente X per cui Il modello si scrive

Dettagli

Esercizi su leggi Gaussiane

Esercizi su leggi Gaussiane Esercizi su leggi Gaussiane. Siano X e Y v.a. indipendenti e con distribuzione normale standard. Trovare le densità di X, X +Y e X, X. Mostrare che queste due variabili aleatorie bidimensionali hanno le

Dettagli

Sistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese

Sistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese Sistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese Università degli Studi di Milano Laboratory of Applied Intelligent Systems (AIS-Lab) Dipartimento di Informatica borghese@di.unimi.it

Dettagli

Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prova del

Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prova del Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 206/7 - Prova del 207-09-08 La durata della prova è di tre ore. Le risposte devono essere adeguatamente giustificate.

Dettagli

Algoritmi di classificazione supervisionati

Algoritmi di classificazione supervisionati Corso di Bioinformatica Algoritmi di classificazione supervisionati Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di apprendimento supervisionato per problemi di biologia computazionale

Dettagli

Approccio statistico alla classificazione

Approccio statistico alla classificazione Approccio statistico alla classificazione Approccio parametrico e non parametrico Finestra di Parzen Classificatori K-NN 1-NN Limitazioni dell approccio bayesiano Con l approccio bayesiano, sarebbe possibile

Dettagli

Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016

Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016 Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 205/206 20 Settembre 206 Esercizio. Un dado equilibrato viene lanciato ripetutamente. Indichiamo con X n il risultato dell n-esimo

Dettagli

Metodi supervisionati di classificazione

Metodi supervisionati di classificazione Metodi supervisionati di classificazione Giorgio Valentini e-mail: valentini@dsi.unimi.it DSI - Dipartimento di Scienze dell'informazione Classificazione bio-molecolare di tessuti e geni Diagnosi a livello

Dettagli

Introduzione alla verifica d ipotesi

Introduzione alla verifica d ipotesi Introduzione alla verifica d ipotesi Dipartimento di Matematica Università di Roma Tor Vergata 17 dicembre 2017 Consideriamo il caso in cui la nostra variabile risposta sia continua Immaginiamo che obiettivo

Dettagli

Scheda n. 7: primi elementi sui legami tra più variabili

Scheda n. 7: primi elementi sui legami tra più variabili Scheda n. 7: primi elementi sui legami tra più variabili October 27, 2008 Matrice di covarianza e di correlazione Supponiamo di esaminare n variabili X,..., X n, ad esempio X = reddito medio, X 2 = tasso

Dettagli

Probablità, Statistica e Processi Stocastici

Probablità, Statistica e Processi Stocastici Probablità, Statistica e Processi Stocastici Franco Flandoli, Università di Pisa Matrice di covarianza Dato un vettore aleatorio (anche non gaussiano) X = (X 1,..., X n ), chiamiamo sua media il vettore

Dettagli

25 - Funzioni di più Variabili Introduzione

25 - Funzioni di più Variabili Introduzione Università degli Studi di Palermo Facoltà di Economia CdS Statistica per l Analisi dei Dati Appunti del corso di Matematica 25 - Funzioni di più Variabili Introduzione Anno Accademico 2013/2014 M. Tumminello

Dettagli

Università degli Studi di Roma Tor Vergata

Università degli Studi di Roma Tor Vergata Funzioni kernel Note dal corso di Machine Learning Corso di Laurea Specialistica in Informatica a.a. 2010-2011 Prof. Giorgio Gambosi Università degli Studi di Roma Tor Vergata 2 Queste note derivano da

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Metodi Bayesiani Fabio Aiolli 11 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 11 Dicembre 2017 1 / 19 Metodi Bayesiani I metodi Bayesiani forniscono tecniche computazionali

Dettagli

Brevi richiami su variabili aleatorie e processi stocastici

Brevi richiami su variabili aleatorie e processi stocastici Appendice Parte 9, 1 Brevi richiami su variabili aleatorie e processi stocastici Richiami di teoria della probabilita` Appendice Parte 9, 2 Esperimento casuale: analisi degli elementi caratteristici dei

Dettagli

Modelli Grafici Probabilistici (1): concetti generali

Modelli Grafici Probabilistici (1): concetti generali Modelli Grafici Probabilistici (1): concetti generali Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it Giuseppe.Boccignone@unimi.it

Dettagli

Test d ipotesi Introduzione. Alessandra Nardi

Test d ipotesi Introduzione. Alessandra Nardi Test d ipotesi Introduzione Alessandra Nardi alenardi@mat.uniroma2.it 1 Consideriamo il caso in cui la nostra variabile risposta sia continua Immaginiamo che obiettivo del nostro studio sia valutare il

Dettagli

VIII Indice 2.6 Esperimenti Dicotomici Ripetuti: Binomiale ed Ipergeometrica Processi Stocastici: Bernoul

VIII Indice 2.6 Esperimenti Dicotomici Ripetuti: Binomiale ed Ipergeometrica Processi Stocastici: Bernoul 1 Introduzione alla Teoria della Probabilità... 1 1.1 Introduzione........................................ 1 1.2 Spazio dei Campioni ed Eventi Aleatori................ 2 1.3 Misura di Probabilità... 5

Dettagli

Test di ipotesi (a due code, σ nota)

Test di ipotesi (a due code, σ nota) Test di ipotesi (a due code, σ nota) Assumiamo nota la deviazione standard σ = 43.3 mesi vogliamo sapere se esiste un intervallo I di confidenza al 95% tale che µ 0 I? Ovvero esiste ε tale che P ( X µ

Dettagli

Statistica. Capitolo 10. Verifica di Ipotesi su una Singola Popolazione. Cap. 10-1

Statistica. Capitolo 10. Verifica di Ipotesi su una Singola Popolazione. Cap. 10-1 Statistica Capitolo 1 Verifica di Ipotesi su una Singola Popolazione Cap. 1-1 Obiettivi del Capitolo Dopo aver completato il capitolo, sarete in grado di: Formulare ipotesi nulla ed ipotesi alternativa

Dettagli

Modelli Probabilistici per la Computazione Affettiva: Modelli a template e rappresentazioni complesse

Modelli Probabilistici per la Computazione Affettiva: Modelli a template e rappresentazioni complesse Modelli Probabilistici per la Computazione Affettiva: Modelli a template e rappresentazioni complesse Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Stima dei Parametri. Corso di Apprendimento Automatico Laurea Magistrale in Informatica Nicola Fanizzi

Stima dei Parametri. Corso di Apprendimento Automatico Laurea Magistrale in Informatica Nicola Fanizzi Laurea Magistrale in Informatica Nicola Fanizzi Dipartimento di Informatica Università degli Studi di Bari 20 gennaio 2009 Sommario Introduzione Stima dei parametri di massima verosimiglianza Stima dei

Dettagli

COGNOME.NOME...MATR..

COGNOME.NOME...MATR.. STATISTICA 29.01.15 - PROVA GENERALE (CHALLENGE) Modalità A (A) ai fini della valutazione verranno considerate solo le risposte riportate dallo studente negli appositi riquadri bianchi: in caso di necessità

Dettagli

con distribuzione gaussiana standard e si ponga

con distribuzione gaussiana standard e si ponga Laurea Triennale in Matematica, Università La Sapienza Corso di Probabilità, AA 6/7 Prova di Esonero Maggio 7 Testi e soluzioni degli esercizi proposti Siano Z, Z, Z variabili aleatorie indipendenti e

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici

Computazione per l interazione naturale: fondamenti probabilistici Computazione per l interazione naturale: fondamenti probabilistici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html

Dettagli

1 PROCESSI STOCASTICI... 11

1 PROCESSI STOCASTICI... 11 1 PROCESSI STOCASTICI... 11 Introduzione... 11 Rappresentazione dei dati biomedici... 11 Aleatorietà delle misure temporali... 14 Medie definite sul processo aleatorio... 16 Valore atteso... 16 Esercitazione

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Rappresentazione dei dati con i kernel Abbiamo una serie di oggetti S

Dettagli

Matematica e Statistica per Scienze Ambientali

Matematica e Statistica per Scienze Ambientali per Scienze Ambientali Variabili aleatorie - Appunti 1 1 Dipartimento di Matematica Sapienza, Università di Roma Roma, Gennaio 2013 Variabili aleatorie Un numero aleatorio è un esempio di variabile aleatoria.

Dettagli

Coppie di variabili aleatorie

Coppie di variabili aleatorie Coppie di variabili aleatorie 1 Coppie di variabili aleatorie Definizione: Si definisce vettore aleatorio la coppia (,) dove,, sono definite sullo stesso spazio campione : S R, : S R (, ) : S R Esempio:

Dettagli

Corsi di Laurea in Scienze Biologiche Prova scritta di Informatica e Statistica Generale (A). 06/05/2008

Corsi di Laurea in Scienze Biologiche Prova scritta di Informatica e Statistica Generale (A). 06/05/2008 Corsi di Laurea in Scienze Biologiche Prova scritta di Informatica e Statistica Generale (A). 06/05/2008 COGNOME NOME MATRICOLA 1.) Sia {x 1, x 2,..., x n } IR una popolazione statistica relativa ad una

Dettagli

Computazione per l interazione naturale: classificazione supervisionata

Computazione per l interazione naturale: classificazione supervisionata Computazione per l interazione naturale: classificazione supervisionata Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

9. Test del χ 2 e test di Smirnov-Kolmogorov. 9.1 Stimatori di massima verosimiglianza per distribuzioni con densità finita

9. Test del χ 2 e test di Smirnov-Kolmogorov. 9.1 Stimatori di massima verosimiglianza per distribuzioni con densità finita 9. Test del χ 2 e test di Smirnov-Kolmogorov 9. Stimatori di massima verosimiglianza per distribuzioni con densità finita Supponiamo di avere un campione statistico X,..., X n e di sapere che esso è relativo

Dettagli

Stima dei parametri. La v.c. multipla (X 1, X 2,.., X n ) ha probabilità (o densità): Le f( ) sono uguali per tutte le v.c.

Stima dei parametri. La v.c. multipla (X 1, X 2,.., X n ) ha probabilità (o densità): Le f( ) sono uguali per tutte le v.c. Stima dei parametri Sia il carattere X rappresentato da una variabile casuale (v.c.) che si distribuisce secondo la funzione di probabilità f(x). Per investigare su tale carattere si estrae un campione

Dettagli

Analisi Discriminante Strumenti quantitativi per la gestione

Analisi Discriminante Strumenti quantitativi per la gestione Analisi Discriminante Strumenti quantitativi per la gestione Emanuele Taufer Un esempio introduttivo Approccio con Bayes Perchè un altro metodo di classificazione? Classificazione con Bayes Analisi discriminante

Dettagli

Metodi Computazionali della Fisica Secondo Modulo: C++

Metodi Computazionali della Fisica Secondo Modulo: C++ Metodi Computazionali della Fisica Secondo Modulo: C++ Seconda Lezione Andrea Piccione () Metodi Comptazionali della Fisica - Secondo Modulo: C++ Milano, 09/1/08 1 / 9 La lezione di oggi Obiettivo: implementare

Dettagli

Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2016/2017. Giovanni Lafratta

Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2016/2017. Giovanni Lafratta Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2016/2017 Giovanni Lafratta ii Indice 1 Spazi, Disegni e Strategie Campionarie 1 2 Campionamento casuale

Dettagli

Probabilità e Statistica Esercizi

Probabilità e Statistica Esercizi Corso di PIANIFICAZIONE DEI TRASPORTI 1 ing. Antonio Comi Marzo 2006 Probabilità e Statistica Esercizi 1 Variabile aleatoria X(E): funzione che associa ad un evento E dello spazio delle prove un numero

Dettagli

Funzioni kernel. Docente: Nicolò Cesa-Bianchi versione 18 maggio 2018

Funzioni kernel. Docente: Nicolò Cesa-Bianchi versione 18 maggio 2018 F94) Metodi statistici per l apprendimento Funzioni kernel Docente: Nicolò Cesa-Bianchi versione 18 maggio 2018 I predittori lineari possono soffrire di un errore di bias molto elevato in quanto predittore

Dettagli

Introduzione ai filtri digitali

Introduzione ai filtri digitali ARSLAB - Autonomous and Robotic Systems Laboratory Dipartimento di Matematica e Informatica - Università di Catania, Italy santoro@dmi.unict.it Programmazione Sistemi Robotici Sistemi, misura e predizione

Dettagli

Minimi quadrati e massima verosimiglianza

Minimi quadrati e massima verosimiglianza Minimi quadrati e massima verosimiglianza 1 Introduzione Nella scorsa lezione abbiamo assunto che la forma delle probilità sottostanti al problema fosse nota e abbiamo usato gli esempi per stimare i parametri

Dettagli

Distribuzioni campionarie

Distribuzioni campionarie Le distribuzioni campionarie sono quelle che derivano dalla presenza di campioni i.i.d. a distribuzione normale. Definizione. Se X è una v.a. avente distribuzione N(0, ), allora Y = X ha distribuzione

Dettagli

Campionamento. Una grandezza fisica e' distribuita secondo una certa PDF

Campionamento. Una grandezza fisica e' distribuita secondo una certa PDF Campionamento Una grandezza fisica e' distribuita secondo una certa PDF La pdf e' caratterizzata da determinati parametri Non abbiamo una conoscenza diretta della pdf Possiamo determinare una distribuzione

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Classificazione Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sistema di classificazione

Dettagli

1 Serie temporali. 1.1 Processi MA

1 Serie temporali. 1.1 Processi MA 1 Serie temporali Un processo stocastico 1 {X t, t T }, dove T = N o T = Z, si dice stazionario se (X 1,..., X n ) e (X k+1,...,x k+n ) hanno la stessa distribuzione per ogni n 1 e per ogni k T. Un processo

Dettagli

Diario delle lezioni. 1. Analisi di Fourier discreta e applicazioni alla statistica e alla probabilità: Lezioni I IV

Diario delle lezioni. 1. Analisi di Fourier discreta e applicazioni alla statistica e alla probabilità: Lezioni I IV 1 Diario delle lezioni 1. Analisi di Fourier discreta e applicazioni alla statistica e alla probabilità: Lezioni I IV (a) Richiami sui numeri complessi. Spazi vettoriali con prodotto scalare. Teorema di

Dettagli

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A Università di Siena Teoria della Stima Lucidi del corso di A.A. 2002-2003 Università di Siena 1 Indice Approcci al problema della stima Stima parametrica Stima bayesiana Proprietà degli stimatori Stime

Dettagli

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Metodi per l Analisi dei Dati Sperimentali AA009/010 IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Sommario Massima Verosimiglianza Introduzione La Massima Verosimiglianza Esempio 1: una sola misura sperimentale

Dettagli

Correlazione. Dati multivariati. Pietro Coretto Università degli Studi di Salerno

Correlazione. Dati multivariati. Pietro Coretto Università degli Studi di Salerno Correlazione Pietro Coretto pcoretto@unisa.it Università degli Studi di Salerno Corso di Statistica (0212700010) CDL in Economia e Management Curriculum in Management e Informatica a.a. 2018/2019 Versione:

Dettagli

Corso di Laurea in Ingegneria Informatica e Automatica (A-O) Università di Roma La Sapienza

Corso di Laurea in Ingegneria Informatica e Automatica (A-O) Università di Roma La Sapienza Corso di Laurea in Ingegneria Informatica e Automatica (A-O) Università di Roma La Sapienza CALCOLO DELLE PROBABILITÀ E STATISTICA ESAME DEL 17/02/2016 NOME: COGNOME: MATRICOLA: Esercizio 1 Un sistema

Dettagli

1 Alcuni risultati sulle variabili Gaussiane multivariate

1 Alcuni risultati sulle variabili Gaussiane multivariate Il modello lineare-gaussiano e il filtro di Kalman Prof. P.Dai Pra 1 Alcuni risultati sulle variabili Gaussiane multivariate In questo paragrafo verranno enunciate e dimostrate alcune proprietà del valor

Dettagli

9.3 Il metodo dei minimi quadrati in formalismo matriciale

9.3 Il metodo dei minimi quadrati in formalismo matriciale 8 CAPIOLO 9. IMA DEI PARAMERI MEODO DEI MINIMI QADRAI 9.3 Il metodo dei minimi quadrati in formalismo matriciale Nel caso si debba applicare il metodo minimi quadrati con molti parametri risulta vantaggioso

Dettagli