Computazione per l interazione naturale: Regressione lineare

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Computazione per l interazione naturale: Regressione lineare"

Transcript

1 Computazione per l interazione naturale: Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it Il problema dell apprendimento statistico

2 Apprendimento supervisionato //Regressione Apprendimento supervisionato //Regressione

3 //Fitting di una retta Supponiamo di avere i seguenti dati xtrain ytrain dati di training disponibili y >> figure(1) >> plot(xtrain,ytrain,'.') x //Fitting di una retta Problema della regressione: dato un vettore di input x T = (x1, x2,..., xd ), si vuole predire l output corrispondente individuando una funzione y() tale che y(x) non sia troppo diverso dal valore di output y associato a x Nel caso precedente abbiamo un unica feature x T = (x1) Assumiamo che i dati siano modellabili con una retta Modello Definiamo come misura della bontà del fitting la semisomma dei quadrati dei residui (approccio ai minimi quadrati) Funzione di costo

4 //Fitting di una retta Vogliamo che tale costo (o errore) sia minimo al variare di Minimizzazione della funzione di costo rispetto ai parametri Risolvendo il sistema lineare si ottiene: //Fitting di una retta Con un po di algebra si può vedere che tutte queste forme sono equivalenti: Parametri che minimizzano la Funzione di costo

5 //Fitting di una retta xbar = mean(xtrain); %media sui dati x di training ybar = mean(ytrain); %media sui dati y di training N = length(ytrain); %Fitting beta1 = sum( (xtrain-xbar).* (ytrain-ybar) ) / sum( (xtrain-xbar).^2 ) beta0 = ybar - beta1*xbar beta1 = beta0 = Modello appreso dai dati di training y = x //Fitting di una retta dati di training dati di test figure(1); scatter(xtrain,ytrain,'b','filled'); title('training set') figure(2); scatter(xtest,ytest,'r','filled'); title('test set')

6 //Fitting di una retta Possiamo ora effettuare la predizione sugli x di test usando il modello appreso v y = xtest Predizione sui dati di test %Predizione Ntest = length(xtest); yhat = zeros(ntest,1); %allocazione vettore for i=1:ntest yhat(i) = beta0 + beta1*xtest(i); end //Fitting di una retta Predizione sui dati di test figure(3); scatter(xtest,ytest,'r','filled'); hold on; plot(xtest, yhat, 'k', 'linewidth', 3); title('predizione sul test set')

7 //Fitting di una retta: forma matriciale Scriviamo un equazione per ogni osservazione Abbiamo un sistema scrivibile in forma matriciale //Fitting di una retta: forma matriciale design matrix vettore dei parametri vettore delle risposte (response)

8 //Fitting di una retta: forma matriciale La soluzione si può trovare in forma matriciale soluzione 1 pseudo inversa di X beta = inv(x *X)*X *Y soluzione 2 beta = pinv(x)*y soluzione 3 beta = X \ Y //Fitting di una retta sfruttando Matlab Possiamo vettorizzare le operazioni e usare l operatore \ Xtrain = xtrain; Xtest = xtest; %% Fit usando le funzioni Matlab Xtrain1 = [ones(size(xtrain,1),1) Xtrain]; design matrix beta = Xtrain1 \ ytrain %% Predizione Xtest1 = [ones(size(xtest,1),1) Xtest]; Fit yhat = Xtest1*beta; Predizione

9 //Fitting di una retta sfruttando PMTK3 PMTK3: Probabilistic Machine Learning Toolkit ver. 3 Download free: %% Usa pmtk3 per fare la stessa cosa model = linregfit(xtrain, ytrain); Fit [yhat, v2] = linregpredict(model, Xtest); Predizione //Fitting di una retta sfruttando PMTK3 scatter(xtrain,ytrain,'b','filled'); hold on; plot(xtest, yhat, 'k', 'linewidth', 3); % plotta un sottoinsieme di error bars Ntest = length(xtest); ndx = floor(linspace(1, Ntest, floor(0.05*ntest))); errorbar(xtest(ndx), yhat(ndx), sqrt(v2(ndx)))

10 //dalla retta ai modelli lineari Combinazione lineare delle variabili di input Funzioni lineari dei parametri w Funzione lineare delle variabili x. Estensione a combinazione lineare di funzioni base In forma matriciale, ponendo //dalla retta ai modelli lineari Che funzioni di base possiamo utilizzare? Polinomiali (funzioni globali) Gaussiane (locali) Sigmoidali (locali) Tangenti iperboliche (locali)

11 //modelli probabilistici: stima di ML Assumiamo rumore gaussiano additivo precisione Allora //modelli probabilistici: stima di ML Sia il training set La likelihood è Dove la funzione di costo o di errore è

12 //modelli probabilistici: stima di ML Funzione di loss (errore) quadratica //modelli probabilistici: stima di ML Abbiamo che max min equazioni normali per i minimi quadrati

13 //modelli probabilistici: stima di ML Abbiamo generalizzato il risultato già ottenuto per la retta equazioni normali per i minimi quadrati design matrix //modelli probabilistici: stima di ML Possiamo computare il Minimo di ED(w) anche in modo non analitico: metodo di discesa del gradiente (procedura iterativa) Inizializzazione while ( ~ condizioneterminazione) i = i+1;

14 //modelli probabilistici: stima di ML Possiamo computare il Minimo di ED(w) anche in modo non analitico: metodo di discesa del gradiente (procedura iterativa) Inizializzazione while ( ~ condizioneterminazione) i = i+1; //modelli probabilistici: stima di ML punti osservati t Trovare i coefficienti w curva originale (non nota) Polinomio approssimante Problema di apprendimento Trovare i coefficienti w (parametri) noti i punti target t

15 //modelli probabilistici: stima di ML Polinomio di ordine 0 //modelli probabilistici: stima di ML Polinomio di ordine 1

16 //modelli probabilistici: stima di ML Polinomio di ordine 3 //modelli probabilistici: stima di ML overfitting! Polinomio di ordine 9

17 //modelli probabilistici: stima di ML Root-Mean-Square (RMS) Error: //modelli probabilistici: stima di ML

18 //modelli probabilistici: regolarizzazione Introduzione di un termine di regolarizzazione nella funzione di costo dipendendente dai dati dipendendente dai parametri regularization parameter Esempio: funzione quadratica che penalizza grandi coefficienti penalized loss function //modelli probabilistici: regolarizzazione

19 //modelli probabilistici: regolarizzazione //modelli probabilistici: regolarizzazione vs

20 //modelli probabilistici: regolarizzazione //ML: problemi In generale: L utilizzo del criterio di massima verosimiglianza (ML) per la determinazione dei parametri del modello tende tipicamente ad essere soggetto al problema dell overfitting Per controllare la complessità del modello, un approccio di tipo bayesiano, invece di fare uso del termine di regolazione E(w), introduce una distribuzione che rappresenta la nostra valutazione a priori (prima dell osservazione del training set) dei valori dei coefficienti w

21 //Approccio Bayesiano: sintesi Framework probabilistico //Approccio Bayesiano: sintesi I pesi w non sono semplici parametri ma variabili aleatorie su cui fare inferenza abbiamo cioè un modello generativo

22 //Approccio Bayesiano: sintesi I pesi w non sono semplici parametri ma variabili aleatorie su cui fare inferenza abbiamo cioè un modello generativo Si introduce una probabilità a priori su w (che regolarizza: favorisce piccoli w) Dai dati di training si calcola la probabilità a posteriori //Approccio Bayesiano: sintesi Dai dati di training si calcola la probabilità a posteriori Per un nuovo dato x, predico t usando la distribuzione predittiva

23 //Approccio Bayesiano: sintesi In un approccio totalmente Bayesiano anche gli iper-parametri sono variabili aleatorie Per un nuovo dato x, predico t usando la distribuzione predittiva problema intrattabile in forma chiusa!! //Approccio Bayesiano: l ipotesi sul prior Si assume che i coefficienti w siano tra loro indipendenti e tutti distribuiti allo stesso modo, secondo una gaussiana a media 0 e varianza ovvero una gaussiana multivariata con parametri

24 //Approccio Bayesiano: l ipotesi sul prior Sappiamo che //Approccio Bayesiano: l ipotesi sul prior Nel nostro caso, con un po di conti... (e non scrivendo le variabili x per semplificare la notazione) con

25 //Approccio Bayesiano: l ipotesi sul prior In questo setting Si noti che 1. Per ritroviamo la regressione di ML 2. Calcolando la log posteriori ritroviamo la ML regolarizzata //Approccio Bayesiano: learning sequenziale osservo rette campionate dalla distribuzione osservo

26 //Approccio Bayesiano: predizione Data la posteriori L integrale rappresenta la convoluzione di due Gaussiane Risultato ancora gaussiano Rumore dati Incertezza nei parametri w //Approccio Bayesiano: predizione Rumore dati Incertezza nei parametri w Al crescere del numero di elementi nel training set: il secondo termine della varianza diminuisce, e quindi la distribuzione tende a concentrarsi intorno al valore previsto solo il primo termine rimane significativo, mostrando che la sola incertezza rimanente è quella relativa ai dati osservati

27 //Approccio Bayesiano: esempio //Approccio Bayesiano: esempio

28 //Approccio Bayesiano: rappresentazione a kernel Il valore medio della distribuzione predittiva, utilizzato come previsione dell output può essere riscritto come dove è il kernel equivalente (somma a 1 sul training set) Il kernel lavora come una misura di similarità o di prossimità, dando maggior peso ai valori y(x ), relativi a x, vicini al punto x dove vogliamo effettuare la predizione //Approccio Bayesiano: rappresentazione a kernel andamento della curva per tre diversi valori di x andamento sul piano (x; xi) di un esempio di funzione di kernel equivalente gaussiano generata da un training set di 200 elementi kernel polinomiale kernel sigmoidale

Regressione. Apprendimento supervisionato //Regressione. Corso di Sistemi di Elaborazione dell Informazione

Regressione. Apprendimento supervisionato //Regressione. Corso di Sistemi di Elaborazione dell Informazione Regressione SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2018.html

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html

Dettagli

Computazione per l interazione naturale: processi gaussiani

Computazione per l interazione naturale: processi gaussiani Computazione per l interazione naturale: processi gaussiani Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Computazione per l interazione naturale: classificazione probabilistica

Computazione per l interazione naturale: classificazione probabilistica Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Computazione per l interazione naturale: classificazione probabilistica

Computazione per l interazione naturale: classificazione probabilistica Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Computazione per l interazione naturale: classificazione supervisionata

Computazione per l interazione naturale: classificazione supervisionata Computazione per l interazione naturale: classificazione supervisionata Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Gaussian processes (GP)

Gaussian processes (GP) Gaussian processes (GP) Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it Giuseppe.Boccignone@unimi.it http://boccignone.di.unimi.it/compaff017.html

Dettagli

Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning)

Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Computazione per l interazione naturale: regressione logistica Bayesiana

Computazione per l interazione naturale: regressione logistica Bayesiana Computazione per l interazione naturale: regressione logistica Bayesiana Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Regressione Lineare. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò

Regressione Lineare. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò Regressione Lineare Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 23/04/2018 Regressione Lineare Supervised Learning Supervised Learning: recap È il sottocampo del ML più vasto

Dettagli

Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità)

Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Comput per l inter naturale: macchine che apprendono Corso di Inter uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it http://boccignone.di.unimi.it/ium2_2014.html

Dettagli

Computazione per l interazione naturale: Modelli dinamici

Computazione per l interazione naturale: Modelli dinamici Computazione per l interazione naturale: Modelli dinamici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici (2)

Computazione per l interazione naturale: fondamenti probabilistici (2) Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò

Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò Kernel Methods Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 14/05/2018 Kernel Methods Definizione di Kernel Costruzione di Kernel Support Vector Machines Problema primale e duale

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici (1)

Computazione per l interazione naturale: fondamenti probabilistici (1) Computazione per l interazione naturale: fondamenti probabilistici (1) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Minimi quadrati e massima verosimiglianza

Minimi quadrati e massima verosimiglianza Minimi quadrati e massima verosimiglianza 1 Introduzione Nella scorsa lezione abbiamo assunto che la forma delle probilità sottostanti al problema fosse nota e abbiamo usato gli esempi per stimare i parametri

Dettagli

Computazione per l interazione naturale: clustering e riduzione di dimensionalità

Computazione per l interazione naturale: clustering e riduzione di dimensionalità Computazione per l interazione naturale: clustering e riduzione di dimensionalità Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Regressione Mario Guarracino Laboratorio di Sistemi Informativi Aziendali a.a. 2006/2007

Regressione Mario Guarracino Laboratorio di Sistemi Informativi Aziendali a.a. 2006/2007 Regressione Esempio Un azienda manifatturiera vuole analizzare il legame che intercorre tra il costo mensile Y di produzione e il corrispondente volume produttivo X per uno dei propri stabilimenti. Volume

Dettagli

Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri

Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici (2)

Computazione per l interazione naturale: fondamenti probabilistici (2) Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it

Dettagli

Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione

Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione Corso di Bioinformatica Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di machine learning I metodi

Dettagli

Regressione Lineare Semplice e Correlazione

Regressione Lineare Semplice e Correlazione Regressione Lineare Semplice e Correlazione 1 Introduzione La Regressione è una tecnica di analisi della relazione tra due variabili quantitative Questa tecnica è utilizzata per calcolare il valore (y)

Dettagli

Algoritmi di classificazione supervisionati

Algoritmi di classificazione supervisionati Corso di Bioinformatica Algoritmi di classificazione supervisionati Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di apprendimento supervisionato per problemi di biologia computazionale

Dettagli

Parte I. Apprendimento supervisionato

Parte I. Apprendimento supervisionato Parte I Apprendimento supervisionato 1 1 I N T R O D U Z I O N E 1.1 obiettivi e applicazioni dei metodi di machine learning Per learning si intende il processo di individuare, a partire da un insieme

Dettagli

Metodi supervisionati di classificazione

Metodi supervisionati di classificazione Metodi supervisionati di classificazione Giorgio Valentini e-mail: valentini@dsi.unimi.it DSI - Dipartimento di Scienze dell'informazione Classificazione bio-molecolare di tessuti e geni Diagnosi a livello

Dettagli

Presentazione dell edizione italiana

Presentazione dell edizione italiana 1 Indice generale Presentazione dell edizione italiana Prefazione xi xiii Capitolo 1 Una introduzione alla statistica 1 1.1 Raccolta dei dati e statistica descrittiva... 1 1.2 Inferenza statistica e modelli

Dettagli

Regressione Lineare e Regressione Logistica

Regressione Lineare e Regressione Logistica Regressione Lineare e Regressione Logistica Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: stefano.gualandi@unipv.it @famo2spaghi http://stegua.github.com 1 Introduzione

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Metodi Bayesiani Fabio Aiolli 11 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 11 Dicembre 2017 1 / 19 Metodi Bayesiani I metodi Bayesiani forniscono tecniche computazionali

Dettagli

Nel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0.

Nel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0. Regressione [] el modello di regressione lineare si assume una relazione di tipo lineare tra il valore medio della variabile dipendente Y e quello della variabile indipendente X per cui Il modello si scrive

Dettagli

Università del Piemonte Orientale Specializzazioni di area sanitaria Statistica Medica

Università del Piemonte Orientale Specializzazioni di area sanitaria Statistica Medica Università del Piemonte Orientale Specializzazioni di area sanitaria Statistica Medica Regressione Lineare e Correlazione Argomenti della lezione Determinismo e variabilità Correlazione Regressione Lineare

Dettagli

Regressione. Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting

Regressione. Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting Non lineare Variabile indipendente non lineare Ottimizzazione numerica (metodi iterativi) 1 Definizioni Nei

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici

Computazione per l interazione naturale: fondamenti probabilistici Computazione per l interazione naturale: fondamenti probabilistici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2017.html

Dettagli

Università del Piemonte Orientale Corso di Laurea in Medicina e Chirurgia. Corso di Statistica Medica. Correlazione. Regressione Lineare

Università del Piemonte Orientale Corso di Laurea in Medicina e Chirurgia. Corso di Statistica Medica. Correlazione. Regressione Lineare Università del Piemonte Orientale Corso di Laurea in Medicina e Chirurgia Corso di Statistica Medica Correlazione Regressione Lineare Corso di laurea in medicina e chirurgia - Statistica Medica Correlazione

Dettagli

Riduzione di dimensionalità

Riduzione di dimensionalità Riduzione di dimensionalità SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Apprendimento statistico (Statistical Learning)

Apprendimento statistico (Statistical Learning) Apprendimento statistico (Statistical Learning) Il problema dell apprendimento Inquadriamo da un punto di vista statistico il problema dell apprendimento di un classificatore Un training set S={(x,y ),,(x

Dettagli

Statistica multivariata Donata Rodi 17/10/2016

Statistica multivariata Donata Rodi 17/10/2016 Statistica multivariata Donata Rodi 17/10/2016 Quale analisi? Variabile Dipendente Categoriale Continua Variabile Indipendente Categoriale Chi Quadro ANOVA Continua Regressione Logistica Regressione Lineare

Dettagli

Apprendimento statistico (Statistical Learning)

Apprendimento statistico (Statistical Learning) Apprendimento statistico (Statistical Learning) Il problema dell apprendimento Inquadriamo da un punto di vista statistico il problema dell apprendimento di un classificatore Un training set S={(x,y ),,(x

Dettagli

Processo di identificazione

Processo di identificazione Processo di identificazione Problemi a scatola trasparente il modello viene ottenuto partendo dalla descrizione delle parti costituenti il sistema e delle leggi che lo regolano. Il problema dell identificazione

Dettagli

Indice. Prefazione. 4 Sintesi della distribuzione di un carattere La variabilità Introduzione La variabilità di una distribuzione 75

Indice. Prefazione. 4 Sintesi della distribuzione di un carattere La variabilità Introduzione La variabilità di una distribuzione 75 00PrPag:I-XIV_prefazione_IAS 8-05-2008 17:56 Pagina V Prefazione XI 1 La rilevazione dei fenomeni statistici 1 1.1 Introduzione 1 1.2 Caratteri, unità statistiche e collettivo 1 1.3 Classificazione dei

Dettagli

9.3 Il metodo dei minimi quadrati in formalismo matriciale

9.3 Il metodo dei minimi quadrati in formalismo matriciale 8 CAPIOLO 9. IMA DEI PARAMERI MEODO DEI MINIMI QADRAI 9.3 Il metodo dei minimi quadrati in formalismo matriciale Nel caso si debba applicare il metodo minimi quadrati con molti parametri risulta vantaggioso

Dettagli

Lezione 1. 1 Probabilità e statistica. 2 Definizioni di probabilità. Statistica e analisi dei dati Data: 22 Febbraio 2016

Lezione 1. 1 Probabilità e statistica. 2 Definizioni di probabilità. Statistica e analisi dei dati Data: 22 Febbraio 2016 Statistica e analisi dei dati Data: 22 Febbraio 2016 Lezione 1 Docente: Prof. Giuseppe Boccignone Scriba: Nicolò Pisaroni 1 Probabilità e statistica Probabilità: Un modello probabilistico é una descrizione

Dettagli

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza

Dettagli

Università del Piemonte Orientale Corso di Laurea in Medicina e Chirurgia. Corso di Statistica Medica. Correlazione. Regressione Lineare

Università del Piemonte Orientale Corso di Laurea in Medicina e Chirurgia. Corso di Statistica Medica. Correlazione. Regressione Lineare Università del Piemonte Orientale Corso di Laurea in Medicina e Chirurgia Corso di Statistica Medica Correlazione Regressione Lineare Corso di laurea in medicina e chirurgia - Statistica Medica Correlazione

Dettagli

Classificazione introduzione

Classificazione introduzione - Classificazione introduzione Vittorio Maniezzo Università di Bologna 1 Ringraziamenti Questi lucidi derivano anche da adattamenti personali di materiale prodotto (fornitomi o reso scaricabile) da: A.

Dettagli

Prefazione Ringraziamenti dell'editore Il sito web dedicato al libro Test online: la piattaforma McGraw-Hill Education Guida alla lettura

Prefazione Ringraziamenti dell'editore Il sito web dedicato al libro Test online: la piattaforma McGraw-Hill Education Guida alla lettura INDICE GENERALE Prefazione Ringraziamenti dell'editore Il sito web dedicato al libro Test online: la piattaforma McGraw-Hill Education Guida alla lettura XI XIV XV XVII XVIII 1 LA RILEVAZIONE DEI FENOMENI

Dettagli

Argomenti della lezione:

Argomenti della lezione: Lezione 7 Argomenti della lezione: La regressione semplice Il modello teorico Il calcolo dei parametri Regressione lineare Esamina la relazione lineare tra una o più variabili esplicative (o indipendenti,

Dettagli

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Metodi per l Analisi dei Dati Sperimentali AA009/010 IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Sommario Massima Verosimiglianza Introduzione La Massima Verosimiglianza Esempio 1: una sola misura sperimentale

Dettagli

Indice. Prefazione Ringraziamenti

Indice. Prefazione Ringraziamenti Prefazione Ringraziamenti xi xiv Argomento di ripasso Argomento più difficile 1 Matrici e vettori 1 1.1 Matrici 1 1.2 Esercizi 11 1.3 Vettori di R 2 14 1.4 Esercizi 20 1.5 Vettori di R 3 21 1.6 Rette 24

Dettagli

Indice. centrale, dispersione e forma Introduzione alla Statistica Statistica descrittiva per variabili quantitative: tendenza

Indice. centrale, dispersione e forma Introduzione alla Statistica Statistica descrittiva per variabili quantitative: tendenza XIII Presentazione del volume XV L Editore ringrazia 3 1. Introduzione alla Statistica 5 1.1 Definizione di Statistica 6 1.2 I Rami della Statistica Statistica Descrittiva, 6 Statistica Inferenziale, 6

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici

Computazione per l interazione naturale: fondamenti probabilistici Computazione per l interazione naturale: fondamenti probabilistici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html

Dettagli

La likelihood. , x 2. } sia prodotto a partire dal particolare valore di a: ; a... f x N. La probabilità che l'i ma misura sia compresa tra x i

La likelihood. , x 2. } sia prodotto a partire dal particolare valore di a: ; a... f x N. La probabilità che l'i ma misura sia compresa tra x i La likelihood E' dato un set di misure {x 1, x 2, x 3,...x N } (ciascuna delle quali puo' essere multidimensionale) Supponiamo che la pdf (f) dipenda da un parametro a (anch'esso eventualmente multidimensionale)

Dettagli

Corso di Statistica Industriale

Corso di Statistica Industriale Corso di Statistica Industriale Corsi di Laurea Specialistica in Ingegneria Gestionale e Ingegneria Meccanica Docente: Ilia Negri Orario del corso: Martedì: dalle 14.00 alle 16.00 Venerdì: dalle 10.30

Dettagli

STATISTICA. Regressione-2

STATISTICA. Regressione-2 STATISTICA Regressione-2 Esempio Su un campione di =5unità sono state osservate due variabili, ed : x i 1 2 3 4 5 y i 1.5 2.5 3 2.5 3.5 1. Rappresentare l andamento congiunto di in funzione di mediante

Dettagli

Metodi Numerici con elementi di Programmazione (A.A )

Metodi Numerici con elementi di Programmazione (A.A ) Metodi Numerici con elementi di Programmazione (A.A. 2013-2014) Metodi Numerici Appunti delle lezioni: Approssimazione di dati e funzioni Approssimazione ai minimi quadrati Docente Vittoria Bruni Email:

Dettagli

Regressione Polinomiale

Regressione Polinomiale Regressione Polinomiale Nel lavoro che segue ci proponiamo di descrivere alcune curve di adattamento con il metodo dei minimi quadrati e di fornire un metodo iterativo per generalizzare tali funzioni a

Dettagli

Lezioni del Corso di Fondamenti di Metrologia Meccanica

Lezioni del Corso di Fondamenti di Metrologia Meccanica Facoltà di Ingegneria Lezioni del Corso di Fondamenti di Metrologia Meccanica 06. La regressione Regressione Metodo dei minimi quadrati Se due popolazioni sono correlate tra loro e se il coefficiente di

Dettagli

Facoltà di Psicologia Università di Padova Anno Accademico Corso di Psicometria - Modulo B

Facoltà di Psicologia Università di Padova Anno Accademico Corso di Psicometria - Modulo B Facoltà di Psicologia Università di Padova Anno Accademico 2010-2011 Corso di Psicometria - Modulo B Dott. Marco Vicentini marco.vicentini@unipd.it Rev. 27/12/2010 Regressione lineare Modello geometrico

Dettagli

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A Università di Siena Teoria della Stima Lucidi del corso di A.A. 2002-2003 Università di Siena 1 Indice Approcci al problema della stima Stima parametrica Stima bayesiana Proprietà degli stimatori Stime

Dettagli

Metodo dei Minimi Quadrati. Dott. Claudio Verona

Metodo dei Minimi Quadrati. Dott. Claudio Verona Metodo dei Minimi Quadrati Dott. Claudio Verona E in generale interessante studiare l andamento di una variabile in funzione di un altra e capire se c è una funzione matematica che le lega. Viceversa è

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Computazione per l interazione naturale: macchine che apprendono Corso di nterazione aturale Prof Giuseppe Boccignone Dipartimento di nformatica Università di ilano boccignone@diunimiit boccignonediunimiit/_016html

Dettagli

PROBABILITÀ ELEMENTARE

PROBABILITÀ ELEMENTARE Prefazione alla seconda edizione XI Capitolo 1 PROBABILITÀ ELEMENTARE 1 Esperimenti casuali 1 Spazi dei campioni 1 Eventi 2 Il concetto di probabilità 3 Gli assiomi della probabilità 3 Alcuni importanti

Dettagli

1 PROCESSI STOCASTICI... 11

1 PROCESSI STOCASTICI... 11 1 PROCESSI STOCASTICI... 11 Introduzione... 11 Rappresentazione dei dati biomedici... 11 Aleatorietà delle misure temporali... 14 Medie definite sul processo aleatorio... 16 Valore atteso... 16 Esercitazione

Dettagli

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza

Dettagli

Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning)

Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Università di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti

Università di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Università di Siena Corso di STATISTICA Parte seconda: Teoria della stima Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Master E 2 C Centro per lo Studio dei Sistemi Complessi Università di

Dettagli

Campionamento. Una grandezza fisica e' distribuita secondo una certa PDF

Campionamento. Una grandezza fisica e' distribuita secondo una certa PDF Campionamento Una grandezza fisica e' distribuita secondo una certa PDF La pdf e' caratterizzata da determinati parametri Non abbiamo una conoscenza diretta della pdf Possiamo determinare una distribuzione

Dettagli

Maria Prandini Dipartimento di Elettronica e Informazione Politecnico di Milano

Maria Prandini Dipartimento di Elettronica e Informazione Politecnico di Milano Note relative a test di bianchezza rimozione delle componenti deterministiche da una serie temporale a supporto del Progetto di Identificazione dei Modelli e Analisi dei Dati Maria Prandini Dipartimento

Dettagli

L A B C di R. Stefano Leonardi c Dipartimento di Scienze Ambientali Università di Parma Parma, 9 febbraio 2010

L A B C di R. Stefano Leonardi c Dipartimento di Scienze Ambientali Università di Parma Parma, 9 febbraio 2010 L A B C di R 0 20 40 60 80 100 2 3 4 5 6 7 8 Stefano Leonardi c Dipartimento di Scienze Ambientali Università di Parma Parma, 9 febbraio 2010 La scelta del test statistico giusto La scelta della analisi

Dettagli

Correlazione e regressione

Correlazione e regressione Correlazione e regressione Il termine associazione è largamente usato nella letteratura scientifica ed esprime la relazione che esiste tra due variabili Per studiare l associazione tra due variabili bisogna

Dettagli

Sistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese

Sistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese Sistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese Università degli Studi di Milano Laboratory of Applied Intelligent Systems (AIS-Lab) Dipartimento di Informatica borghese@di.unimi.it

Dettagli

Note introduttive alla probabilitá e alla statistica

Note introduttive alla probabilitá e alla statistica Note introduttive alla probabilitá e alla statistica 1 marzo 2017 Presentiamo sinteticamente alcuni concetti introduttivi alla probabilitá e statistica 1 Probabilità e statistica Probabilità: Un modello

Dettagli

Approssimazione di dati

Approssimazione di dati Approssimazione di dati Lucia Gastaldi DICATAM - Sez. di Matematica, http://dm.ing.unibs.it/gastaldi/ Indice 1 Approssimaz. di dati Approssimazione di dati 2 Minimi quadrati lineari Regressione lineare

Dettagli

University of Messina, Italy

University of Messina, Italy ERRORI CASUALI NELL ANALISI CHIMICA 1 Errori casuali Gli errori casuali si incontrano tutte le volte che un sistema di misura viene usato al massimo della sua sensibilità. In queste circostanze i risultati

Dettagli

Esame di Calcolo Numerico per Informatica A.A. 2010/11 Proff. S. De Marchi e M. R. Russo 31 agosto 2011 Testo e soluzioni

Esame di Calcolo Numerico per Informatica A.A. 2010/11 Proff. S. De Marchi e M. R. Russo 31 agosto 2011 Testo e soluzioni Esame di Calcolo Numerico per Informatica A.A. 21/11 Proff. S. De Marchi e M. R. Russo 31 agosto 211 Testo e soluzioni L esame consiste di 4 domande aperte e 1 esercizi a risposta multipla. Per gli esercizi

Dettagli

Corso Integrato di Statistica Informatica e Analisi dei Dati Sperimentali. Esercitazione E

Corso Integrato di Statistica Informatica e Analisi dei Dati Sperimentali. Esercitazione E Corso Integrato di Statistica Informatica e Analisi dei Dati Sperimentali A.A 2009-2010 Esercitazione E Scopo dell esercitazione Applicazioni del teorema del limite centrale. Rappresentazione delle incertezze

Dettagli

University of Messina, Italy

University of Messina, Italy ERRORI CASUALI ELL AALISI CHIMICA Errori casuali Gli errori casuali si incontrano tutte le volte che un sistema di misura viene usato al massimo della sua sensibilità. In queste circostanze i risultati

Dettagli

STATISTICA MULTIVARIATA SSD MAT/06

STATISTICA MULTIVARIATA SSD MAT/06 Università degli studi di Ferrara Dipartimento di Matematica A.A. 2018/2019 I semestre STATISTICA MULTIVARIATA SSD MAT/06 LEZION 13 Analisi della interdipendenza e della dipendenza : overview Docente:

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Teoria della decisione di Bayes Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario

Dettagli

Teoria dei Fenomeni Aleatori AA 2012/13

Teoria dei Fenomeni Aleatori AA 2012/13 Introduzione alla Statistica Nella statistica, anziché predire la probabilità che si verifichino gli eventi di interesse (cioè passare dal modello alla realtà), si osserva un fenomeno se ne estraggono

Dettagli

STATISTICA A K (60 ore)

STATISTICA A K (60 ore) STATISTICA A K (60 ore) Marco Riani mriani@unipr.it http://www.riani.it Richiami sulla regressione Marco Riani, Univ. di Parma 1 MODELLO DI REGRESSIONE y i = a + bx i + e i dove: i = 1,, n a + bx i rappresenta

Dettagli

Il metodo dei minimi quadrati. Molto spesso due grandezze fisiche x e y, misurabili direttamente, sono legate tra loro da una legge del tipo:

Il metodo dei minimi quadrati. Molto spesso due grandezze fisiche x e y, misurabili direttamente, sono legate tra loro da una legge del tipo: Il metodo dei minimi quadrati Molto spesso due grandezze fisiche x e y, misurabili direttamente, sono legate tra loro da una legge del tipo: Dove A e B sono costanti y = A + Bx (ad esempio in un moto uniformemente

Dettagli

Approssimazione di dati

Approssimazione di dati Lucia Gastaldi DICATAM - Sez. di Matematica, http://lucia-gastaldi.unibs.it Indice 1 2 Regressione lineare : caso generale Legge di Ohm La legge di Ohm afferma che la differenza di potenziale V ai capi

Dettagli

Teoria delle Decisioni Bayesiana

Teoria delle Decisioni Bayesiana Laurea Magistrale in Informatica Nicola Fanizzi Dipartimento di Informatica Università degli Studi di Bari 14 gennaio 2009 Sommario Introduzione Teoria delle decisioni Bayesiana - nel continuo Classificazione

Dettagli

Il problema lineare dei minimi quadrati

Il problema lineare dei minimi quadrati Il problema lineare dei minimi quadrati APPLICAZIONE: Il polinomio di migliore approssimazione nel senso dei minimi quadrati Felice Iavernaro Dipartimento di Matematica Università di Bari 15 Gennaio 2009

Dettagli

Innanzitutto preparo i dati:

Innanzitutto preparo i dati: Per il composto acido formico: Vogliamo determinare come varia la pressione di saturazione In funzione della temperatura, sopra il punto di fusione Abbiamo a disposizione i seguenti dati sperimentali:

Dettagli

Analisi Discriminante Strumenti quantitativi per la gestione

Analisi Discriminante Strumenti quantitativi per la gestione Analisi Discriminante Strumenti quantitativi per la gestione Emanuele Taufer Un esempio introduttivo Approccio con Bayes Perchè un altro metodo di classificazione? Classificazione con Bayes Analisi discriminante

Dettagli

Approssimazione di dati

Approssimazione di dati Lucia Gastaldi DICATAM - Sez. di Matematica, http://lucia-gastaldi.unibs.it Indice 1 2 Regressione lineare : caso generale Legge di Ohm La legge di Ohm afferma che la differenza di potenziale V ai capi

Dettagli

Rischio statistico e sua analisi

Rischio statistico e sua analisi F94 Metodi statistici per l apprendimento Rischio statistico e sua analisi Docente: Nicolò Cesa-Bianchi versione 7 aprile 018 Per analizzare un algoritmo di apprendimento dobbiamo costruire un modello

Dettagli

Statistica Applicata all edilizia: il modello di regressione

Statistica Applicata all edilizia: il modello di regressione Statistica Applicata all edilizia: il modello di regressione E-mail: orietta.nicolis@unibg.it 27 aprile 2009 Indice Il modello di Regressione Lineare 1 Il modello di Regressione Lineare Analisi di regressione

Dettagli

Stima dei Parametri. Capitolo 8

Stima dei Parametri. Capitolo 8 Capitolo 8 Stima dei Parametri Lo scopo dello studio dei fenomeni fisici è quello di scoprire le leggi che legano le grandezze oggetto di indagine e di misurare il valore delle costanti che compaiono della

Dettagli

b vettore(termine noto) y* proiezione ortogonale di b

b vettore(termine noto) y* proiezione ortogonale di b Carla Guerrini 1 Sistemi sovradeterminati Sia A una matrice m n ove m > n sia b R m trovare una soluzione del sistema sovradeterminato Ax = b significa cercare di esprimere un vettore di R m come combinazione

Dettagli

Introduzione a Matlab Costruzione di Macchine 2 Prof. Sergio Baragetti

Introduzione a Matlab Costruzione di Macchine 2 Prof. Sergio Baragetti Esercitazioni del corso di Costruzione di Macchine 2 a cura dell ing. Francesco Villa Introduzione a Matlab Costruzione di Macchine 2 Prof. Sergio Baragetti Dalmine - 27/02/2013 Introduzione a Matlab FONDAMENTI

Dettagli

Metodi di Ottimizzazione

Metodi di Ottimizzazione Metodi di Ottimizzazione Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: stefano.gualandi@unipv.it @famospaghi, @famoconti http://stegua.github.com Metodi di Ottimizzazione

Dettagli