Computazione per l interazione naturale: Regressione lineare
|
|
- Fabriciano Negro
- 5 anni fa
- Visualizzazioni
Transcript
1 Computazione per l interazione naturale: Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it Il problema dell apprendimento statistico
2 Apprendimento supervisionato //Regressione Apprendimento supervisionato //Regressione
3 //Fitting di una retta Supponiamo di avere i seguenti dati xtrain ytrain dati di training disponibili y >> figure(1) >> plot(xtrain,ytrain,'.') x //Fitting di una retta Problema della regressione: dato un vettore di input x T = (x1, x2,..., xd ), si vuole predire l output corrispondente individuando una funzione y() tale che y(x) non sia troppo diverso dal valore di output y associato a x Nel caso precedente abbiamo un unica feature x T = (x1) Assumiamo che i dati siano modellabili con una retta Modello Definiamo come misura della bontà del fitting la semisomma dei quadrati dei residui (approccio ai minimi quadrati) Funzione di costo
4 //Fitting di una retta Vogliamo che tale costo (o errore) sia minimo al variare di Minimizzazione della funzione di costo rispetto ai parametri Risolvendo il sistema lineare si ottiene: //Fitting di una retta Con un po di algebra si può vedere che tutte queste forme sono equivalenti: Parametri che minimizzano la Funzione di costo
5 //Fitting di una retta xbar = mean(xtrain); %media sui dati x di training ybar = mean(ytrain); %media sui dati y di training N = length(ytrain); %Fitting beta1 = sum( (xtrain-xbar).* (ytrain-ybar) ) / sum( (xtrain-xbar).^2 ) beta0 = ybar - beta1*xbar beta1 = beta0 = Modello appreso dai dati di training y = x //Fitting di una retta dati di training dati di test figure(1); scatter(xtrain,ytrain,'b','filled'); title('training set') figure(2); scatter(xtest,ytest,'r','filled'); title('test set')
6 //Fitting di una retta Possiamo ora effettuare la predizione sugli x di test usando il modello appreso v y = xtest Predizione sui dati di test %Predizione Ntest = length(xtest); yhat = zeros(ntest,1); %allocazione vettore for i=1:ntest yhat(i) = beta0 + beta1*xtest(i); end //Fitting di una retta Predizione sui dati di test figure(3); scatter(xtest,ytest,'r','filled'); hold on; plot(xtest, yhat, 'k', 'linewidth', 3); title('predizione sul test set')
7 //Fitting di una retta: forma matriciale Scriviamo un equazione per ogni osservazione Abbiamo un sistema scrivibile in forma matriciale //Fitting di una retta: forma matriciale design matrix vettore dei parametri vettore delle risposte (response)
8 //Fitting di una retta: forma matriciale La soluzione si può trovare in forma matriciale soluzione 1 pseudo inversa di X beta = inv(x *X)*X *Y soluzione 2 beta = pinv(x)*y soluzione 3 beta = X \ Y //Fitting di una retta sfruttando Matlab Possiamo vettorizzare le operazioni e usare l operatore \ Xtrain = xtrain; Xtest = xtest; %% Fit usando le funzioni Matlab Xtrain1 = [ones(size(xtrain,1),1) Xtrain]; design matrix beta = Xtrain1 \ ytrain %% Predizione Xtest1 = [ones(size(xtest,1),1) Xtest]; Fit yhat = Xtest1*beta; Predizione
9 //Fitting di una retta sfruttando PMTK3 PMTK3: Probabilistic Machine Learning Toolkit ver. 3 Download free: %% Usa pmtk3 per fare la stessa cosa model = linregfit(xtrain, ytrain); Fit [yhat, v2] = linregpredict(model, Xtest); Predizione //Fitting di una retta sfruttando PMTK3 scatter(xtrain,ytrain,'b','filled'); hold on; plot(xtest, yhat, 'k', 'linewidth', 3); % plotta un sottoinsieme di error bars Ntest = length(xtest); ndx = floor(linspace(1, Ntest, floor(0.05*ntest))); errorbar(xtest(ndx), yhat(ndx), sqrt(v2(ndx)))
10 //dalla retta ai modelli lineari Combinazione lineare delle variabili di input Funzioni lineari dei parametri w Funzione lineare delle variabili x. Estensione a combinazione lineare di funzioni base In forma matriciale, ponendo //dalla retta ai modelli lineari Che funzioni di base possiamo utilizzare? Polinomiali (funzioni globali) Gaussiane (locali) Sigmoidali (locali) Tangenti iperboliche (locali)
11 //modelli probabilistici: stima di ML Assumiamo rumore gaussiano additivo precisione Allora //modelli probabilistici: stima di ML Sia il training set La likelihood è Dove la funzione di costo o di errore è
12 //modelli probabilistici: stima di ML Funzione di loss (errore) quadratica //modelli probabilistici: stima di ML Abbiamo che max min equazioni normali per i minimi quadrati
13 //modelli probabilistici: stima di ML Abbiamo generalizzato il risultato già ottenuto per la retta equazioni normali per i minimi quadrati design matrix //modelli probabilistici: stima di ML Possiamo computare il Minimo di ED(w) anche in modo non analitico: metodo di discesa del gradiente (procedura iterativa) Inizializzazione while ( ~ condizioneterminazione) i = i+1;
14 //modelli probabilistici: stima di ML Possiamo computare il Minimo di ED(w) anche in modo non analitico: metodo di discesa del gradiente (procedura iterativa) Inizializzazione while ( ~ condizioneterminazione) i = i+1; //modelli probabilistici: stima di ML punti osservati t Trovare i coefficienti w curva originale (non nota) Polinomio approssimante Problema di apprendimento Trovare i coefficienti w (parametri) noti i punti target t
15 //modelli probabilistici: stima di ML Polinomio di ordine 0 //modelli probabilistici: stima di ML Polinomio di ordine 1
16 //modelli probabilistici: stima di ML Polinomio di ordine 3 //modelli probabilistici: stima di ML overfitting! Polinomio di ordine 9
17 //modelli probabilistici: stima di ML Root-Mean-Square (RMS) Error: //modelli probabilistici: stima di ML
18 //modelli probabilistici: regolarizzazione Introduzione di un termine di regolarizzazione nella funzione di costo dipendendente dai dati dipendendente dai parametri regularization parameter Esempio: funzione quadratica che penalizza grandi coefficienti penalized loss function //modelli probabilistici: regolarizzazione
19 //modelli probabilistici: regolarizzazione //modelli probabilistici: regolarizzazione vs
20 //modelli probabilistici: regolarizzazione //ML: problemi In generale: L utilizzo del criterio di massima verosimiglianza (ML) per la determinazione dei parametri del modello tende tipicamente ad essere soggetto al problema dell overfitting Per controllare la complessità del modello, un approccio di tipo bayesiano, invece di fare uso del termine di regolazione E(w), introduce una distribuzione che rappresenta la nostra valutazione a priori (prima dell osservazione del training set) dei valori dei coefficienti w
21 //Approccio Bayesiano: sintesi Framework probabilistico //Approccio Bayesiano: sintesi I pesi w non sono semplici parametri ma variabili aleatorie su cui fare inferenza abbiamo cioè un modello generativo
22 //Approccio Bayesiano: sintesi I pesi w non sono semplici parametri ma variabili aleatorie su cui fare inferenza abbiamo cioè un modello generativo Si introduce una probabilità a priori su w (che regolarizza: favorisce piccoli w) Dai dati di training si calcola la probabilità a posteriori //Approccio Bayesiano: sintesi Dai dati di training si calcola la probabilità a posteriori Per un nuovo dato x, predico t usando la distribuzione predittiva
23 //Approccio Bayesiano: sintesi In un approccio totalmente Bayesiano anche gli iper-parametri sono variabili aleatorie Per un nuovo dato x, predico t usando la distribuzione predittiva problema intrattabile in forma chiusa!! //Approccio Bayesiano: l ipotesi sul prior Si assume che i coefficienti w siano tra loro indipendenti e tutti distribuiti allo stesso modo, secondo una gaussiana a media 0 e varianza ovvero una gaussiana multivariata con parametri
24 //Approccio Bayesiano: l ipotesi sul prior Sappiamo che //Approccio Bayesiano: l ipotesi sul prior Nel nostro caso, con un po di conti... (e non scrivendo le variabili x per semplificare la notazione) con
25 //Approccio Bayesiano: l ipotesi sul prior In questo setting Si noti che 1. Per ritroviamo la regressione di ML 2. Calcolando la log posteriori ritroviamo la ML regolarizzata //Approccio Bayesiano: learning sequenziale osservo rette campionate dalla distribuzione osservo
26 //Approccio Bayesiano: predizione Data la posteriori L integrale rappresenta la convoluzione di due Gaussiane Risultato ancora gaussiano Rumore dati Incertezza nei parametri w //Approccio Bayesiano: predizione Rumore dati Incertezza nei parametri w Al crescere del numero di elementi nel training set: il secondo termine della varianza diminuisce, e quindi la distribuzione tende a concentrarsi intorno al valore previsto solo il primo termine rimane significativo, mostrando che la sola incertezza rimanente è quella relativa ai dati osservati
27 //Approccio Bayesiano: esempio //Approccio Bayesiano: esempio
28 //Approccio Bayesiano: rappresentazione a kernel Il valore medio della distribuzione predittiva, utilizzato come previsione dell output può essere riscritto come dove è il kernel equivalente (somma a 1 sul training set) Il kernel lavora come una misura di similarità o di prossimità, dando maggior peso ai valori y(x ), relativi a x, vicini al punto x dove vogliamo effettuare la predizione //Approccio Bayesiano: rappresentazione a kernel andamento della curva per tre diversi valori di x andamento sul piano (x; xi) di un esempio di funzione di kernel equivalente gaussiano generata da un training set di 200 elementi kernel polinomiale kernel sigmoidale
Regressione. Apprendimento supervisionato //Regressione. Corso di Sistemi di Elaborazione dell Informazione
Regressione SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: Regressione probabilistica
Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2018.html
DettagliComputazione per l interazione naturale: Regressione probabilistica
Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html
DettagliComputazione per l interazione naturale: processi gaussiani
Computazione per l interazione naturale: processi gaussiani Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliComputazione per l interazione naturale: macchine che apprendono
Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliComputazione per l interazione naturale: classificazione probabilistica
Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: classificazione probabilistica
Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html
DettagliComputazione per l interazione naturale: macchine che apprendono
Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliComputazione per l interazione naturale: classificazione supervisionata
Computazione per l interazione naturale: classificazione supervisionata Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliGaussian processes (GP)
Gaussian processes (GP) Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it Giuseppe.Boccignone@unimi.it http://boccignone.di.unimi.it/compaff017.html
DettagliComputazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning)
Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliComputazione per l interazione naturale: regressione logistica Bayesiana
Computazione per l interazione naturale: regressione logistica Bayesiana Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliRegressione Lineare. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò
Regressione Lineare Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 23/04/2018 Regressione Lineare Supervised Learning Supervised Learning: recap È il sottocampo del ML più vasto
DettagliComputazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità)
Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliComputazione per l interazione naturale: macchine che apprendono
Comput per l inter naturale: macchine che apprendono Corso di Inter uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it http://boccignone.di.unimi.it/ium2_2014.html
DettagliComputazione per l interazione naturale: Modelli dinamici
Computazione per l interazione naturale: Modelli dinamici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliComputazione per l interazione naturale: fondamenti probabilistici (2)
Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliKernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò
Kernel Methods Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 14/05/2018 Kernel Methods Definizione di Kernel Costruzione di Kernel Support Vector Machines Problema primale e duale
DettagliComputazione per l interazione naturale: fondamenti probabilistici (1)
Computazione per l interazione naturale: fondamenti probabilistici (1) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliMinimi quadrati e massima verosimiglianza
Minimi quadrati e massima verosimiglianza 1 Introduzione Nella scorsa lezione abbiamo assunto che la forma delle probilità sottostanti al problema fosse nota e abbiamo usato gli esempi per stimare i parametri
DettagliComputazione per l interazione naturale: clustering e riduzione di dimensionalità
Computazione per l interazione naturale: clustering e riduzione di dimensionalità Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliRegressione Mario Guarracino Laboratorio di Sistemi Informativi Aziendali a.a. 2006/2007
Regressione Esempio Un azienda manifatturiera vuole analizzare il legame che intercorre tra il costo mensile Y di produzione e il corrispondente volume produttivo X per uno dei propri stabilimenti. Volume
DettagliModelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri
Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano
DettagliComputazione per l interazione naturale: fondamenti probabilistici (2)
Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it
DettagliMachine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione
Corso di Bioinformatica Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di machine learning I metodi
DettagliRegressione Lineare Semplice e Correlazione
Regressione Lineare Semplice e Correlazione 1 Introduzione La Regressione è una tecnica di analisi della relazione tra due variabili quantitative Questa tecnica è utilizzata per calcolare il valore (y)
DettagliAlgoritmi di classificazione supervisionati
Corso di Bioinformatica Algoritmi di classificazione supervisionati Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di apprendimento supervisionato per problemi di biologia computazionale
DettagliParte I. Apprendimento supervisionato
Parte I Apprendimento supervisionato 1 1 I N T R O D U Z I O N E 1.1 obiettivi e applicazioni dei metodi di machine learning Per learning si intende il processo di individuare, a partire da un insieme
DettagliMetodi supervisionati di classificazione
Metodi supervisionati di classificazione Giorgio Valentini e-mail: valentini@dsi.unimi.it DSI - Dipartimento di Scienze dell'informazione Classificazione bio-molecolare di tessuti e geni Diagnosi a livello
DettagliPresentazione dell edizione italiana
1 Indice generale Presentazione dell edizione italiana Prefazione xi xiii Capitolo 1 Una introduzione alla statistica 1 1.1 Raccolta dei dati e statistica descrittiva... 1 1.2 Inferenza statistica e modelli
DettagliRegressione Lineare e Regressione Logistica
Regressione Lineare e Regressione Logistica Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: stefano.gualandi@unipv.it @famo2spaghi http://stegua.github.com 1 Introduzione
DettagliApprendimento Automatico
Apprendimento Automatico Metodi Bayesiani Fabio Aiolli 11 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 11 Dicembre 2017 1 / 19 Metodi Bayesiani I metodi Bayesiani forniscono tecniche computazionali
DettagliNel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0.
Regressione [] el modello di regressione lineare si assume una relazione di tipo lineare tra il valore medio della variabile dipendente Y e quello della variabile indipendente X per cui Il modello si scrive
DettagliUniversità del Piemonte Orientale Specializzazioni di area sanitaria Statistica Medica
Università del Piemonte Orientale Specializzazioni di area sanitaria Statistica Medica Regressione Lineare e Correlazione Argomenti della lezione Determinismo e variabilità Correlazione Regressione Lineare
DettagliRegressione. Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting
Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting Non lineare Variabile indipendente non lineare Ottimizzazione numerica (metodi iterativi) 1 Definizioni Nei
DettagliComputazione per l interazione naturale: fondamenti probabilistici
Computazione per l interazione naturale: fondamenti probabilistici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2017.html
DettagliUniversità del Piemonte Orientale Corso di Laurea in Medicina e Chirurgia. Corso di Statistica Medica. Correlazione. Regressione Lineare
Università del Piemonte Orientale Corso di Laurea in Medicina e Chirurgia Corso di Statistica Medica Correlazione Regressione Lineare Corso di laurea in medicina e chirurgia - Statistica Medica Correlazione
DettagliRiduzione di dimensionalità
Riduzione di dimensionalità SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliApprendimento statistico (Statistical Learning)
Apprendimento statistico (Statistical Learning) Il problema dell apprendimento Inquadriamo da un punto di vista statistico il problema dell apprendimento di un classificatore Un training set S={(x,y ),,(x
DettagliStatistica multivariata Donata Rodi 17/10/2016
Statistica multivariata Donata Rodi 17/10/2016 Quale analisi? Variabile Dipendente Categoriale Continua Variabile Indipendente Categoriale Chi Quadro ANOVA Continua Regressione Logistica Regressione Lineare
DettagliApprendimento statistico (Statistical Learning)
Apprendimento statistico (Statistical Learning) Il problema dell apprendimento Inquadriamo da un punto di vista statistico il problema dell apprendimento di un classificatore Un training set S={(x,y ),,(x
DettagliProcesso di identificazione
Processo di identificazione Problemi a scatola trasparente il modello viene ottenuto partendo dalla descrizione delle parti costituenti il sistema e delle leggi che lo regolano. Il problema dell identificazione
DettagliIndice. Prefazione. 4 Sintesi della distribuzione di un carattere La variabilità Introduzione La variabilità di una distribuzione 75
00PrPag:I-XIV_prefazione_IAS 8-05-2008 17:56 Pagina V Prefazione XI 1 La rilevazione dei fenomeni statistici 1 1.1 Introduzione 1 1.2 Caratteri, unità statistiche e collettivo 1 1.3 Classificazione dei
Dettagli9.3 Il metodo dei minimi quadrati in formalismo matriciale
8 CAPIOLO 9. IMA DEI PARAMERI MEODO DEI MINIMI QADRAI 9.3 Il metodo dei minimi quadrati in formalismo matriciale Nel caso si debba applicare il metodo minimi quadrati con molti parametri risulta vantaggioso
DettagliLezione 1. 1 Probabilità e statistica. 2 Definizioni di probabilità. Statistica e analisi dei dati Data: 22 Febbraio 2016
Statistica e analisi dei dati Data: 22 Febbraio 2016 Lezione 1 Docente: Prof. Giuseppe Boccignone Scriba: Nicolò Pisaroni 1 Probabilità e statistica Probabilità: Un modello probabilistico é una descrizione
DettagliSequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:
Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza
DettagliUniversità del Piemonte Orientale Corso di Laurea in Medicina e Chirurgia. Corso di Statistica Medica. Correlazione. Regressione Lineare
Università del Piemonte Orientale Corso di Laurea in Medicina e Chirurgia Corso di Statistica Medica Correlazione Regressione Lineare Corso di laurea in medicina e chirurgia - Statistica Medica Correlazione
DettagliClassificazione introduzione
- Classificazione introduzione Vittorio Maniezzo Università di Bologna 1 Ringraziamenti Questi lucidi derivano anche da adattamenti personali di materiale prodotto (fornitomi o reso scaricabile) da: A.
DettagliPrefazione Ringraziamenti dell'editore Il sito web dedicato al libro Test online: la piattaforma McGraw-Hill Education Guida alla lettura
INDICE GENERALE Prefazione Ringraziamenti dell'editore Il sito web dedicato al libro Test online: la piattaforma McGraw-Hill Education Guida alla lettura XI XIV XV XVII XVIII 1 LA RILEVAZIONE DEI FENOMENI
DettagliArgomenti della lezione:
Lezione 7 Argomenti della lezione: La regressione semplice Il modello teorico Il calcolo dei parametri Regressione lineare Esamina la relazione lineare tra una o più variabili esplicative (o indipendenti,
DettagliIL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA
Metodi per l Analisi dei Dati Sperimentali AA009/010 IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Sommario Massima Verosimiglianza Introduzione La Massima Verosimiglianza Esempio 1: una sola misura sperimentale
DettagliIndice. Prefazione Ringraziamenti
Prefazione Ringraziamenti xi xiv Argomento di ripasso Argomento più difficile 1 Matrici e vettori 1 1.1 Matrici 1 1.2 Esercizi 11 1.3 Vettori di R 2 14 1.4 Esercizi 20 1.5 Vettori di R 3 21 1.6 Rette 24
DettagliIndice. centrale, dispersione e forma Introduzione alla Statistica Statistica descrittiva per variabili quantitative: tendenza
XIII Presentazione del volume XV L Editore ringrazia 3 1. Introduzione alla Statistica 5 1.1 Definizione di Statistica 6 1.2 I Rami della Statistica Statistica Descrittiva, 6 Statistica Inferenziale, 6
DettagliComputazione per l interazione naturale: fondamenti probabilistici
Computazione per l interazione naturale: fondamenti probabilistici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html
DettagliLa likelihood. , x 2. } sia prodotto a partire dal particolare valore di a: ; a... f x N. La probabilità che l'i ma misura sia compresa tra x i
La likelihood E' dato un set di misure {x 1, x 2, x 3,...x N } (ciascuna delle quali puo' essere multidimensionale) Supponiamo che la pdf (f) dipenda da un parametro a (anch'esso eventualmente multidimensionale)
DettagliCorso di Statistica Industriale
Corso di Statistica Industriale Corsi di Laurea Specialistica in Ingegneria Gestionale e Ingegneria Meccanica Docente: Ilia Negri Orario del corso: Martedì: dalle 14.00 alle 16.00 Venerdì: dalle 10.30
DettagliSTATISTICA. Regressione-2
STATISTICA Regressione-2 Esempio Su un campione di =5unità sono state osservate due variabili, ed : x i 1 2 3 4 5 y i 1.5 2.5 3 2.5 3.5 1. Rappresentare l andamento congiunto di in funzione di mediante
DettagliMetodi Numerici con elementi di Programmazione (A.A )
Metodi Numerici con elementi di Programmazione (A.A. 2013-2014) Metodi Numerici Appunti delle lezioni: Approssimazione di dati e funzioni Approssimazione ai minimi quadrati Docente Vittoria Bruni Email:
DettagliRegressione Polinomiale
Regressione Polinomiale Nel lavoro che segue ci proponiamo di descrivere alcune curve di adattamento con il metodo dei minimi quadrati e di fornire un metodo iterativo per generalizzare tali funzioni a
DettagliLezioni del Corso di Fondamenti di Metrologia Meccanica
Facoltà di Ingegneria Lezioni del Corso di Fondamenti di Metrologia Meccanica 06. La regressione Regressione Metodo dei minimi quadrati Se due popolazioni sono correlate tra loro e se il coefficiente di
DettagliFacoltà di Psicologia Università di Padova Anno Accademico Corso di Psicometria - Modulo B
Facoltà di Psicologia Università di Padova Anno Accademico 2010-2011 Corso di Psicometria - Modulo B Dott. Marco Vicentini marco.vicentini@unipd.it Rev. 27/12/2010 Regressione lineare Modello geometrico
DettagliUniversità di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A
Università di Siena Teoria della Stima Lucidi del corso di A.A. 2002-2003 Università di Siena 1 Indice Approcci al problema della stima Stima parametrica Stima bayesiana Proprietà degli stimatori Stime
DettagliMetodo dei Minimi Quadrati. Dott. Claudio Verona
Metodo dei Minimi Quadrati Dott. Claudio Verona E in generale interessante studiare l andamento di una variabile in funzione di un altra e capire se c è una funzione matematica che le lega. Viceversa è
DettagliComputazione per l interazione naturale: macchine che apprendono
Computazione per l interazione naturale: macchine che apprendono Corso di nterazione aturale Prof Giuseppe Boccignone Dipartimento di nformatica Università di ilano boccignone@diunimiit boccignonediunimiit/_016html
DettagliPROBABILITÀ ELEMENTARE
Prefazione alla seconda edizione XI Capitolo 1 PROBABILITÀ ELEMENTARE 1 Esperimenti casuali 1 Spazi dei campioni 1 Eventi 2 Il concetto di probabilità 3 Gli assiomi della probabilità 3 Alcuni importanti
Dettagli1 PROCESSI STOCASTICI... 11
1 PROCESSI STOCASTICI... 11 Introduzione... 11 Rappresentazione dei dati biomedici... 11 Aleatorietà delle misure temporali... 14 Medie definite sul processo aleatorio... 16 Valore atteso... 16 Esercitazione
DettagliSequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:
Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza
DettagliComputazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning)
Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliUniversità di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti
Università di Siena Corso di STATISTICA Parte seconda: Teoria della stima Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Master E 2 C Centro per lo Studio dei Sistemi Complessi Università di
DettagliCampionamento. Una grandezza fisica e' distribuita secondo una certa PDF
Campionamento Una grandezza fisica e' distribuita secondo una certa PDF La pdf e' caratterizzata da determinati parametri Non abbiamo una conoscenza diretta della pdf Possiamo determinare una distribuzione
DettagliMaria Prandini Dipartimento di Elettronica e Informazione Politecnico di Milano
Note relative a test di bianchezza rimozione delle componenti deterministiche da una serie temporale a supporto del Progetto di Identificazione dei Modelli e Analisi dei Dati Maria Prandini Dipartimento
DettagliL A B C di R. Stefano Leonardi c Dipartimento di Scienze Ambientali Università di Parma Parma, 9 febbraio 2010
L A B C di R 0 20 40 60 80 100 2 3 4 5 6 7 8 Stefano Leonardi c Dipartimento di Scienze Ambientali Università di Parma Parma, 9 febbraio 2010 La scelta del test statistico giusto La scelta della analisi
DettagliCorrelazione e regressione
Correlazione e regressione Il termine associazione è largamente usato nella letteratura scientifica ed esprime la relazione che esiste tra due variabili Per studiare l associazione tra due variabili bisogna
DettagliSistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese
Sistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese Università degli Studi di Milano Laboratory of Applied Intelligent Systems (AIS-Lab) Dipartimento di Informatica borghese@di.unimi.it
DettagliNote introduttive alla probabilitá e alla statistica
Note introduttive alla probabilitá e alla statistica 1 marzo 2017 Presentiamo sinteticamente alcuni concetti introduttivi alla probabilitá e statistica 1 Probabilità e statistica Probabilità: Un modello
DettagliApprossimazione di dati
Approssimazione di dati Lucia Gastaldi DICATAM - Sez. di Matematica, http://dm.ing.unibs.it/gastaldi/ Indice 1 Approssimaz. di dati Approssimazione di dati 2 Minimi quadrati lineari Regressione lineare
DettagliUniversity of Messina, Italy
ERRORI CASUALI NELL ANALISI CHIMICA 1 Errori casuali Gli errori casuali si incontrano tutte le volte che un sistema di misura viene usato al massimo della sua sensibilità. In queste circostanze i risultati
DettagliEsame di Calcolo Numerico per Informatica A.A. 2010/11 Proff. S. De Marchi e M. R. Russo 31 agosto 2011 Testo e soluzioni
Esame di Calcolo Numerico per Informatica A.A. 21/11 Proff. S. De Marchi e M. R. Russo 31 agosto 211 Testo e soluzioni L esame consiste di 4 domande aperte e 1 esercizi a risposta multipla. Per gli esercizi
DettagliCorso Integrato di Statistica Informatica e Analisi dei Dati Sperimentali. Esercitazione E
Corso Integrato di Statistica Informatica e Analisi dei Dati Sperimentali A.A 2009-2010 Esercitazione E Scopo dell esercitazione Applicazioni del teorema del limite centrale. Rappresentazione delle incertezze
DettagliUniversity of Messina, Italy
ERRORI CASUALI ELL AALISI CHIMICA Errori casuali Gli errori casuali si incontrano tutte le volte che un sistema di misura viene usato al massimo della sua sensibilità. In queste circostanze i risultati
DettagliSTATISTICA MULTIVARIATA SSD MAT/06
Università degli studi di Ferrara Dipartimento di Matematica A.A. 2018/2019 I semestre STATISTICA MULTIVARIATA SSD MAT/06 LEZION 13 Analisi della interdipendenza e della dipendenza : overview Docente:
DettagliRiconoscimento e recupero dell informazione per bioinformatica
Riconoscimento e recupero dell informazione per bioinformatica Teoria della decisione di Bayes Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario
DettagliTeoria dei Fenomeni Aleatori AA 2012/13
Introduzione alla Statistica Nella statistica, anziché predire la probabilità che si verifichino gli eventi di interesse (cioè passare dal modello alla realtà), si osserva un fenomeno se ne estraggono
DettagliSTATISTICA A K (60 ore)
STATISTICA A K (60 ore) Marco Riani mriani@unipr.it http://www.riani.it Richiami sulla regressione Marco Riani, Univ. di Parma 1 MODELLO DI REGRESSIONE y i = a + bx i + e i dove: i = 1,, n a + bx i rappresenta
DettagliIl metodo dei minimi quadrati. Molto spesso due grandezze fisiche x e y, misurabili direttamente, sono legate tra loro da una legge del tipo:
Il metodo dei minimi quadrati Molto spesso due grandezze fisiche x e y, misurabili direttamente, sono legate tra loro da una legge del tipo: Dove A e B sono costanti y = A + Bx (ad esempio in un moto uniformemente
DettagliApprossimazione di dati
Lucia Gastaldi DICATAM - Sez. di Matematica, http://lucia-gastaldi.unibs.it Indice 1 2 Regressione lineare : caso generale Legge di Ohm La legge di Ohm afferma che la differenza di potenziale V ai capi
DettagliTeoria delle Decisioni Bayesiana
Laurea Magistrale in Informatica Nicola Fanizzi Dipartimento di Informatica Università degli Studi di Bari 14 gennaio 2009 Sommario Introduzione Teoria delle decisioni Bayesiana - nel continuo Classificazione
DettagliIl problema lineare dei minimi quadrati
Il problema lineare dei minimi quadrati APPLICAZIONE: Il polinomio di migliore approssimazione nel senso dei minimi quadrati Felice Iavernaro Dipartimento di Matematica Università di Bari 15 Gennaio 2009
DettagliInnanzitutto preparo i dati:
Per il composto acido formico: Vogliamo determinare come varia la pressione di saturazione In funzione della temperatura, sopra il punto di fusione Abbiamo a disposizione i seguenti dati sperimentali:
DettagliAnalisi Discriminante Strumenti quantitativi per la gestione
Analisi Discriminante Strumenti quantitativi per la gestione Emanuele Taufer Un esempio introduttivo Approccio con Bayes Perchè un altro metodo di classificazione? Classificazione con Bayes Analisi discriminante
DettagliApprossimazione di dati
Lucia Gastaldi DICATAM - Sez. di Matematica, http://lucia-gastaldi.unibs.it Indice 1 2 Regressione lineare : caso generale Legge di Ohm La legge di Ohm afferma che la differenza di potenziale V ai capi
DettagliRischio statistico e sua analisi
F94 Metodi statistici per l apprendimento Rischio statistico e sua analisi Docente: Nicolò Cesa-Bianchi versione 7 aprile 018 Per analizzare un algoritmo di apprendimento dobbiamo costruire un modello
DettagliStatistica Applicata all edilizia: il modello di regressione
Statistica Applicata all edilizia: il modello di regressione E-mail: orietta.nicolis@unibg.it 27 aprile 2009 Indice Il modello di Regressione Lineare 1 Il modello di Regressione Lineare Analisi di regressione
DettagliStima dei Parametri. Capitolo 8
Capitolo 8 Stima dei Parametri Lo scopo dello studio dei fenomeni fisici è quello di scoprire le leggi che legano le grandezze oggetto di indagine e di misurare il valore delle costanti che compaiono della
Dettaglib vettore(termine noto) y* proiezione ortogonale di b
Carla Guerrini 1 Sistemi sovradeterminati Sia A una matrice m n ove m > n sia b R m trovare una soluzione del sistema sovradeterminato Ax = b significa cercare di esprimere un vettore di R m come combinazione
DettagliIntroduzione a Matlab Costruzione di Macchine 2 Prof. Sergio Baragetti
Esercitazioni del corso di Costruzione di Macchine 2 a cura dell ing. Francesco Villa Introduzione a Matlab Costruzione di Macchine 2 Prof. Sergio Baragetti Dalmine - 27/02/2013 Introduzione a Matlab FONDAMENTI
DettagliMetodi di Ottimizzazione
Metodi di Ottimizzazione Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: stefano.gualandi@unipv.it @famospaghi, @famoconti http://stegua.github.com Metodi di Ottimizzazione
Dettagli