Riduzione di dimensionalità

Documenti analoghi
Statistica Inferenziale

Applicazioni lineari e diagonalizzazione. Esercizi svolti

Tempo a disposizione: 150 minuti. 1 È dato l endomorfismo f : R 3 R 3 definito dalle relazioni

CIRCUITI INTELLIGENTI Parte 5: PCA e ICA

Heap e code di priorità

Architettura Software di un Sistema di Controllo per Multirotore

Interpolazione Statistica

Informatica Grafica. Un introduzione

Metodo dei minimi quadrati e matrice pseudoinversa

Esercizi sui vettori liberi (i, j, k è una base ortonormale positiva)

Facoltà di Scienze Politiche Corso di laurea in Servizio sociale. Compito di Statistica del 7/1/2003

Esercizi svolti. Geometria analitica: rette e piani

Prodotti scalari e matrici

QUADERNI DIDATTICI. Dipartimento di Matematica. Esercizi di Geometria ealgebralinearei Corso di Studi in Fisica

UNIVERSITA DI PISA FACOLTA DI INGEGNERIA CORSO DI LAUREA IN INGEGNERIA ELETTRONICA ANNO ACCADEMICO TESI DI LAUREA

ax 1 + bx 2 + c = 0, r : 2x 1 3x = 0.

Calibrazione di modelli matematici

CORSO DI STATISTICA (parte 1) - ESERCITAZIONE 5

Generazione di Numeri Casuali- Parte 2

Cercare il minimo di una funzione: Particle swam optimization

Esercizi svolti per Geometria 1 per Fisici 2008/09

Indice Premessa Cenni storici delle misure

Problemi di Flusso: Il modello del Trasporto

Principal. component analysis. Dai volti agli spettri di galassie

ESERCIZI SUI SISTEMI LINEARI

Esame di Statistica (10 o 12 CFU) CLEF 11 febbraio 2016

a + 2b + c 3d = 0, a + c d = 0 c d

METODI DI CLASSIFICAZIONE. Federico Marini

Prof.ssa Laura Pagnozzi Prof. Ivano Coccorullo. Calcolo Combinatorio

SISTEMI LINEARI. x 2y 2z = 0. Svolgimento. Procediamo con operazioni elementari di riga sulla matrice del primo sistema: R 2 R 2 3R

Distribuzioni campionarie. Antonello Maruotti

Universita degli Studi di Roma Tor Vergata Facolta di Ingegneria Elettronica

Tecniche di riconoscimento statistico

Linguaggi e Grammatiche Liberi da Contesto

SISTEMI LINEARI MATRICI E SISTEMI 1

Prof.ssa Laura Pagnozzi Prof. Ivano Coccorullo. Calcolo Combinatorio

LEZIONE 10. S(C,ρ) Figura 10.1

Analisi Univariata e Multivariata dei Dati Economici Bruno Ricca (Dipartimento di studi su risorse, impresa, ambiente e metodologie quantitative)

Istituzioni di Statistica 1 Esercizi su strumenti grafici e funzione di frequenza relativa cumulata

04 - Numeri Complessi

Analisi. Calcolo Combinatorio. Ing. Ivano Coccorullo

LEZIONE 23. ax 2 + bxy + cy 2 + dx + ey + f

S 2 S 1 S 3 S 4 B S 5. Figura 1: Cammini diversi per collegare i due punti A e B

STIMA DELLA VARIANZA CAMPIONARIA

GEOMETRIA LINEARE E CONICHE - GIUGNO Nello spazio ordinario, assegnato un riferimento ortonormale si considerino le rette: x = z 2 y = z

Capacità: Analizzare un problema semplice. Valutare la congruenza dei risultati con i dati e le informazioni iniziali.

Esame di FONDAMENTI DI AUTOMATICA (9 crediti) SOLUZIONE

Metodologia di applicazione dei modelli di massima verosimiglianza per il trattamento dei dati missing

STATISTICHE DESCRITTIVE Parte II

ESERCIZI SVOLTI Giuliano Bonollo - Michele Bonollo

PROBLEMI DI SCELTA dipendenti da due variabili d azione

Grazie ai Colleghi di Geometria del Dipartimento di Matematica dell Università degli Studi di Torino per il loro prezioso contributo. Grazie al Prof.

Calcolo Numerico con elementi di programmazione

Robotica industriale. Richiami di statica del corpo rigido. Prof. Paolo Rocco

Calcolo Numerico (A.A ) Lab n. 12 Approssimazione

Circonferenze del piano

Campionamento La statistica media campionaria e la sua distribuzione

Esame di Geometria - 9 CFU (Appello del 28 gennaio A)

Prova scritta di Geometria 2 Prof. M. Boratynski

STATISTICHE, DISTRIBUZIONI CAMPIONARIE E INFERENZA

1) Quali dei seguenti sottoinsiemi del campo dei numeri reali ℝ sono sottospazi vettoriali?

Metodi per la scelta dell ordine ottimo AR

Corso di Calcolo Numerico

ANALISI DEI DATI PER IL MARKETING 2014

Esercizi su Autovalori e Autovettori

Ripasso tramiti esempi - Applicazioni lineari e matrici

ESERCIZI SVOLTI SUL CALCOLO INTEGRALE

CONICHE. Esercizi Esercizio 1. Nel piano con riferimento cartesiano ortogonale Oxy sia data la conica C di equazione

CORSO DI LAUREA IN MATEMATICA

L osservabilita delle reti di distribuzione e i benefici per il gestore del sistema elettrico

Fondamenti di Informatica per la Sicurezza a.a. 2006/07. Calcolatori. Stefano Ferrari

Daniela Lera A.A

Algebra Lineare (Matematica C.I.), Sistemi di equazioni lineari. 1. Un equazione lineare in una incognita reale x e un equazione del tipo

La statistica multivariata

CORSO DI LAUREA IN MATEMATICA ESERCIZI SUI LIMITI 2

Ricevitori per più antenne

Analisi delle Componenti Principali

Appunti ed esercizi sulle coniche

Catene di Markov. 8 ottobre 2009

La riduzione a gradini e i sistemi lineari (senza il concetto di rango)

Esercizi sulle affinità - aprile 2009

Corso di Laurea in Ingegneria Informatica Analisi Numerica

Corso di Calcolo Numerico

0.1 Esercizi calcolo combinatorio

1 Regole generali per l esame. 2 Libro di Testo

Sistemi Web per il turismo - lezione 3 -

Ricerca Operativa. Docente. 1. Introduzione

ITCS Erasmo da Rotterdam. Anno Scolastico 2014/2015. CLASSE 4^ M Costruzioni, ambiente e territorio

LEZIONI DI ALGEBRA LINEARE PER LE APPLICAZIONI FINANZIARIE

Esami a. a Analisi Matematica Svolgere i seguenti esercizi motivando tutte le risposte.

Note sull implementazione in virgola fissa di filtri numerici

ECONOMIA APPLICATA ALL INGEGNERIA (Docente: Prof. Ing. Donato Morea) Microeconomia Esercitazione n. 1 - I FONDAMENTI DI DOMANDA E DI OFFERTA

Il sistema informativo aziendale

TEMA Della seguente matrice, calcolare i complementi algebrici e il determinante: a + b 1 a 2 S = a + b + 3 a + 2b. x = t. f = x 2 + 2xy 3y 2,

ELEMENTI DI ALGEBRA LINEARE E GEOMETRIA Corso di Laurea Ingegneria Edile-Architettura

Federico Lastaria. Analisi e Geometria 2. Matrici simmetriche. Il teorema spettrale. 1/24

INTERPOLAZIONE. Francesca Pelosi. Dipartimento di Matematica, Università di Roma Tor Vergata. CALCOLO NUMERICO e PROGRAMMAZIONE

CORSO DI FONDAMENTI DI DISEGNO TECNICO LEZIONE 1 METODI DI RAPPRESENTAZIONE

Esercizi di Probabilità

Principal Component Analysis (PCA)

Transcript:

Riduzione di dimensionalità SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it http://boccignone.di.unimi.it/fismed_2015.html Modelli per la riduzione di dimensionalità

Dimensionality reduction Analisi per componenti principali Principal Component Analysis (PCA) Trovare un piccolo numero (dimensione) di direzioni che spiega le correlazioni nei dati di input: lo spazio latente Si possono rappresentare i dati proiettandoli su tali direzioni I dati sono continui, il mapping tra lo spazio latente e lo spazio dei dati osservati è lineare Utile per:

Analisi per componenti principali //Descrizione intuitiva N vettori di dati di dimensionalità D:, Spazio di proiezione (latente) di dimensionalità k<<d Si cercano le direzioni ortogonali di massima varianza Analisi per componenti principali //Descrizione intuitiva N vettori di dati di dimensionalità D:, Spazio di proiezione (latente) di dimensionalità k<<d Si cercano le direzioni ortogonali di massima varianza La struttura dei vettori è rappresentata nella matrice di covarianza empirica Le direzioni cercate sono gli autovettori di C

Esempio Analisi per componenti principali //Descrizione intuitiva Si selezionano gli autovettori di C Si proiettano i vettori di input nel sottospazio: Si puo ricostruire x usando K autovettori

Analisi per componenti principali //Descrizione intuitiva Analisi per componenti principali //Descrizione intuitiva Calcolo della base Proiezione e ricostruzione

Esempio: PCA Analisi per componenti principali //Esempi Dati input D= Autovettori (K=48)

Analisi per componenti principali //Esempi K=10 K=100 PCA (1) //Direzione di massima varianza Consideriamo il mapping dallo spazio latente x a y Trovare w in maniera da massimizzare var(y) sotto il vincolo Si può dimostrare che w* è autovettore di C

PCA (2) //Minimizzazione dell errore di ricostruzione Consideriamo il mapping dallo spazio latente x a y Vogliamo minimizzare l errore quadratico di ricostruzione Risolvendo per alfa e sostituendo Con il vincolo Modelli a variabili latenti lineari //PCA probabilistica (PPCA) Si utilizza un modello generativo

Modelli a variabili latenti lineari //PCA probabilistica (PPCA) Si utilizza un modello generativo Modelli a variabili latenti lineari //PCA probabilistica (PPCA) Stima di ML: Expectation-Maximization

Modelli a variabili latenti non lineari //ICA: Independent Component Analysis Noto anche come Blind Source Separation o Blind Signal Separation Modelli a variabili latenti non lineari //ICA: Independent Component Analysis

Esempio: demixing con ICA (fastica) Modelli a variabili latenti non lineari //ICA: intuizione Noto anche come Blind Source Separation o Blind Signal Separation Supponiamo di avere due segnali 1D (rappresentati in 2D) z_1 z_2

Modelli a variabili latenti non lineari //ICA: intuizione Noto anche come Blind Source Separation o Blind Signal Separation Mixiamo le due sorgenti 1D (rappresentati in 2D) x_1 x_2 Modelli a variabili latenti non lineari //ICA: intuizione Noto anche come Blind Source Separation o Blind Signal Separation Mixiamo le due sorgenti 1D (rappresentati in 2D) e otteniamo i segnali x_1 x_2

Modelli a variabili latenti non lineari //ICA: intuizione Noto anche come Blind Source Separation o Blind Signal Separation Decorrelazione dei segnali sbiancando white_x_1 white_x_2 Modelli a variabili latenti non lineari //ICA: intuizione Noto anche come Blind Source Separation o Blind Signal Separation Gaussianità dei dati sbiancati (teorema del limite centrale) white_x_1 white_x_2

Modelli a variabili latenti non lineari //ICA: intuizione Noto anche come Blind Source Separation o Blind Signal Separation ICA ruota i dati decollati in maniera tale da minimizzare la Gaussianità ICA_z_1 ICA_z_2 Modelli a variabili latenti non lineari //ICA: formalmente. Noto anche come Blind Source Separation o Blind Signal Separation Si utilizza un modello generativo o più semplicemente mixing matrix #sorgenti = #sensori

Modelli a variabili latenti non lineari //ICA: formalmente. Modelli a variabili latenti non lineari //ICA: formalmente.

Modelli a variabili latenti non lineari //ICA: Independent Component Analysis Noto anche come Blind Source Separation o Blind Signal Separation Modelli a variabili latenti non lineari //ICA: Independent Component Analysis Si utilizza un modello generativo BSS = stimare mixing matrix #sorgenti = #sensori

Modelli a variabili latenti non lineari //ICA: Independent Component Analysis Si utilizza un modello generativo BSS = stimare mixing matrix #sorgenti = #sensori PCA ICA Modelli a variabili latenti non lineari //ICA: Independent Component Analysis ICA PCA

Modelli a variabili latenti non lineari //ICA: Independent Component Analysis Modelli a variabili latenti non lineari //ICA: Stima di massima verosimiglianza log-likelihood

Modelli a variabili latenti non lineari //ICA: Stima di massima verosimiglianza log-likelihood Dati sbiancati: ortogonale Modelli a variabili latenti non lineari //ICA: fastica Minimizzo sotto il vincolo che sia ortonormale Minimizzo funzione obiettivo Newton-Raphson fastica

Modelli a variabili latenti non lineari //ICA: Stima di massima verosimiglianza Minimizzo sotto il vincolo che sia ortonormale Minimizzo funzione obiettivo distribuzione di Laplace distribuzione logistica Modelli a variabili latenti non lineari //ICA: Applicazioni

Modelli a variabili latenti non lineari //ICA: Applicazioni Modelli a variabili latenti non lineari //ICA: Applicazioni