Riduzione Dimensionalità
|
|
|
- Giancarlo Leoni
- 8 anni fa
- Visualizzazioni
Transcript
1 Introduzione Definizioni PCA vs LDA Principal Component Analysis (PCA) Linear Discriminant Analysis (LDA) t-sne 1
2 Definizioni Obiettivo dei metodi per la riduzione di dimensionalità (dimensionality reduction) è quello di eseguire un mapping dallo spazio iniziale d a uno spazio di dimensione inferiore k, k < d. Può essere vista come una forma di compressione (con perdita di informazione). Obiettivo è scartare le informazioni non rilevanti o meno rilevanti per il problema di interesse: operare in spazi a dimensionalità inferiore rende più semplice addestrare algoritmi di machine learning. Scartando dati ridondanti (informazioni correlate) e rumorosi talvolta si migliorano anche le prestazioni. Attenzione: riduzione di dimensionalità non significa mantenere alcune «dimensioni» e cancellarne altre, ma «combinare» le dimensioni in modo opportuno. Le più note tecniche di riduzione di dimensionalità sono: Principal Component Analysis (PCA): trasformazione nonsupervisionata nota anche come Karhunen Loeve (KL) transform. Esegue un mapping lineare con l obiettivo di preservare al massimo l informazione dei pattern. Linear Discriminant Analysis (LDA): il mapping è ancora lineare, ma in questo caso è supervisionato. Mentre PCA privilegia le dimensioni che rappresentano al meglio i pattern, LDA privilegia le dimensioni che discriminano al meglio i pattern del TS. t-distributed Stochastic Neighbor Embedding (t-sne): trasformazione non lineare e non supervisionata, specificatamente ideata per ridurre dimensionalità a 2 o 3 dimensioni onde poter visualizzare dati multidimensionali. 2
3 Esempio PCA vs LDA In figura due esempi di riduzione di dimensionalità da d = 2 a k = 1 dimensione: Il segmento nero che identifica la soluzione PCA è l iperpiano sul quale proiettando i pattern (indipendentemente dalla loro classe) conserviamo al massimo l informazione. Il segmento verde che identifica la soluzione LDA è l iperpiano sul quale proiettando i pattern siamo in grado di distinguere al meglio le due classi (pattern rossi contro blu). Entrambi sono mapping lineari 2 1 ma la soluzione (retta) è profondamente diversa. 3
4 Principal Component Analysis (PCA) Dato un training set TS = x i d, i = 1 n, siano: തx = 1 n i=1 n x i Σ = 1 n 1 i=1 n x i തx x i തx t il vettore medio d e la matrice di covarianza d d (definizioni simili a quelle usate per il classificatore di Bayes parametrico con multinormali. La divisione per n 1 invece di n dovuta a correzione di Bessel per caso unbiased). allora per un dato k (k < d, k < n, k > 0), lo spazio k dimensionale (S തx,Φk ) è univocamente definito dal vettore medio e dalla matrice di proiezione Φ k d k le cui colonne sono costituite dagli autovettori di Σ corrispondenti ai k più grandi autovalori: Φ k = φ i1, φ i2 φ ik con λ i1 λ i2 λ ik λ id φ ir autovettore di Σ corrispondente all autovalore λ ir, r = 1 d φ i2 φ i1 φ i1 indica la direzione di maggior varianza nel training set TS I primi k autovettori sono detti componenti principali 4
5 PCA: proiezione e retroproiezione Proiezione ( ): una volta determinato lo spazio PCA, la proiezione di un pattern su tale spazio è semplicemente la proiezione geometrica di un vettore sull iperpiano che definisce lo spazio. In realtà la vera proiezione geometrica è un vettore che ha la stessa dimensionalità del vettore originale mentre in questo contesto indichiamo con proiezione il vettore (ridotto) nello spazio PCA. Matematicamente questa operazione è eseguita come prodotto della matrice di proiezione trasposta per il pattern al quale è preventivamente sottratta la media. PCA: d k x d = 3, k = 2 PCA x, S തx,Φk = Φ k t x തx y = PCA x, S തx,Φk S തx,Φk Retro-proiezione ( ): Dato un vettore nello spazio PCA, la sua retro-proiezione verso lo spazio originale si ottiene moltiplicando il vettore per la matrice di proiezione e sommando il vettore medio. Questa trasformazione non sposta spazialmente il vettore, che giace ancora sullo spazio PCA, ma opera un cambiamento di coordinate che ne permette la codifica in termini delle d componenti dello spazio originale. PCA: k d PCA y, S തx,Φk = Φ k y + തx 5
6 PCA: esempio riduzione 2 1 Spazio KL (k = 1) 0 y = PCA x, S തx,Φk φ 2 Φ 1 = φ 1, Φ x 2 Spazio iniziale (d = 2) x x 2 λ 1 y 2 y 1 φ 1 y = y 1, y 1 തx λ 2 x = PCA y, S തx,Φk തx = x 1, x t 2, x 2 Φ = φ 1, φ 2, Φ 2 2 x = x 1, x t 2, x 2 x 1 x 1 L ellisse rappresenta la distribuzione dei pattern nel training set. φ 1 e φ 2 sono gli autovettori della matrice di covarianza. Gli autovalori λ 1 e λ 2 sono le varianze della distribuzione lungo gli assi φ 1 e φ 2. y 1 e y 2 sono le proiezioni di x sugli assi φ 1 e φ 2. Se λ 2 è piccolo, x può essere approssimato con x (retroproiezione di y) senza perdite significative di informazione. Si può dimostrare che tra tutte le riduzioni di dimensionalità lineari PCA è quella che preserva al massimo l informazione dei vettori originali. 6
7 PCA: scelta di k Talvolta la scelta di k è obbligata: ad esempio per la visualizzazione 2D o 3D dei dati. Quando invece l obiettivo è quello di scartare informazione inutile e dati correlati mantenendo gran parte del contenuto informativo si può scegliere k nel modo seguente: Fissata una percentuale t del contenuto informativo che si vuole preservare (es. t = 95%) si sceglie il minimo valore di k per cui la somma dei più grandi k autovalori, rispetto alla somma di tutti gli autovalori, è maggiore o uguale a t. Considerando gli autovalori ordinati in ordine decrescente: k = arg min z σ i=1 z σ i=1 d λ i λ i t Infatti, ricordando che gli autovalori denotano la varianza lungo i diversi assi, il rapporto nella formula indica la varianza «conservata» rispetto alla varianza totale. 7
8 PCA: codifica di un immagine i primi 8 autovettori o componenti principali (denominati eigenfaces nell applicazione al riconoscimento volto) Immagine originale Ricostruzione (retroproiezione) x x y = PCA x, S തx,Φ15 x = PCA y, S തx,Φ15 y 15 proiezione retro-proiezione 8
9 Calcolo PCA in pratica Per d elevato (tipico nel caso di immagini, audio, ecc.) la matrice di covarianza può essere molto grande. per d = 16500, Σ , oltre 272 milioni di valori! se n d, è conveniente calcolare la matrice di proiezione (primi k autovettori) attraverso decomposizione SVD della matrice rettangolare dei pattern centralizzati X d n senza passare per la matrice di covarianza (vedi [1]). X = x 1 തx x 2 തx x n തx Attenzione formato trasposto rispetto a X usata in regressione. Ogni pattern una colonna. decomposizone SVD per d > n : X = UΓV t, con U d n ortonormale, con V n n ortonormale, Γ n n diagonale. Σ = 1 n XXt = 1 n UΓVt VΓU t = 1 n UΓ2 U t decomposizione spettrale della matrice quadrata Σ Autovettori e autovalori di Σ possono dunque essere ottenuti dalle colonne di U (vettori singolari sinistri di X) e corrispondenti elementi diagonali di Γ al quadrato (valori singolari al quadrato di X). [1] R. Madsen, L. Hansen, O. Winther, Singular Value Decomposition and Principal Component Analysis, 9
10 PCA Whitening È una tecnica di pre-normalizzazione dei dati, che: Rimuove le correlazioni tra le dimensioni, ruotando la nuvola di punti per allineare gli assi di variazione principale dei dati (autovettori) agli assi cartesiani. φ 1 φ 2 φ 2 φ 1 Sfericizza l ellissoide, uniformando le varianze (denotate dagli autovalori) a 1 lungo tutti gli assi φ 2 φ 2 φ 1 φ 1 Dopo aver proiettato i pattern sullo spazio PCA (definito dai primi k autovettori) è sufficiente dividere ogni dimensione per la radice quadrata dell autovalore corrispondente (deviazione standard). La matrice di covarianza dei dati normalizzati è l identità. 10
11 peso Linear Discriminant Analysis (LDA) Riduzione di dimensionalità lineare e supervisionata il cui obiettivo è massimizzare la separazione tra le classi (che nel TS sono etichettate). L esempio seguente mostra che al fine della discriminazione la soluzione ottimale può essere anche molto diversa dalla soluzione PCA. LDA uomini PCA donne altezza Per formulare il criterio di ottimizzazione di massima separazione tra le classi sono definite le seguenti matrici di scattering (in italiano sparpagliamento ): within-class S w : indica come i vettori sono scattered rispetto al centro delle classi (ciascuno rispetto alla propria classe). between-class S b : indica come i centri delle classi sono scattered rispetto al centro generale della distribuzione (ovvero quanto le classi sono scattered). Una matrice di scatter si calcola come una matrice di covarianza senza normalizzare per il numero di pattern 11
12 Calcolo LDA Dato un training set TS contenente n pattern x 1, y 1 x n, y n, dove x i d sono i pattern multidimensionali e y i [1 s] le etichette delle s classi. Siano n i e ഥx i il numero di pattern e il vettore medio della classe i-esima. Allora le matrici di scattering sono definite come: within-class: S w = i=1 s S i, S i = x j y j =i x j ഥx i x j ഥx i t between-class: pattern della classe i esima S b = i=1 s n i ഥx i x 0 ഥx i x 0 t, x 0 = 1 n i=1 s n i ഥx i Tra i diversi criteri di ottimizzazione possibili quello più frequentemente utilizzato è la massimizzazione della quantità: J 1 = tr S w 1 S b media globale = λ i i=1 d dove tr è la traccia (somma degli autovalori) della matrice. Il criterio è intuitivo in quanto cerca di massimizzare lo scattering tra le classi (S b ) minimizzando al contempo (matrice inversa S w 1 ) quello all interno di ogni classe. Si dimostra che per la massimizzazione di J 1 lo spazio LDA è definito (analogia con PCA) dagli autovettori relativi ai primi k (k < n, k < s, k < d) autovalori della matrice S 1 w S b. valore massimo di k = s 1 12
13 t-distributed Stochastic Neighbor Embedding (t-sne) È una tecnica non lineare (non supervisionata) per la riduzione di dimensionalità introdotta nel 2008 da Van der Maaten e Hinton [1]. Rappresenta lo stato dell arte per la visualizzazione 2D o 3D di dati multidimensionali. Implementazione disponibile in molti linguaggi in [2]. Anche PCA (con k = 2 o k = 3) può essere utilizzata a tale scopo, ma dati con distribuzioni spiccatamente non multinormali non possono essere efficacemente «ridotti» attraverso un mapping lineare. Esempio: visualizzazione 2D di MNIST (digit scritti a mano). [1] L.J.P. van der Maaten and G.E. Hinton. Visualizing High-Dimensional Data Using t- SNE. Journal of Machine Learning Research, [2] 13
3. Vettori, Spazi Vettoriali e Matrici
3. Vettori, Spazi Vettoriali e Matrici Vettori e Spazi Vettoriali Operazioni tra vettori Basi Trasformazioni ed Operatori Operazioni tra Matrici Autovalori ed autovettori Forme quadratiche, quadriche e
Analisi delle componenti principali
Analisi delle componenti principali Serve a rappresentare un fenomeno k-dimensionale tramite un numero inferiore o uguale a k di variabili incorrelate, ottenute trasformando le variabili osservate Consiste
ANALISI MULTIDIMENSIONALE DEI DATI (AMD)
ANALISI MULTIDIMENSIONALE DEI DATI (AMD) L Analisi Multidimensionale dei Dati (AMD) è una famiglia di tecniche il cui obiettivo principale è la visualizzazione, la classificazione e l interpretazione della
Richiami di algebra delle matrici a valori reali
Richiami di algebra delle matrici a valori reali Vettore v n = v 1 v 2. v n Vettore trasposto v n = (v 1, v 2,..., v n ) v n = (v 1, v 2,..., v n ) A. Pollice - Statistica Multivariata Vettore nullo o
Analisi in Componenti Principali (ACP)
Analisi in Componenti Principali (ACP) Metodi di analisi fattoriale Obiettivo: individuazione di variabili di sintesi = dimensioni = variabili latenti = variabili non osservate Approccio: Ordinamenti tra
Analisi delle corrispondenze
Analisi delle corrispondenze Obiettivo: analisi delle relazioni tra le modalità di due (o più) caratteri qualitativi Individuazione della struttura dell associazione interna a una tabella di contingenza
Metodi computazionali per i Minimi Quadrati
Metodi computazionali per i Minimi Quadrati Come introdotto in precedenza si considera la matrice. A causa di mal condizionamenti ed errori di inversione, si possono avere casi in cui il e quindi S sarebbe
Elementi di statistica per l econometria
Indice Prefazione i 1 Teoria della probabilità 1 1.1 Definizioni di base............................. 2 1.2 Probabilità................................. 7 1.2.1 Teoria classica...........................
Algebra lineare con R
Università di Napoli Federico II [email protected] Standardizzare una variabile Standardizzazione Data una variabile X distribuita secondo una media µ e una varianza σ 2 la standardizzazione permette
Risposta in vibrazioni libere di un sistema lineare viscoso a più gradi di libertà. Prof. Adolfo Santini - Dinamica delle Strutture 1
Risposta in vibrazioni libere di un sistema lineare viscoso a più gradi di libertà Prof. Adolfo Santini - Dinamica delle Strutture 1 Vibrazioni libere non smorzate 1/6 Le equazioni del moto di un sistema
(VX) (F) Se A e B sono due matrici simmetriche n n allora anche A B è una matrice simmetrica.
5 luglio 010 - PROVA D ESAME - Geometria e Algebra T NOME: MATRICOLA: a=, b=, c= Sostituire ai parametri a, b, c rispettivamente la terzultima, penultima e ultima cifra del proprio numero di matricola
Formulario sui Prodotti Hermitiani Marcello Mamino Pisa, 24 v 2010
Formulario sui Prodotti Hermitiani Marcello Mamino Pisa, 24 v 2010 In quetsa dispensa: V è uno spazio vettoriale di dimensione d sul campo complesso C generato dai vettori v 1,..., v d. Le variabili m,
A.A. 2014/2015 Corso di Algebra Lineare
A.A. 2014/2015 Corso di Algebra Lineare Stampato integrale delle lezioni Massimo Gobbino Indice Lezione 01: Vettori geometrici nel piano cartesiano. Operazioni tra vettori: somma, prodotto per un numero,
ossia può anche essere localizzato univocamente sul piano complesso con la sua forma polare.
ALGEBRA COMPLESSA Nel corso dei secoli gli insiemi dei numeri sono andati man mano allargandosi per rispondere all esigenza di dare soluzione a equazioni e problemi sempre nuovi I numeri complessi sono
Esercizio 2. Consideriamo adesso lo spazio di funzioni V = {f : [0, 1] R}. Dire quali dei seguenti insiemi di funzioni sono sottospazi.
1 Esercizi 1.1 Spazi vettoriali Studiare gli insiemi definiti di seguito, e verificare quali sono spazi vettoriali e quali no. Per quelli che non lo sono, dire quali assiomi sono violati. x 1, x 2, x 3
15 luglio Soluzione esame di geometria - Ing. gestionale - a.a COGNOME... NOME... N. MATRICOLA... ISTRUZIONI
15 luglio 01 - Soluzione esame di geometria - Ing. gestionale - a.a. 01-01 COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura ore. ISTRUZIONI Ti sono
RETI DI TELECOMUNICAZIONE
RETI DI TELECOMUNICAZIONE Modelli delle Sorgenti di Traffico Generalità Per la realizzazione di un modello analitico di un sistema di telecomunicazione dobbiamo tenere in considerazione 3 distinte sezioni
Applicazioni della SVD
Applicazioni della SVD Gianna M. Del Corso Dipartimento di Informatica, Università di Pisa, Italy 28 Marzo 2014 1 Le applicazioni presentate 2 Text Mining 3 Algoritmo di riconoscimento di volti Le Applicazioni
METODI DI CLASSIFICAZIONE. Federico Marini
METODI DI CLASSIFICAZIONE Federico Marini Introduzione Nella parte introduttiva dell analisi multivariata abbiamo descritto la possibilità di riconoscere l origine di alcuni campioni come uno dei campi
La matematica del CAD. Vettori e Matrici
La matematica del CAD Vettori e Matrici IUAV Disegno Digitale Camillo Trevisan I programmi CAD riducono tutti i problemi geometrici in problemi analitici: la proiezione di un punto su un piano viene, ad
La distribuzione delle frequenze. T 10 (s)
1 La distribuzione delle frequenze Si vuole misurare il periodo di oscillazione di un pendolo costituito da una sferetta metallica agganciata a un filo (fig. 1). A Figura 1 B Ricordiamo che il periodo
Elementi di Algebra Lineare. Spazio Vettoriale (lineare)
Elementi di Algebra Lineare Spazio Vettoriale (lineare) Uno spazio vettoriale su un corpo F è una quadrupla (X, F, +, ) costituita da: un insieme di elementi X, detti vettori, un corpo F, i cui elementi
Esercizi sulle coniche (prof.ssa C. Carrara)
Esercizi sulle coniche prof.ssa C. Carrara Alcune parti di un esercizio possono ritrovarsi in un altro esercizio, insieme a parti diverse. È un occasione per affrontarle da un altra angolazione.. Determinare
Fisher Linear discriminant analysis (pag 228)
Fisher Linear discriminant analysis (pag 228) 1 Nell Analisi delle componenti proncipali PCA si trovano quelle componenti utili per la rappresentazione dei dati Tali componenti non sono utili a discriminare
Esercizi sulle coniche (prof.ssa C. Carrara)
Esercizi sulle coniche prof.ssa C. Carrara Alcune parti di un esercizio possono ritrovarsi in un altro esercizio, insieme a parti diverse. È un occasione per affrontarle più volte.. Stabilire il tipo di
Coniche - risposte 1.9
Coniche - risposte. CAMBI DI COORDINATE ) ) cosπ/) sinπ/). a. Rotazione di π/, la matrice di rotazione è = sinπ/) cosπ/) ) ) ) X = Y X = Quindi le formule sono: cioè: Y = X e inversamente Y = = Y X = b.
Soluzione. (a) L insieme F 1 e linearmente indipendente; gli insiemi F 2 ed F 3 sono linearmente
1. Insiemi di generatori, lineare indipendenza, basi, dimensione. Consideriamo nello spazio vettoriale R 3 i seguenti vettori: v 1 = (0, 1, ), v = (1, 1, 1), v 3 = (, 1, 0), v 4 = (3, 3, ). Siano poi F
1 L analisi discriminante lineare
1 L analisi discriminante lineare L analisi discriminante lineare presuppone che p variabili (quantitative) Y 1,... Y p siano state misurate su osservazioni appartenenti a 2 o più gruppi: G 1,...,G k,
Esercizi di ripasso: geometria e algebra lineare.
Esercizi di ripasso: geometria e algebra lineare. Esercizio. Sia r la retta passante per i punti A(2,, 3) e B(,, 2) in R 3. a. Scrivere l equazione cartesiana del piano Π passante per A e perpendicolare
ANALISI DEI DATI PER IL MARKETING 2014
ANALISI DEI DATI PER IL MARKETING 2014 Marco Riani [email protected] http://www.riani.it ANALISI DELLE CORRISPONDENZE (cap. VII) Problema della riduzione delle dimensioni L ANALISI DELLE COMPONENTI PRINCIPALI
Corso di Geometria Ing. Informatica e Automatica Test 1: soluzioni
Corso di Geometria Ing. Informatica e Automatica Test : soluzioni k Esercizio Data la matrice A = k dipendente dal parametro k, si consideri il k sistema lineare omogeneo AX =, con X = x x. Determinare
= elemento che compare nella seconda riga e quinta colonna = -4 In generale una matrice A di m righe e n colonne si denota con
Definizione di matrice Una matrice (di numeri reali) è una tabella di m x n numeri disposti su m righe e n colonne. I numeri che compaiono nella tabella si dicono elementi della matrice. La loro individuazione
1 Il polinomio minimo.
Abstract Il polinomio minimo, così come il polinomio caratterisico, è un importante invariante per le matrici quadrate. La forma canonica di Jordan è un approssimazione della diagonalizzazione, e viene
Esercizi per Geometria II Geometria euclidea e proiettiva
Esercizi per Geometria II Geometria euclidea e proiettiva Filippo F. Favale 8 aprile 014 Esercizio 1 Si consideri E dotato di un riferimento cartesiano ortonormale di coordinate (x, y) e origine O. Si
La matrice delle correlazioni è la seguente:
Calcolo delle componenti principali tramite un esempio numerico Questo esempio numerico puó essere utile per chiarire il calcolo delle componenti principali e per introdurre il programma SPAD. IL PROBLEMA
Metodi di riduzione del modello dinamico Dott. Lotti Nevio
1. Metodi di riduzione del modello dinamico Nel mettere insieme modelli dinamici di elementi diversi di una struttura (come avviene nel caso di un velivolo e del suo carico utile, ma anche per i diversi
Esercizi di Geometria Affine
Esercizi di Geometria Affine Sansonetto Nicola dicembre 01 Geometria Affine nel Piano Esercizio 1. Nel piano affine standard A (R) dotato del riferimento canonico, si consideri la retta τ di equazione
Esercitazione di Analisi Matematica II
Esercitazione di Analisi Matematica II Barbara Balossi 06/04/2017 Esercizi di ripasso Esercizio 1 Sia data l applicazione lineare f : R 3 R 3 definita come f(x, y, z) = ( 2x + y z, x 2y + z, x y). a) Calcolare
Il Modello di Markowitz e la frontiera efficiente (1952)
Il Modello di Markowitz e la frontiera efficiente (1952) Introduzione La selezione di portafoglio consiste nella ripartizione di un capitale tra più investimenti di reddito aleatorio Il capitale da ripartire
Cinematica differenziale inversa Statica
Corso di Robotica 1 Cinematica differenziale inversa Statica Prof. Alessandro De Luca Robotica 1 1 Inversione della cinematica differenziale trovare le velocità di giunto che realizzano una velocità generalizzata
ESTRAZIONE DI DATI 3D DA IMMAGINI DIGITALI. (Visione 3D)
ESTRAZIONE DI DATI 3D DA IMMAGINI DIGITALI () Visione Stereo Scopo della visione stereo è ricostruire la struttura di una scena 3D statica a partire da n >= 2 viste diverse - il caso n=2 è l argomento
Apprendimento Automatico (Feature Selection e Kernel Learning)
Apprendimento Automatico (Feature Selection e Kernel Learning) Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Servono tutti gli attributi? Gli
Analisi delle corrispondenze
Capitolo 11 Analisi delle corrispondenze L obiettivo dell analisi delle corrispondenze, i cui primi sviluppi risalgono alla metà degli anni 60 in Francia ad opera di JP Benzécri e la sua equipe, è quello
Universita degli Studi di Roma - "Tor Vergata" - Facolta Ingegneria Esercizi GEOMETRIA (Edile-Architettura e dell Edilizia) CONICHE DI
Universita degli Studi di Roma - "Tor Vergata" - Facolta Ingegneria Esercizi GEOMETRIA (Edile-Architettura e dell Edilizia) CONICHE DI R. Docente: Prof. F. Flamini Esercizi Riepilogativi Svolti Esercizio
Sistemi sovradeterminati
Sistemi sovradeterminati Sia A una matrice m n ove m > n sia b R m trovare una soluzione del sistema sovradeterminato Ax = b significa cercare di esprimere un vettore di R m come combinazione lineare di
Sperimentazioni di Fisica I mod. A Statistica - Lezione 2
Sperimentazioni di Fisica I mod. A Statistica - Lezione 2 A. Garfagnini M. Mazzocco C. Sada Dipartimento di Fisica G. Galilei, Università di Padova AA 2014/2015 Elementi di Statistica Lezione 2: 1. Istogrammi
Regressione Lineare e Regressione Logistica
Regressione Lineare e Regressione Logistica Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: [email protected] @famo2spaghi http://stegua.github.com 1 Introduzione
DIARIO DEL CORSO DI GEOMETRIA E ALGEBRA LINEARE
DIARIO DEL CORSO DI GEOMETRIA E ALGEBRA LINEARE DOCENTI: S. MATTAREI (TITOLARE), G. VIGNA SURIA, D. FRAPPORTI Prima settimana. Lezione di martedí 23 febbraio 2010 Introduzione al corso: applicazioni dell
Polinomio di Taylor del secondo ordine per funzioni di due variabili
Esercitazioni del 15 aprile 2013 Polinomio di Taylor del secondo ordine per funzioni di due variabili Sia f : A R 2 R una funzione di classe C 2. Fissato un p unto (x 0, y 0 A consideriamo il seguente
Diario delle lezioni di Calcolo e Biostatistica (O-Z) - a.a. 2013/14 A. Teta
Diario delle lezioni di Calcolo e Biostatistica (O-Z) - a.a. 2013/14 A. Teta 1. (1/10 Lu.) Generalità sugli insiemi, operazioni di unione, intersezione e prodotto cartesiano. Insiemi numerici: naturali,
I VETTORI GAUSSIANI E. DI NARDO
I VETTOI GAUSSIANI E. DI NADO. L importanza della distribuzione gaussiana I vettori di v.a. gaussiane sono senza dubbio uno degli strumenti più utili in statistica. Nell analisi multivariata, per esempio,
2 2 2 A = Il Det(A) = 2 quindi la conica è non degenere, di rango 3.
Studio delle coniche Ellisse Studiare la conica di equazione 2x 2 + 4xy + y 2 4x 2y + 2 = 0. Per prima cosa dobbiamo classificarla. La matrice associata alla conica è: 2 2 2 A = 2 2 2 Il DetA = 2 quindi
Matrici. Prof. Walter Pugliese
Matrici Prof. Walter Pugliese Le matrici Una matrice è un insieme di numeri reali organizzati in righe e colonne. Se n è il numero delle righe e m e il numero delle colonne si dice che la matrice è di
Riconoscimento automatico di oggetti (Pattern Recognition)
Riconoscimento automatico di oggetti (Pattern Recognition) Scopo: definire un sistema per riconoscere automaticamente un oggetto data la descrizione di un oggetto che può appartenere ad una tra N classi
Esercizi di MATEMATICA PER RCHITETTURA prima parte: Algebra Lineare e Geometria
Esercizi di MATEMATICA PER RCHITETTURA prima parte: Algebra Lineare e Geometria Avvertenze In quanto segue tutti i vettori hanno il medesimo punto d origine O l origine dello spazio cartesiano. Possiamo
X = x + 1. X = x + 1
CONICHE. Esercizi Esercizio. Classificare, ridurre a forma canonica (completando i quadrati), e disegnare le seguenti coniche: γ : x y + x = 0; γ : x + 4x y + = 0; γ 3 : x + y + y + 0 = 0; γ 4 : x + y
2 Sistemi lineari. Metodo di riduzione a scala.
Sistemi lineari. Metodo di riduzione a scala. Esercizio.1 Utilizzando il metodo di eliminazione di Gauss, risolvere i seguenti sistemi lineari: 1. 3. x 1 x + 3x 3 = 1 x 1 x x 3 = x 1 + x + 3x 3 = 5 x 1
REGRESSIONE E CORRELAZIONE
REGRESSIONE E CORRELAZIONE Nella Statistica, per studio della connessione si intende la ricerca di eventuali relazioni, di dipendenza ed interdipendenza, intercorrenti tra due variabili statistiche 1.
Autovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti)
Autovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti) April 14, 2011 (alcune note non complete sugli argomenti trattati: eventuali completamenti saranno aggiunti)
Esercizi su Autovalori e Autovettori
Esercizi su Autovalori e Autovettori Esercizio n.1 5 A = 5, 5 5 5 Esercizio n.6 A =, Esercizio n.2 4 2 9 A = 2 1 8, 4 2 9 Esercizio n.7 6 3 3 A = 6 3 6, 3 3 6 Esercizio n.3 A = 4 6 6 2 2, 6 6 2 Esercizio
Statistica a lungo termine: calcolo dell onda di progetto
Esercitazione Statistica a lungo termine: calcolo dell onda di progetto Sulla base delle misure ondametriche effettuate dalla boa di Ponza si calcoli, utilizzando la distribuzione di probabilità di Gumbel,
Costruzioni in zona sismica
Costruzioni in zona sismica Lezione 8 Sistemi a più gradi di liberà: Oscillazioni libere in assenza di smorzamento N equazioni differenziali omogenee accoppiate tramite la matrice delle masse, la matrice
La multicollinearità sorge quando c è un elevata correlazione tra due o più variabili esplicative.
Lezione 14 (a cura di Ludovica Peccia) MULTICOLLINEARITA La multicollinearità sorge quando c è un elevata correlazione tra due o più variabili esplicative. In un modello di regressione Y= X 1, X 2, X 3
Classificazione delle coniche.
Classificazione delle coniche Ora si vogliono studiare i luoghi geometrici rappresentati da equazioni di secondo grado In generale, non è facile riconoscere a prima vista di che cosa si tratta, soprattutto
SPAZI EUCLIDEI, APPLICAZIONI SIMMETRICHE, FORME QUADRATICHE
SPAZI EUCLIDEI, APPLICAZIONI SIMMETRICHE, FORME QUADRATICHE. Esercizi Esercizio. In R calcolare il modulo dei vettori,, ),,, ) ed il loro angolo. Esercizio. Calcolare una base ortonormale del sottospazio
Esercizi Riepilogativi Svolti. = 1 = Or(v, w)
Universita degli Studi di Roma - "Tor Vergata" - Facolta Ingegneria Esercizi GEOMETRIA (Edile-Architettura e dell Edilizia FORMULE DI GEOMETRIA IN R TRASFORMAZIONI DI R CIRCONFERENZE Docente: Prof F Flamini
Elementi di Algebra Lineare Applicazioni lineari
Elementi di Algebra Lineare Applicazioni lineari Cristina Turrini UNIMI - 2016/2017 Cristina Turrini (UNIMI - 2016/2017) Elementi di Algebra Lineare 1 / 50 index Applicazioni lineari 1 Applicazioni lineari
I.T.I.S «G. MARCONI» - PADOVA Via Manzoni, 80 Tel.: Fax
I.T.I.S «G. MARCONI» - PADOVA Via Manzoni, 80 Tel.: 049.80.40.211 Fax 049.80.40.277 [email protected] www.itismarconipadova.it Settore tecnologico Indirizzo meccanica meccatronica ed energia
Spazi euclidei, endomorfismi simmetrici, forme quadratiche. R. Notari
Spazi euclidei, endomorfismi simmetrici, forme quadratiche R. Notari 14 Aprile 2006 1 1. Proprietà del prodotto scalare. Sia V = R n lo spazio vettoriale delle n-uple su R. Il prodotto scalare euclideo
CIRCUITI INTELLIGENTI Parte 5: PCA e ICA
Ing. Simone SCARDAPANE Circuiti e Algoritmi per l Elaborazione dei Segnali Anno Accademico 2012/2013 Indice della Lezione 1. Analisi delle Componenti Principali 2. Auto-Associatori 3. Analisi delle Componenti
Il modello di regressione lineare multipla. Il modello di regressione lineare multipla
Introduzione E la generalizzazione del modello di regressione lineare semplice: per spiegare il fenomeno d interesse Y vengono introdotte p, con p > 1, variabili esplicative. Tale generalizzazione diventa
Esercizi di Complementi di Matematica (L-Z) a.a. 2015/2016
Esercizi di Complementi di Matematica (L-Z) a.a. 2015/2016 Prodotti scalari e forme bilineari simmetriche (1) Sia F : R 2 R 2 R un applicazione definita da F (x, y) = x 1 y 1 + 3x 1 y 2 5x 2 y 1 + 2x 2
1 Cambiamenti di coordinate nel piano.
Cambiamenti di coordinate nel piano.. Coordinate cartesiane Coordinate cartesiane su una retta. Sia r una retta: dare un sistema di coordinate su r significa fissare un punto O di r e un vettore u = U
Similitudine (ortogonale) e congruenza (ortogonale) di matrici.
Lezione del 4 giugno. Il riferimento principale di questa lezione e costituito da parti di: 2 Forme bilineari, quadratiche e matrici simmetriche associate, 3 Congruenza di matrici simmetriche, 5 Forme
SPAZI VETTORIALI CON PRODOTTO SCALARE A =
SPAZI VETTORIALI CON PRODOTTO SCALARE Esercizi Esercizio. Nello spazio euclideo standard (R 2,, ) sia data la matrice 2 3 A = 3 2 () Determinare una base rispetto alla quale A sia la matrice di un endomorfismo
