CAPITOLO 3 ELEMENTI DI ALGEBRA LINEARE, STATISTICA E ANALISI MATEMATICA

Documenti analoghi
A.A. 2014/2015 Corso di Algebra Lineare

REGISTRO DELLE LEZIONI

Appunti su Indipendenza Lineare di Vettori

DIARIO DEL CORSO DI GEOMETRIA E ALGEBRA LINEARE

Autovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti)

Soluzione. (a) L insieme F 1 e linearmente indipendente; gli insiemi F 2 ed F 3 sono linearmente

Capitolo IV SPAZI VETTORIALI EUCLIDEI

GAAL: Capitolo dei prodotti scalari

3. Vettori, Spazi Vettoriali e Matrici

4 Autovettori e autovalori

(VX) (F) Se A e B sono due matrici simmetriche n n allora anche A B è una matrice simmetrica.

Esame di geometria e algebra

Richiami di algebra delle matrici a valori reali

Prodotto interno (prodotto scalare definito positivo)

0.1 Spazi Euclidei in generale

Esercizi per Geometria II Geometria euclidea e proiettiva

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n

Applicazioni lineari e diagonalizzazione. Esercizi svolti

Esercizi di Complementi di Matematica (L-Z) a.a. 2015/2016

Risposta in vibrazioni libere di un sistema lineare viscoso a più gradi di libertà. Prof. Adolfo Santini - Dinamica delle Strutture 1

ii 1.20 Rango di una matrice Studio dei sistemi lineari Teoremi di Cramer e Rouché-Capelli......

Similitudine (ortogonale) e congruenza (ortogonale) di matrici.

Esercitazione di Analisi Matematica II

Formulario sui Prodotti Hermitiani Marcello Mamino Pisa, 24 v 2010

FONDAMENTI DI ALGEBRA LINEARE E GEOMETRIA

Esercizi svolti. delle matrici

22 Coniche proiettive

Elementi di Algebra Lineare Matrici e Sistemi di Equazioni Lineari

Pagine di Algebra lineare. di premessa al testo Pagine di Geometria di Sara Dragotti. Parte terza: SISTEMI LINEARI

Appunti di ALGEBRA LINEARE

SOTTOSPAZI E OPERAZIONI IN SPAZI DIVERSI DA R n

(2) Dato il vettore w = (1, 1, 1), calcolare T (w). (3) Determinare la matrice A associata a T rispetto alla base canonica.

Appendice 1. Spazi vettoriali

Esercizi di Geometria - 1

Prodotto scalare e norma

Geometria e Topologia I (U1-4) 2006-mag-10 61

Si consideri il sistema a coefficienti reali di m equazioni lineari in n incognite

ESERCIZI DI ALGEBRA LINEARE (D) A = A = A = R 2,2. D5 Dire come bisogna scegliere i parametri h e k affinché la

Universita degli Studi di Roma - "Tor Vergata" - Facolta Ingegneria Esercizi GEOMETRIA (Edile-Architettura e dell Edilizia) CONICHE DI

Elementi di Algebra Lineare Spazi Vettoriali

I VERIFICA DI GEOMETRIA 1 CORSO DI LAUREA IN MATEMATICA - 4 DICEMBRE 2007

SPAZI VETTORIALI CON PRODOTTO SCALARE A =

Per le risposte utilizza gli spazi predisposti. Quando richiesto, il procedimento va esposto brevemente, ma in maniera comprensibile.

Esame di Geometria - 9 CFU (Appello del 14 gennaio A)

Esercitazione di Geometria I 13 dicembre Esercizio 1. Esercizio 2. Esercizio 3

Sapienza Università di Roma Corso di laurea in Ingegneria Energetica Geometria A.A ESERCIZI DA CONSEGNARE prof.

Parte 8. Prodotto scalare, teorema spettrale

appuntiofficinastudenti.com 1. Strutture algebriche e polinomi

Introduzione soft alla matematica per l economia e la finanza. Marta Cardin, Paola Ferretti, Stefania Funari

Volumi in spazi euclidei 12 dicembre 2014

Matematica Discreta e Algebra Lineare (per Informatica)

Esercizi sulle coniche (prof.ssa C. Carrara)

Corso di Geometria Ing. Informatica e Automatica Test 1: soluzioni

(P x) (P y) = x P t (P y) = x (P t P )y = x y.

Esercizi di MATEMATICA PER RCHITETTURA prima parte: Algebra Lineare e Geometria

= (cioè le due terne di numeri direttori ( devono essere ) proporzionali). Tale uguaglianza non è verificata, poiché risulta ρ

Prodotto scalare e prodotto vettoriale. Elisabetta Colombo

Vettori e geometria analitica in R 3 1 / 25

LEZIONE 8. k e w = wx ı + w y j + w z. k di R 3 definiamo prodotto scalare di v e w il numero

Informatica Grafica. Un introduzione

Analisi delle corrispondenze

Esercizi di ripasso: geometria e algebra lineare.

Corso di Geometria Lezione II: Spazi vettoriali

1 Il polinomio minimo.

15 luglio Soluzione esame di geometria - Ing. gestionale - a.a COGNOME... NOME... N. MATRICOLA... ISTRUZIONI

SISTEMI LINEARI: APPROFONDIMENTI ED ESEMPI

Algebra lineare Geometria 1 11 luglio 2008

TEORIA DEI SISTEMI ANALISI DEI SISTEMI LTI

Vettori. Capitolo Vettori applicati e vettori liberi

Esercizi sulle coniche (prof.ssa C. Carrara)

Esercizi per il corso di Algebra e Geometria L.

GAAL: Capitolo di Geometria Affine e Coniche

Rette e piani nello spazio Federico Lastaria, Analisi e Geometria 1. Politecnico di Milano Corso di Analisi e Geometria 1

2. I numeri reali e le funzioni di variabile reale

Classificazione delle coniche.

Esercizi svolti. Geometria analitica: rette e piani

ESERCIZI sui VETTORI

Esercizi 2. Soluzioni. 1. Siano dati i vettori 1 1, 1 R 3.

Applicazioni lineari e diagonalizzazione pagina 1 di 5

Fissiamo nel piano un sistema di riferimento cartesiano ortogonale O, x, y, u.

1 Ampliamento del piano e coordinate omogenee

REGISTRO DELLE ESERCITAZIONI

ESERCIZI DI MATEMATICA DISCRETA ANNO 2006/2007

Prodotti scalari e matrici

Forme bilineari simmetriche

Parte 12b. Riduzione a forma canonica

misura. Adesso, ad un arbitrario punto P dello spazio associamo una terna di numeri reali x

DEFINIZIONE Un vettore (libero) è un ente geometrico rappresentato da un segmento orientato caratterizzato da tre parametri:

X Settimana = 0 R. = 0 R x, x R. + (x 0 R. ) x 0 R = = x 0 R

VETTORI E SCALARI DEFINIZIONI. Si definisce scalare una grandezza definita interamente da un solo numero, affiancato dalla sua unità di misura.

= elemento che compare nella seconda riga e quinta colonna = -4 In generale una matrice A di m righe e n colonne si denota con

La retta nel piano. Supponiamo che la retta r sia assegnata attraverso un suo punto P 0 (x 0, y 0 ) e un vettore v (l, m) che ne indichi la direzione.

Condizione di allineamento di tre punti

GEOMETRIA /2009 II

1) Quali dei seguenti sottoinsiemi del campo dei numeri reali ℝ sono sottospazi vettoriali?

CORSO DI LAUREA in Ingegneria Informatica (Vecchio Ordinamento)

Spazi affini e combinazioni affini.

1.[25 punti] Risolvere il seguente sistema di equazioni lineari al variare del parametro reale λ: X +Y +Z = 2. X 2Y +λz = 2

Analisi delle corrispondenze

Insiemi di numeri reali

Transcript:

CAPITOLO 3 ELEMENTI DI ALGEBRA LINEARE, STATISTICA E ANALISI MATEMATICA Dal punto di vista matematico, l analisi esplorativa dei dati è basata su alcuni elementi di algebra lineare, di geometria affine ed euclidea e su alcune nozioni statistiche. E allora necessario introdurre tutte le nozioni necessarie alla sua esposizione, fra le quali i concetti di spazio vettoriale, di applicazioni lineari, di spazi affini ed euclidei e le nozioni riguardanti le matrici di dati e quelle da esse derivate. Le dimostrazioni di molti teoremi sono state omesse per brevità e si rimanda il lettore interessato a qualsiasi libro di algebra lineare (per esempio si veda Sernesi, Bini-Capovani-Menchi, Lang ecc....) 3.1. L algebra lineare per l analisi dei dati 3.1.1 Introduzione Definizione 3.1.1: Un insieme non vuoto G di elementi si dice un gruppo se in G è definita un operazione, da dirsi prodotto e denotata con, tale che: 1. 2. 3. esiste un elemento tale che 4., esiste un elemento tale che (chiusura) (legge associativa) (elemento identico) (esistenza degli inversi) Definizione 3.1.2: Un gruppo si dice abeliano (o commutativo) se per ogni., si ha Definizione 3.1.3: Un insieme non vuoto C si definisce corpo se, rispetto a due operazioni 26

denotate con + e, verifica i seguenti assiomi: 1. C è un gruppo commutativo rispetto all operazione + con elemento neutro indicato con 0; 2. C - {0} è un gruppo rispetto all operazione con elemento neutro 1; 3. risulta: Definizione 3.1.4: Un corpo C nel quale l operazione denotata con chiama campo. è commutativa si 3.1.2 Gli spazi vettoriali Definizione 3.1.5: Sia V un insieme di elementi non vuoto e sia K un campo. V è uno spazio vettoriale su K se è un gruppo commutativo rispetto all operazione +, ed è definita l operazione di prodotto (esterno) per uno scalare, data mediante un applicazione, che ad ogni coppia associa l elemento, con i seguenti assiomi: 1. 2. 3. 4. per ogni e per ogni. Gli elementi di V si chiamano vettori e quelli di K scalari. Se si parlerà di spazio vettoriale reale e gli elementi di verranno semplicemente detti numeri. In generale dato un campo K, se si considera il suo prodotto cartesiano costituito dalle n-ple di elementi in K, se per ogni ogni si definiscono le operazioni : e per 1., 27

2., esso diviene uno spazio vettoriale su K stesso e viene chiamato l n-spazio numerico su K. In particolare, è lo spazio vettoriale reale, costituito dalle n-ple di numeri reali. Definizione 3.1.6: Se V è uno spazio vettoriale su K e, allora W è un sottospazio di V se è uno spazio vettoriale su K rispetto alle stesse operazioni di V. In modo equivalente, W è un sottospazio di V se per ogni e per ogni riesce. Definizione 3.1.7: Siano U e W due sottospazi dello spazio vettoriale V. La somma dei sottospazi U e W è il sottoinsieme costituito dai vettori della forma, al variare di u in U e di w in W. Formalmente: Definizione 3.1.8: Siano U e W due sottospazi dello spazio vettoriale V. La somma dei sottospazi U e W si dice diretta se ogni vettore si può scrivere in modo unico come con e. La somma diretta di due sottospazi U e W si indica con la notazione. Definizione 3.1.9: Sia un sottoinsieme di uno spazio vettoriale V, costituito da h vettori ( ) e sia un insieme di h scalari di K. Il vettore si dice combinazione lineare finita dei vettori a coefficienti in K. Definizione 3.1.10: Sia M un sottoinsieme dello spazio vettoriale V. Se l insieme di tutte le combinazioni lineari di M coincide con lo spazio vettoriale V, il sottoinsieme M si dice un sistema di generatori di V. Definizione 3.1.11: I vettori indipendenti se la relazione dello spazio vettoriale V si dicono linearmente implica per. Un sottoinsieme dello spazio vettoriale V costituito da vettori linearmente indipendenti si chiama sistema libero o parte libera di vettori. 28

Definizione 3.1.12: Sia un insieme di elementi linearmente indipendenti dello spazio vettoriale V. Si dice che è un insieme massimale di elementi linearmente indipendenti se, dato un qualsiasi, i vettori sono linearmente dipendenti. Definizione 3.1.13: Sia un sistema di generatori di V. Si dice che costituisce un insieme minimale di generatori se per ogni l insieme di vettori non è più un sistema di generatori di V. Definizione 3.1.14: Un sottoinsieme B di uno spazio vettoriale V si dice una base di V se B è un sistema di generatori minimale di V. Definizione 3.1.15: Se è il numero di vettori di una base B e, si dice che V ha dimensione n e si scrive. Si dimostra che le basi di uno spazio vettoriale sono equipotenti. D ora in poi si supporrà che gli spazi vettoriali siano di dimensione finita. 3.1.3 Applicazioni lineari, autovalori ed autovettori La maggior parte dei metodi di analisi trattati in questo lavoro di tesi è basata sulla ricerca degli autovalori e degli autovettori di particolari matrici. Riveste, dunque, una notevole importanza, trattare gli aspetti relativi al cosiddetto problema agli autovalori, a partire dalle definizioni e dai teoremi basilari. Definizione 3.1.16: Siano V e W due spazi vettoriali (in cui le operazioni verranno, per semplicità, indicate nello stesso modo). Un applicazione si definisce applicazione lineare se per ogni e per ogni risulta: 1. ; 2. ; oppure, equivalentemente, se 2'.. Se V e W sono due spazi vettoriali, si indicherà con l insieme delle applicazioni 29

lineari da V a W, ossia: Teorema 3.1.1: L insieme definite nel seguente modo:, munito delle operazioni di somma e prodotto esterno, 1. ; 2., è uno spazio vettoriale su K. Definizione 3.1.17: Sia V lo spazio vettoriale su K. Si definisce spazio duale V* di V lo spazio. Gli elementi di si chiamano funzionali lineari o forme lineari su V. Come ad ogni vettore con h componenti si associa una h-pla di scalari, così si può stabilire una corrispondenza biunivoca tra applicazioni lineari e matrici di scalari, attraverso il procedimento che segue. Siano V e W due spazi vettoriali su K di dimensioni n ed m rispettivamente, con basi e. Per ogni esistono univocamente determinati i coefficienti tali che:, ovvero Tale osservazione conduce al seguente risultato: qualunque sia l'applicazione, fissate le basi B e C, si possono ad essa associare i numeri, che costituiscono la matrice 30

nella quale la i-esima riga rappresenta le coordinate del vettore rispetto alla base C. In termini matriciali si può scrivere: Viceversa, data una matrice A di scalari in K, si può pensare di associare ad essa l applicazione che ad ogni (V è uno spazio vettoriale con base B ) associa (W è uno spazio vettoriale con base C) così definito:. E facile verificare la linearità di f. Infatti: Pertanto la matrice associata all applicazione lineare f secondo la precedente definizione è proprio A. Si può dunque affermare, avendo definito le basi di V e W, che l'applicazione è un isomorfismo tra lo spazio vettoriale e lo spazio vettoriale delle matrici su K,. In particolare, se la matrice A è certamente quadrata (ma lo è anche quando ). Se V è visto con basi B e C e se inoltre f è l applicazione identica, A è la matrice che esprime il cambiamento di base in V, ovvero le righe di A rappresentano le coordinate, nella base C, dei vettori della base B. Dal risultato appena conseguito, se A è la matrice associata ad f, B la matrice associata a g e C è la matrice associata ad h, è possibile dedurre le seguenti proprietà: 1. la matrice associata alla somma delle applicazioni f e g è, e la matrice associata al prodotto è ( ); 2. date f, g, h tali che allora ; 3. se f è invertibile lo è anche la matrice A associata ad f, e la matrice associata ad è proprio ; 4. se ad f è associata la matrice A, all applicazione trasposta 1 è associata la matrice. In base a quanto si è appena detto, in uno spazio vettoriale V di dimensione n con base fissata, esiste un isomorfismo fra l algebra delle applicazioni lineari dello spazio in sé e quella delle matrici quadrate d ordine n; in seguito si denoterà allora con A la matrice associata all applicazione lineare f. 1 Data l'applicazione lineare, si definisce la sua trasposta come l'applicazione che ad ogni forma lineare associa la forma lineare. 31

Definizione 3.1.18: Sia A una matrice quadrata d ordine n sul campo K. Si dice che un autovalore di A se e solo se esiste, tale che: è Ogni vettore x che verifica la precedente equazione agli autovalori è detto autovettore della matrice A associato all autovalore. (1) Il problema agli autovalori consiste nel determinare i valori di in corrispondenza dei quali l equazione (1) (rappresentante un sistema lineare omogeneo di n equazioni in n incognite) ha soluzioni non banali ; infatti, è ovviamente sempre una soluzione possibile. Dato che l equazione (1) può sempre essere riscritta nella forma: (2) dove, d ora in poi, si denoterà con la matrice identica d ordine n, per la teoria dei sistemi lineari, essa ammette una soluzione non banale se e solo se. Ciò significa che gli autovalori di A sono tutte e solo le soluzioni dell equazione: (3) detta equazione caratteristica associata ad A. Si riconosce facilmente che l equazione caratteristica è un polinomio di grado n in tipo: del (4) quindi le soluzioni dell equazione caratteristica (3) corrispondono agli zeri del suddetto polinomio, detto polinomio caratteristico associato ad A. Poiché è un polinomio di grado n, esso può avere al massimo n radici distinte, ne segue che una matrice A può avere al massimo n autovalori distinti. Allora, se, essendo algebricamente chiuso gli autovalori esistono sempre; nel caso, una matrice avrà senz altro n autovalori complessi, ma non necessariamente reali. Definizione 3.1.19: Il sottospazio vettoriale costituito dalle soluzioni dell equazione agli autovalori (1) associata all autovalore è detto autospazio. Definizione 3.1.20: Sia A una matrice quadrata di autovalori. La molteplicità di come radice del polinomio caratteristico si dice molteplicità algebrica dell autovalore 32

e si indica con. Se il numero degli autovalori distinti di A è pari ad r, dalla definizione precedente risulta ovviamente che e quindi si ricava: Quindi la dimensione dell autospazio corrispondente all autovalore è. Viceversa, se e sono autovettori di A, relativi a due differenti autovalori, allora i due autovettori sono indipendenti. Si può dunque affermare che un autospazio corrispondente all autovalore è generato da un qualsiasi sistema di autovettori, corrispondenti a, linearmente indipendenti. Definizione 3.1.21: Sia A una matrice quadrata di autovalori. La dimensione di un autospazio associato all autovalore, è detta molteplicità geometrica di quell autovalore. Si osservi che, indicando con X la matrice le cui colonne rappresentano gli autovettori di A e con la matrice diagonale contenente gli autovalori di A, l equazione agli autovalori (1) può essere riscritta in forma matriciale come: Ora, se gli autovalori di A sono tutti distinti e non nulli, gli autovettori corrispondenti sono linearmente indipendenti e, dunque,. Esiste allora la matrice inversa di X e pertanto: ossia la matrice A può essere trasformata in una matrice diagonale. Definizione 3.1.22: Date due matrici quadrate A e B, esse si dicono simili se esiste una matrice T non singolare tale che: Si dice che A è trasformata in B mediante T. In particolare, dato un operatore A e due basi dello spazio, indicando con T la matrice del cambiamento di riferimento, le matrici associate ad A nelle due basi sono simili. 33

Dall equazione segue che la matrice A dell operatore e la matrice sono simili. Se A e B sono due matrici simili allora per queste matrici è possibile dimostrare le seguenti proprietà: 1. A e B hanno lo stesso determinante; 2. A e B hanno lo stesso polinomio caratteristico, ovvero gli stessi autovalori. Inoltre, se x è un autovettore di B corrispondente all autovalore, allora è un autovettore di A corrispondente allo stesso autovalore. Definizione 3.1.23: Dato un operatore lineare A si chiameranno rispettivamente autovalori ed autovettori dell operatore quelli delle matrici simili ad esso associati. Definizione 3.1.24: Una matrice quadrata A (oppure l applicazione lineare di V in sé stesso, associata ad A) si dice diagonalizzabile se esiste una matrice T non singolare tale che sia una matrice diagonale, ovvero A è diagonalizzabile se è simile ad una matrice diagonale. Teorema 3.1.2: Se A è una matrice diagonalizzabile, allora la matrice diagonale ad essa simile è la matrice i cui elementi sulla diagonale principale sono gli autovalori di A. Teorema 3.1.3: Una matrice quadrata A d ordine n è diagonalizzabile se e solo se possiede n autovettori indipendenti. Si osservi che se gli autovettori sono indipendenti, questo non implica necessariamente che gli autovalori siano distinti. 3.1.4 Applicazioni bilineari, forme bilineari e forme quadratiche Definizione 3.1.25: Siano V e W due spazi vettoriali sopra K. Un applicazione si dice bilineare se soddisfa le seguenti proprietà: 1. ; 2. ; 3.. Se V e W hanno dimensione finita, rispettivamente n e m, e sono due loro basi e è una applicazione bilineare, allora 34

ad f resta associata una matrice A di dimensioni, definita come segue: Per ogni, se e, si ha allora: Definizione 3.1.26: Se, l applicazione si dice una forma bilineare sullo spazio vettoriale V. Quindi ad ogni forma bilineare su di uno spazio vettoriale n-dimensionale rimane associata una matrice quadrata d ordine n. Definizione 3.1.27: Una forma bilineare si dice: 1. simmetrica se 2. definita se 3. positiva se 4. semidefinita positiva se 5. semidefinita negativa se Come si è verificato per le applicazioni lineari, l insieme delle forme bilineari su V costituisce uno spazio vettoriale sopra K, ed inoltre: Teorema 3.1.4: Se C è una matrice di dimensione definita dall espressione:, ed f è la forma bilineare su allora l associazione è un isomorfismo tra lo spazio vettoriale delle forme bilineari su delle matrici sopra K. e lo spazio vettoriale 35

Teorema 3.1.5: f rappresenta una forma bilineare simmetrica C è una matrice simmetrica. Definizione 3.1.28: Sia V uno spazio vettoriale e sia f una forma bilineare simmetrica su V. Una forma quadratica associata alla forma bilineare f è un applicazione definita da: Definizione 3.1.29: Sia V uno spazio vettoriale su K. Si definisce prodotto scalare su V un applicazione denotata con che associa ad ogni coppia lo scalare soddisfacente i seguenti assiomi: PS1) PS2) PS3) PS4) (simmetria) (proprietà distributiva) (linearità) (definita positiva) Ciò significa che un prodotto scalare non è altro che una forma bilineare simmetrica e definita positiva (o, brevemente, sdp). Definizione 3.1.30: Sia V uno spazio vettoriale con un prodotto scalare. Gli elementi si definiscono ortogonali o perpendicolari, e si scrive, se. Se S è un sottoinsieme di V, si denota con l insieme di tutti i vettori ortogonali a tutti i vettori di S, vale a dire: Teorema 3.1.6: è un sottospazio vettoriale di V chiamato sottospazio ortogonale ad S. Teorema 3.1.7: Sia w un vettore di V tale che. Per ogni esiste un unico numero c tale che il vettore è perpendicolare a w. Definizione 3.1.31: Il numero c è detto componente di v lungo w e (cw) è chiamata la proiezione di v lungo w. 36

Definizione 3.1.32: Sia V uno spazio vettoriale sopra, con un prodotto scalare. Sia una base di V. Si dice che B è una base ortogonale se. Definizione 3.1.33: Dato un prodotto scalare, si può definire una misura dell angolo fra due vettori, attraverso il suo coseno come segue: Teorema 3.1.8 (Lang, 1972): Sia V uno spazio vettoriale di dimensione finita, con un prodotto scalare definito positivo. Sia W un sottospazio di V, e sia una base ortogonale di W. Se, allora esistono elementi di V tale che è una base ortogonale di V. Il metodo di dimostrazione del suddetto teorema (che qui non è stato riportato) è tanto importante quanto il teorema stesso, ed è chiamato processo di ortogonalizzazione di Gram- Schmidt, il quale può essere riassunto nel seguente modo: se è un arbitraria base di V, si procede alla sua ortogonalizzazione ponendo: è dunque una base ortogonale. Naturalmente, la base che si ottiene dipende dall ordine iniziale dei vettori della base, sicché è possibile trovare basi diverse, tutte ortogonali. Definizione 3.1.34: Una matrice quadrata A si dice: definita se ; positiva se ; semidefinita positiva se. 37

Sia dato uno spazio vettoriale V, con una base, ed un prodotto scalare: in base alla PS2, si constata che V può essere definito attraverso i prodotti scalari fra i vettori di tale base. Infatti, dati due qualunque vettori v e w, essi possono essere espressi come combinazione lineare dei vettori della base e quindi si ha: Un prodotto scalare è quindi definibile per mezzo di una matrice simmetrica M, definita positiva, i cui elementi sono, i prodotti scalari fra i vettori della base considerata. Nel caso in cui la base sia ortogonale, la matrice M è diagonale. Teorema 3.1.9: Dato uno spazio vettoriale con prodotto scalare definito positivo, è sempre possibile trovare una base dello spazio che sia ortogonale rispetto al prodotto scalare considerato. Definizione 3.1.35: Sia V uno spazio vettoriale reale. Si definisce norma un applicazione tale che: N1) (definita positiva) N2) (prodotto per uno scalare) N3) (disuguaglianza triangolare) Definizione 3.1.36: Uno spazio vettoriale dotato di norma si chiama spazio normato. Dato uno spazio vettoriale reale dotato di prodotto scalare sdp, è possibile definire su di esso una norma. Il prodotto scalare induce una norma definita nel seguente modo: La norma così definita viene denominata norma indotta dal prodotto scalare o norma euclidea. Definizione 3.1.37: Sia V uno spazio vettoriale reale dotato di prodotto scalare. Un vettore si dice normalizzato se. Definizione 3.1.38: Sia V uno spazio vettoriale reale, con un prodotto scalare. Sia una base ortogonale di V. Si dice che B è una base ortonormale se 38

. Naturalmente, data una qualunque base, attraverso il metodo di Gram-Schmidt è possibile dedurne una ortogonale, ed inoltre, dividendo ogni vettore per la sua norma (processo di normalizzazione), si ottiene una base ortonormale. Avendo introdotto il concetto di norma, la definizione di misura dell angolo fra due vettori attraverso il suo coseno assume la seguente forma: Le seguenti due identità seguono direttamente dalla definizione di norma. Teorema 3.1.10 (teorema di Pitagora): Se v e w sono due vettori perpendicolari risulta: Teorema 3.1.11 (legge del parallelogramma): Per ogni v e w si ha: Definizione 3.1.39: Dato un insieme E non vuoto, una metrica o distanza su E è un applicazione che gode delle seguenti proprietà: D1) ; D2) ; D3) (disuguaglianza triangolare). Il numero d(x, y) è chiamato distanza (o metrica) fra i due elementi x ed y di E, mentre la coppia (E, d) è denominata spazio metrico. 39

3.1.4.1 Approfondimenti sul prodotto scalare Un prodotto scalare è per definizione, una forma bilineare simmetrica e definita positiva; poiché, tuttavia, nella pratica si ha generalmente a che fare con matrici che non hanno rango massimo, si discute in questo paragrafo la possibilità di definire un prodotto scalare anche a partire da una matrice simmetrica che sia soltanto semidefinita positiva. Sia V uno spazio vettoriale reale di dimensione r, con e sia un suo sistema di generatori. Questo sistema di generatori è una base di V solamente se r = n. Ogni vettore di V può essere scritto come combinazione lineare degli n generatori, ed i coefficienti della combinazione possono essere assunti come sue coordinate o componenti rispetto a quel sistema di generatori. Un sistema di coordinate rispetto ad un sistema di generatori che non sia una base, però, non è univocamente determinato, venendo meno la corrispondenza biunivoca tra vettori dello spazio r-dimensionale ed n-uple di numeri reali; non è infatti unica la combinazione lineare che esprime un vettore in funzione di generatori non tutti linearmente indipendenti, almeno uno di tali generatori potendo essere a sua volta a sua volta espresso come combinazione lineare degli altri. Ad ogni modo, presi due qualsiasi vettori in V, ciascuno di essi individua univocamente una direzione, ed è univocamente determinato l angolo che si viene a formare tra essi, anche se non è unica la loro espressione come combinazione lineare rispetto ai generatori. Rappresentazione di una forma bilineare rispetto ad un sistema di generatori Se V è uno spazio vettoriale reale di dimensione r, per assegnare una forma bilineare è sufficiente definire come essa opera su coppie di vettori di una base dello spazio V; infatti ogni altro vettore dello stesso spazio si scrive in modo unico come combinazione dei vettori della base, e per bilinearità si può calcolare la forma b su qualsiasi coppia di vettori di V. Fissata arbitrariamente una base in V, la forma b è dunque rappresentata da una matrice reale B di ordine r, pari cioè alla dimensione dello spazio stesso, e che è simmetrica e/o semidefinita (definita) in segno se e solo se lo è la forma stessa. È possibile analogamente assegnare la stessa forma bilineare rispetto ad un sistema di generatori dello spazio V che non sia necessariamente una base: sebbene l espressione di ogni vettore come combinazione dei generatori non sia univocamente determinata, la forma è comunque ben definita. Più precisamente, se (con ) è un sistema di generatori (non necessariamente linearmente indipendenti) per lo spazio V, la stessa forma bilineare b è rappresentata, rispetto a tale sistema di generatori, da una matrice di ordine pari al numero n dei generatori. La definizione di una forma bilineare attraverso una matrice quadrata è ben posta anche 40

rispetto ad un sistema di generatori che non sia necessariamente una base. Se infatti v è un generico vettore di V, la non unicità della sua espressione rispetto al sistema di generatori è dovuta soltanto al fatto che almeno uno dei generatori può anche scriversi come combinazione lineare degli altri. Sia, ad esempio: dove i coefficienti e sono numeri reali. Ne segue che: Presi allora in V due vettori generici si ha: ma si ha anche: 41

che coincide con l espressione trovata sopra. Il rango della forma bilineare b è definito come il rango della matrice B che la rappresenta rispetto ad una base E di V prefissata arbitrariamente, e non può quindi superare la dimensione r dello spazio stesso; la forma è detta non degenere se ha rango massimo, cioè pari alla dimensione di V. Il rango di una forma è invariante per cambiamento di base, in quanto il cambiamento di base avviene attraverso matrici invertibili. Il rango della matrice che rappresenta una forma bilineare rispetto ad un sistema di generatori non può certamente superare il rango della matrice B, cioè il rango della forma stessa. Sia infatti ; poiché da ogni sistema di generatori è sempre possibile estrarre una base, la matrice contiene una sottomatrice di rango s che esprime la stessa forma b rispetto alla base estratta, ed ha quindi rango almeno pari ad s. D altra parte, se una base E viene ampliata ad un sistema di generatori linearmente dipendenti, la matrice si 42

ottiene dalla B aggiungendo righe e colonne che sono ciascuna combinazione lineare delle precedenti, ed il rango, non potendo aumentare, viene quindi conservato. La matrice quadrata di ordine n, che rappresenta la forma bilineare b rispetto ad un sistema di n > r generatori, non può dunque avere rango massimo neanche se la forma b è non degenere (cioè neanche se la forma ha rango massimo), in quanto: Tutto questo è valido in particolare se la forma bilineare b è un prodotto scalare su V, cioè se è simmetrica, non degenere e definita positiva: la matrice B che la rappresenta rispetto ad una base di V è simmetrica e definita positiva; la matrice che la rappresenta rispetto ad un sistema di generatori è ancora simmetrica, ma soltanto semidefinita positiva, non potendo avere rango massimo. Una matrice quadrata reale S di ordine n simmetrica e semidefinita positiva può dunque essere considerata come la matrice che esprime un prodotto scalare rispetto ad un sistema di generatori di uno spazio vettoriale reale di dimensione pari al rango della matrice stessa (allo stesso modo in cui una matrice simmetrica e definita positiva si considera come la matrice che esprime un prodotto scalare rispetto ad una base); il fatto che sia soltanto semidefinita positiva, pur esprimendo una forma che è invece definita positiva, dipende dal fatto che i generatori sono dati in numero sovrabbondante al necessario. Se la matrice S esprime i prodotti scalari tra i vettori di un sistema di generatori, si può per bilinearità calcolare il prodotto scalare su una qualsiasi coppia di vettori v e w del sottospazio generato, esattamente come nel caso di un prodotto scalare definito sui vettori di una base da una matrice simmetrica definita positiva. Si è già visto infatti che, sebbene ogni vettore ammetta diverse espressioni rispetto ad un sistema di generatori (mentre l espressione rispetto ad una base è unica), l applicazione della matrice S come forma bilineare (simmetrica) su una qualsiasi coppia di vettori produce lo stesso risultato indipendentemente dalle combinazioni lineari scelte per rappresentare i vettori stessi. Una matrice S di ordine n simmetrica e definita positiva, dunque, induce un prodotto scalare (definito positivo) su uno spazio vettoriale reale la cui dimensione è data dal rango della matrice stessa, e nel quale ha senso parlare di angolo tra due vettori e di norma di un vettore esattamente come nel caso di un prodotto scalare definito in da una matrice simmetrica definita positiva. Sia ancora S una matrice simmetrica. Lang (1972) definisce un prodotto scalare come una forma bilineare simmetrica, senza alcuna richiesta sulla sua definizione in segno; un prodotto scalare definito positivo rientra come caso particolare in tale definizione. Se la matrice S ammette anche autovalori negativi la forma bilineare ad essa associata, non più 43

definita (e neanche semidefinita) positiva, induce una pseudo-norma che può assumere valori negativi. casi del genere sono trattati nella teoria della relatività. Un esempio è dato dalla matrice: dove è la velocità di propagazione della luce nel vuoto, e dove gli autovalori positivi sono associati alle tre coordinate spaziali, mentre l autovalore negativo è associato alla coordinata temporale. Il caso relativo a matrici che non sono neanche semidefinite positive non viene sviluppato nel presente lavoro; si osserva soltanto che ogni matrice simmetrica può essere scritta come differenza di due matrici semidefinite positive: dove: quindi: Dai precedenti risultati si deduce chela matrice S può essere ridotta considerando di volta in volta gli autovettori interessati in modo tale che: 44

3.1.5 Autovalori e autovettori di matrici hermitiane e simmetriche Le definizioni, i teoremi e le proprietà esposte fino ad ora erano valide (a meno che non fosse diversamente specificato) in un qualunque spazio vettoriale V definito su di un qualunque campo K. Dato che però, in generale, i metodi numerici che permettono il calcolo degli autovalori sono applicabili solo se sono soddisfatte opportune ipotesi sulle matrici in esame, si specificherà ora il campo K ed il tipo di matrice (o, equivalentemente, d operatore) di cui si vogliono determinare tutti gli autovalori e tutti gli autovettori. Sia allora. Definizione 3.1.40: Una matrice A (o un operatore) si dice hermitiana (hermitiano) se vale la relazione: Si osservi che se il campo K fosse l insieme dei numeri reali, una matrice hermitiana si ridurrebbe ad essere una matrice simmetrica. Da ciò segue che tutti i risultati che verranno di seguito enunciati per le matrici hermitiane varranno, in particolare, per le matrici reali simmetriche. Si considera ora in la seguente applicazione: dove s è indicato con. È facile verificare che tale applicazione è un prodotto scalare definito positivo. Teorema 3.1.12: Sia A una matrice hermitiana. è un autovalore di A se e solo se è un autovalore di e è un autovalore di. Inoltre, se e sono autovalori distinti di A e se e allora (ossia due autovettori corrispondenti ad autovalori distinti sono fra loro ortogonali). Teorema 3.1.13: Sia A una matrice hermitiana e gli autovettori relativi ad autovalori distinti sono fra loro ortogonali.. Allora tutti i suoi autovalori sono reali Si vogliono ora caratterizzare le matrici simmetriche diagonalizzabili. Teorema 3.1.14: Sia V uno spazio vettoriale su, e si assuma che. Sia A una matrice quadrata. Allora esiste un autovettore non nullo di A. 45

Sia V uno spazio vettoriale su dotato di prodotto scalare. Teorema 3.1.15: Sia A una matrice hermitiana. Sia v un autovettore non nullo di A. Se w è un elemento di V, ortogonale a v, allora è ortogonale a v. Teorema 3.1.16: Sia A una matrice hermitiana (o un operatore) di dimensione m. Allora esiste una base ortogonale di V costituita da m autovettori di A. Corollario: Sia A una matrice hermitiana (o un operatore). Allora esiste una base ortonormale di V costituita da autovettori di A. In base al corollario precedente la seguente definizione è ben posta. Definizione 3.1.41: Se A è una matrice quadrata diagonalizzabile si definisce la matrice matrice modale di A come la matrice le cui colonne sono gli autovettori di A. Definizione 3.1.42: Una matrice si dice unitaria se Teorema 3.1.17 (teorema spettrale): Sia A una matrice matrice unitaria U di dimensioni tale che: hermitiana. Allora esiste una (5) è una matrice diagonale. Dimostrazione: Si supponga che A sia la matrice associata ad un applicazione lineare, relativamente alla base canonica. Per il teorema 3.1.16, si può trovare una base ortonormale di V tale che la matrice che rappresenta F rispetto a, sia diagonale. Allora è diagonale. Inoltre, U è unitaria. Infatti, sia. Allora 46

La condizione d ortonormalità dei vettori ( ) implica che e questo prova il teorema. # In particolare se dal teorema spettrale segue che ogni matrice reale e simmetrica è diagonalizzabile e che la matrice modale è ortonormale. Dall equazione (5) segue anche che: che prende il nome di decomposizione spettrale di A. Definizione 3.1.43: Una forma quadratica è detta in forma canonica se la matrice ad essa associata è diagonale. Teorema 3.1.18: Sia V uno spazio vettoriale dotato di prodotto scalare. Data una forma quadratica su V, essa può sempre essere ridotta a forma canonica. Dimostrazione: Dato che la matrice A associata ad una forma quadratica è simmetrica, per il teorema spettrale, esiste una base ortonormale di autovettori. Sia allora V la matrice modale di A. Ponendo si ha: dove è la matrice diagonale degli autovalori di A. # In particolare il teorema (3.1.18) vale se la forma quadratica è una forma quadratica definita positiva. Ciò significa che esiste una base ortonormale d autovettori, rispetto alla quale tale forma quadratica è del tipo. Sia ora. Teorema 3.1.19: Se A è una matrice simmetrica definita positiva d ordine n e C è una matrice con rango, allora la matrice è semidefinita positiva. Teorema 3.1.20: Se S è una matrice simmetrica semidefinita positiva d ordine k e rango, esiste sempre una matrice W di dimensione tale che. Dimostrazione: La matrice S ha per ipotesi n autovalori non nulli e (teorema spettrale). Posto autovalori nulli 47

(6) dove si è indicata con U la matrice modale di S e con la matrice, di dimensioni, così definita: Risulta allora: Per l equazione (6), si ha Osservazione 3.1.1: Se S è definita positiva (per cui singolare. # ), W è una matrice quadrata non Osservazione 3.1.2: La decomposizione di S come prodotto di una matrice per la sua trasposta non è unica. Se infatti P è una qualunque matrice ortonormale ( ) si ha che Dato che però si tratta comunque di matrici ortogonali, questo significa che una matrice H tale che è definita a meno di una rotazione nello spazio. Inoltre, dato che la matrice W è definita a partire da una base ortonormale d autovettori, essa non sarà, in generale, unica. Se esiste un autovalore che ha molteplicità maggiore di 1, è sempre possibile trovare un altra base ortonormale di autovettori per il sottospazio associato a, e quindi per l intero spazio V. In realtà ciò è vero anche se gli autovalori sono tutti semplici perché ogni autovalore è definito a meno di una costante moltiplicativa e quindi, anche se la base dev essere ortonormale, ogni autovettore è definito a meno dell orientamento. 48

3.2 Spazi affini e spazi euclidei In questo paragrafo si introdurranno gli spazi affini, che generalizzano il piano e lo spazio ordinari, e nei quali lo spazio dei vettori è assegnato nella definizione. In tali spazi si studiano esclusivamente le proprietà geometriche deducibili per mezzo dell uso dei vettori. Definizione 3.2.1: Dato uno spazio vettoriale V su K, si definisce spazio affine avente V come spazio sostegno, un insieme A non vuoto con un applicazione: (7) che ad ogni coppia associa un altro punto,, tale che: SA1) SA2) SA3) per ogni P e Q in A, esiste uno ed un solo v in V tale che. Gli elementi di A sono detti punti, mentre gli elementi di V sono chiamati vettori. L applicazione (7) definisce una struttura di spazio affine sull insieme A. I n particolare, se ( ) A si dice spazio affine reale (complesso). Se lo spazio vettoriale V ha dimensione finita, essa è detta dimensione dello spazio affine A, e viene indicata con. D ora in poi ci si riferirà solo a spazi affini di dimensione finita n. Definizione 3.2.2: Siano V un K-spazio vettoriale ed A uno spazio affine su V. Un sistema di coordinate affini (ovvero un riferimento affine) nello spazio A è assegnato una volta fissati un punto ed una base di V, e viene indicato con. Per ogni punto si definisce il vettore: per opportuni. Gli scalari si dicono le coordinate affini (o, semplicemente, coordinate) del punto P rispetto al riferimento. Il punto O si dice origine del sistema di coordinate ed ha come n-pla di coordinate. Definizione 3.2.3: Siano V un K-spazio vettoriale ed A uno spazio affine su V. Siano assegnati un punto ed un sottospazio vettoriale W di V. Il sottospazio affine passante per Q e parallelo a W è il sottoinsieme S di A costituito da tutti punti tali che. Il sottospazio è detto giacitura di S. Il numero è detto dimensione di S e si 49

indica con. Teorema 3.2.1: Un sottospazio affine è individuato dalla sua giacitura e da uno qualsiasi dei suoi punti. E possibile allora scrivere che. Definizione 3.2.4: Dati due sottospazi affini ed, essi saranno detti paralleli se oppure. Teorema 3.2.2: Se e sono due sottospazi affini paralleli di A ed hanno un punto in comune, uno è propriamente contenuto nell altro o coincidono. Teorema 3.2.3: Se è un punto fissato di A, è un sottospazio affine e è un sottospazio di V, esiste uno ed un solo sottospazio passante per P ed avente come giacitura. In altre parole, per un punto assegnato di A passa uno ed un solo sottospazio affine di direzione assegnata. Definizione 3.2.5: Siano V e due K-spazi vettoriali, A uno spazio affine su V e uno spazio affine su. Un isomorfismo di A su è un applicazione biunivoca tale che esista un isomorfismo degli spazi vettoriali associati soddisfacente alla condizione: per ogni. Un affinità è un isomorfismo di A su se stesso. Dalla definizione segue subito che l isomorfismo, chiamato isomorfismo associato ad f, è univocamente determinato da f. Nel seguito si indicherà con Aff(A) l insieme delle affinità su di uno spazio affine A. Sia V un K-spazio vettoriale e sia A uno spazio affine su V. Un affinità di A può essere intuitivamente pensata come una trasformazione che è compatibile con la struttura di spazio affine e pertanto lascia inalterate le relazioni geometriche dipendenti dalle proprietà dei vettori. Teorema 3.2.4: Fissato un punto, per ogni e per ogni automorfismo di V esiste una ed una sola affinità tale che e tale che l automorfismo associato ad f sia. In particolare un affinità f è individuata dall automorfismo di V ad essa associato e dall immagine di un qualsiasi punto. 50

Definizione 3.2.6: Sia A uno spazio affine su V e sia. La traslazione definita da v è l affinità che associa ad ogni punto il punto tale che. Sia A uno spazio affine su V. Si supponga assegnato un punto e si indichi con: l insieme delle affinità che fissano il punto O. Teorema 3.2.5: Siano e. Esistono e, univocamente individuati da f, tali che: Teorema 3.2.6: Un affinità trasforma sottospazi affini paralleli in sottospazi affini paralleli. Teorema 3.2.7: Sia F un sottospazio affine di A e sia. L immagine di F tramite f è ancora un sotto spazio affine di A e. Sia A uno spazio affine e V il suo sostegno. Se lo spazio vettoriale V è normato, la norma induce in A una metrica definita come: Definizione 3.2.7: Sia sia un insieme di scalari tali che: un insieme di m punti nello spazio affine A e Il punto G: è chiamato baricentro dell insieme di punti S, tale che al punto sia associato il peso, con. Se si considera ogni punto con le proprie coordinate, ovvero (dove ), la j-esima coordinata del baricentro sarà rappresentata dalla seguente espressione: 51

con. Nel caso in cui: si ha: Definizione 3.2.8: Sia E uno spazio affine reale sullo spazio vettoriale V. Si dirà che E è uno spazio euclideo se in V è assegnato un prodotto scalare definito positivo. Si userà la notazione per il prodotto scalare di due vettori v e w di V. Nel caso di spazi euclidei, oltre alla nozione di sottospazi paralleli, è possibile introdurre la nozione di sottospazi fra loro ortogonali. Definizione 3.2.9: Sia E uno spazio euclideo e siano F, G due suoi sottospazi le cui giaciture siano rispettivamente U e W. Si dirà che F e G sono ortogonali se lo sono le loro giaciture, ossia se per ogni e per ogni risulta: Dato un sottospazio euclideo, il sottospazio vettoriale ad esso ortogonale non è altro che l insieme dei vettori ortogonali ad ogni vettore di W: Dato un sottospazio euclideo S, essendo anch esso anche un sottospazio affine, dal teorema 3.2.1 discende che ad esso corrisponde un unico sottospazio vettoriale W di V tale che, dove Q è un punto arbitrario di S. Teorema 3.2.8: Dati due sottospazi euclidei ed paralleli, i loro sottospazi ortogonali, passanti per un punto P dello spazio, coincidono. Definizione 3.2.10: Dati due sottospazi euclidei ed paralleli si 52

definisce la distanza fra di essi come la norma del vettore ottenuto proiettando il vettore sul comune sottospazio ortogonale passante per un punto P. Definizione 3.2.11: Un sistema di coordinate nello spazio euclideo E tale che sia una base ortonormale di V si chiama sistema di coordinate cartesiane oppure riferimento cartesiano. Nello studio degli spazi euclidei è naturale utilizzare sistemi di coordinate cartesiane dato che ciò facilita notevolmente i calcoli. Inoltre la formula del cambiamento di coordinate da un riferimento cartesiano ad un altro ha una forma particolare, dovuta al fatto che le corrispondenti basi sono ortonormali. Definizione 3.2.12: Sia E uno spazio euclideo su V. Dato un operatore lineare definisce l operatore trasposto o aggiunto di F, come l unico operatore si tale che: per ogni. Tale operatore viene indicato con. Definizione 3.2.13: Un operatore si dice unitario se e solo se. Definizione 3.2.14: Sia E uno spazio euclideo su V. Un affinità un isometria di E se l automorfismo associato è un operatore unitario. si dice Teorema 3.2.9: Sia E uno spazio euclideo. Un applicazione solo se: è un isometria se e Quindi le isometrie conservano le distanze fra punti. Come nel caso delle affinità, si vede ora quali sono le altre proprietà geometriche conservate dalle isometrie. Teorema 3.2.10: Un isometria trasforma sottospazi euclidei ortogonali in sottospazi euclidei ortogonali. 3.3 Il momento d inerzia Come si vedrà nei prossimi capitoli, un problema comune a numerosi metodi dell analisi dei dati è di riuscire a determinare uno spazio in cui l informazione contenuta nei dati possa essere rappresentata in modo più semplice, in maniera da consentire la descrizione e l interpretazione del fenomeno a cui tali dati si riferiscono. 53

In questo e nei prossimi paragrafi, saranno affrontati tutti quei problemi legati alla determinazione di tale spazio: occorre sottolineare, pertanto, che in generale ridurre un sistema di dati significa risolvere un problema di massimo o di minimo vincolato, ovvero definire una funzione obiettivo di cui s intende calcolare il minimo o il massimo, in modo che risultino verificate certe condizioni (vincoli). Dato che sarà possibile fornire un interpretazione geometrica della tabella dei dati, per cui le righe e le colonne di quest ultima potranno essere viste come punti e vettori in opportuni spazi vettoriali, è appropriato supporre d immergere i dati in uno spazio affine e, quindi, tradurre la classica analisi statistica in termini esclusivamente matematici. Sia E uno spazio euclideo p - dimensionale e V il suo spazio vettoriale reale associato e sia M la matrice che definisce i prodotti scalari fra gli elementi di una base di V, ossia: per ogni. Dato che la matrice M rappresenta una forma bilineare simmetrica definita positiva, essa sarà simmetrica e definita positiva, ossia: Il prodotto scalare, definito da M, induce inoltre una norma ed una metrica (distanza), che sono rispettivamente definite da: Uno spazio euclideo il cui prodotto scalare sia definito da una matrice M viene anche detto spazio euclideo con metrica M o spazio M-euclideo e i due termini verranno nel seguito usati in modo equivalente. La M-lunghezza d un vettore x è definita allora da: mentre, dati due vettori essi si diranno M-ortogonali (e verrà indicato con ) se Due sottospazi F e G di E, si diranno allora M-ortogonali ( equazione è verificata per ogni. ) se la precedente 54

Si supponga inoltre che in E sia fissato un sistema di riferimento (in generale non cartesiano). Definizione 3.3.1: Dato un insieme di punti, di pesi rispettivamente, ed un punto, di definisce l inerzia di S rispetto al punto P come la quantità: Se e per, l inerzia rispetto al punto P assume la seguente espressione: In particolare, se il punto P coincide con l origine del riferimento l equazione diventa: Quest ultima quantità rappresenta la media pesata delle distanze (al quadrato) fra i punti di S e l origine del sistema di riferimento. L intenzione è ora di definire l inerzia rispetto ad un sottospazio euclideo F. Tale definizione viene introdotta in quanto nella trattazione classica dei principali metodi di analisi multidimensionale dei dati, si vorranno cercare i sottospazi euclidei dello spazio delle variabili ad inerzia massima (o minima) e si otterrà quindi un problema di massimo (o minimo) vincolato. In base al teorema 3.2.1 quest ultimo risulta essere individuato da un punto Q e da un sottospazio vettoriale W dello spazio vettoriale sostegno. Al variare del punto Q possono dunque essere determinati una serie di sottospazi euclidei tutti paralleli fra loro. Se si considerano i sottospazi ad essi M-ortogonali passanti per uno stesso punto P dello spazio E, essi risultano essere, in base al teorema 3.2.8, tutti coincidenti. In virtù delle considerazioni fatte sulle proprietà geometriche conservate dalle affinità e dalle isometrie, senza ledere in alcun modo la generalità dei risultati, si può assumere come giacitura d un insieme di sottospazi euclidei paralleli, il corrispondente sottospazio di V passante per il baricentro dell insieme di punti, ovvero eseguire un cambio d origine. Come si vedrà in seguito, in base al teorema di Huyghens, questo sarà conveniente nella ricerca del sottospazio ad inerzia minima o massima. Dato un qualunque sottospazio F di E ed un insieme di punti, per ogni punto si possono considerare le proiezioni e, rispettivamente su F ed. Secondo la generalizzazione del teorema di Pitagora per gli spazi euclidei, dato che, che e che risulta, ogni vettore di V si scrive in modo unico 55

come somma di due vettori appartenenti rispettivamente a W e, si ha quindi: Si può allora scrivere: Definizione 3.3.2: Si definisce la distanza del punto dal sottospazio F come la norma del vettore, ossia la proiezione di su. Si definiscono, inoltre, l inerzia di S rispetto ai sottospazi F ed rispettivamente come: (8) Teorema 3.3.1 (Huyghens): Il momento d inerzia d un insieme di punti rispetto ad un sottospazio euclideo F non passante per il baricentro è maggiore del momento d inerzia rispetto al sottospazio G, avente la stessa giacitura di F, che passa per il baricentro. Dimostrazione: In termini formali, si può dire che, dato un sottospazio euclideo, si vuole dimostrare che: (9) e che pertanto il momento d inerzia minimo si avrà in corrispondenza a. Senza perdita di generalità si può supporre che l origine del sistema di riferimento sia il baricentro dell insieme di punti. Allora il sottospazio G coincide con W. Per definizione di sottospazio si può scrivere: ed è quindi evidente che : dato che questi due insiemi hanno un punto in comune (l origine), per il teorema 3.2.2, si può concludere che. Come sottolineato in precedenza, il punto può essere scritto nella forma con. Indicando con e le proiezioni di su F e si ricava: da cui segue che: 56

Dato che: si ottiene: (10) supposto che: Poiché il baricentro è stato posto nell origine, i punti sono centrati ed altrettanto lo sono le loro proiezioni su F e, pertanto dovrà essere: L espressione indicata rappresenta però la somma di due vettori ortogonali che quindi dovranno essere entrambi nulli da cui, in particolare, segue: Da ciò segue che: Ricordando che: e sostituendo nella (10), si ottiene che è quanto si voleva dimostrare. # Questa formula, oltre ad esprimere il significato del teorema di Huyghens, fornisce un metodo per calcolare partendo da. Dato infatti il sottospazio F ed un insieme di punti di E, il momento d inerzia di tale insieme rispetto ad F, sarà dato dalla somma fra il momento d inerzia rispetto alla sua giacitura e la distanza di un suo punto dall origine v. Nei risultati seguenti ci si riferirà solo a sottospazi vettoriali; per generalizzare i risultati basterà utilizzare il teorema suddetto e la formula (9). Teorema 3.3.2 (decomposizione dell inerzia): Sia W un generico sottospazio di V e siano 57

e due suoi sottospazi tali che: Risulta allora: (11) Dimostrazione: Dalla (8) si ricava:. Si decomponga ora il vettore come con,, e, analogamente, si ripeta lo stesso procedimento per i vettori, ossia: vale a dire e sono rispettivamente le proiezioni di su e, coincidenti con le proiezioni di su questi due sottospazi. Pertanto si ha: Dato che la norma al quadrato della somma di due vettori ortogonali è pari alla somma dei quadrati delle loro norme, si ottiene: # Dalla (11) si ottiene anche un altra espressione per il momento d inerzia. Infatti, visto che si ha: si ricava anche: Teorema 3.3.3 (incapsulamento dei sottospazi rispetto ai quali l inerzia è minima): Se è un sottospazio di dimensione k a momento d inerzia minimo, o, equivalentemente, tale che sia massimo, esso è contenuto in un sottospazio di dimensione a momento d inerzia 58

minimo fra tutti i sottospazi di dimensione. In termini formali: da cui segue l incapsulamento dei sottospazi ottimali: Dimostrazione: Si suppone che e di aver determinato il sottospazio. Dato un qualunque sottospazio di V, si ha: da cui si ricava: Dalla formula di Grassmann vettoriale per due sottospazi assegnati U e W di V, ( ), segue allora che: Esiste quindi un vettore, tale che: La retta r generata da v è tale che, ed è quindi, in particolare, ortogonale a. Si consideri il sottospazio, di dimensione k, supplemento ortogonale ad r in. Risulta allora: Si consideri ora il sottospazio. Dato che si ottengono le seguenti relazioni: Tenendo conto del teorema di decomposizione dell inerzia, si può allora scrivere che: e tenendo conto anche del fatto che, si ha: 59

Dato che e che, segue che: o, equivalentemente: Si può dunque concludere che, preso un arbitrario sottospazio k-dimensionale, esiste sempre un sottospazio k-dimensionale, rispetto al quale l inerzia dell insieme di punti sia minore o uguale a quella calcolata rispetto a. Il sottospazio giace allora in. # Poiché il teorema vale per ogni k, vale allora anche la formula di incapsulamento di sottospazi sopra indicata, la quale, a sua volta, stabilisce un metodo per la determinazione dei sottospazi rispetto ai quali l inerzia è minima. La soluzione ottenuta utilizzando tale metodo è unica a meno dell orientamento degli assi se gli autovalori sono tutti semplici, mentre se esiste un autovalore la cui molteplicità è maggiore di 1, la soluzione dipenderà dagli autovettori che vengono scelti come base per il sottospazio generato e dall ordine in cui essi vengono considerati. Corollario 3.3.1: Dato un sottospazio, di dimensione k, a momento d inerzia minimo, il sottospazio di dimensione, s ottiene aggiungendo al primo la retta r ad esso ortogonale, tale che sia minima. I risultati dimostrati permettono di giungere alla seguente conclusione: dato un arbitrario punto P di uno spazio euclideo E, il momento d inerzia di un insieme di punti, rispetto ad un sottospazio, passante per quel punto, è dato dalla relazione: dove W è la giacitura di F e v è il vettore che individua il sottospazio. Dunque, la determinazione del sottospazio è stabilito sulla determinazione di k rette M-ortogonali, generanti la direzione di W, ognuna delle quali, in progressione, verifica il vincolo d inerzia minima (o d inerzia massima rispetto al sottospazio ortogonale) condizionatamente alle rette precedentemente determinate. 3.4 Massimi e minimi di funzioni reali di r variabili reali e moltiplicatori di Lagrange. Sia f(x) una funzione reale del punto definita in A dello spazio. 60

Si dirà che è un punto di massimo (relativo) [punto di minimo (relativo)] per la f(x) se si può trovare un numero positivo tale che per ogni verificante la condizione, si abbia: Se il segno uguale sussiste solo per il punto si dice un punto di massimo (relativo) proprio [un punto di minimo (relativo) proprio]. Un punto che sia di massimo o di minimo per f(x) sarà detto un punto estremante per f(x) oppure si dirà che f(x) ha in un estremo (massimo o minimo). Teorema 3.4.1: Se della derivata parziale è un punto interno ad A estremante per f(x) e se f(x) è dotata in, riesce allora Se f(x) ha in un punto tutte le derivate parziali prime e se riesce: si dice che è un punto estremale per f(x). Si consideri ora la funzione di r variabili reali: (12) con costanti reali. Essa viene detta una forma quadratica - f. q. - (reale) nelle r variabili reali Le costanti si dicono i coefficienti della f.q. Q(x). Si ha: Posto: la (12) può riscriversi nel seguente modo: Riesce, dunque,, ovvero la f.q. può sempre supporsi simmetrica. Data la forma quadratica Q(x) si denotino con 61