Spazi vettoriali metrici e teorema spettrale.

Documenti analoghi
Spazi vettoriali metrici.

Autovalori, Autovettori, Diagonalizzazione.

Capitolo IV SPAZI VETTORIALI EUCLIDEI

Universita degli Studi di Roma Tor Vergata Facolta di Ingegneria: Elettronica. Corso di Geometria ed Algebra Docente F. Flamini

Parte 8. Prodotto scalare, teorema spettrale

Spazi vettoriali euclidei.

Il Teorema Spettrale. 0.1 Applicazioni lineari simmetriche ed hermitiane

SPAZI EUCLIDEI, APPLICAZIONI SIMMETRICHE, FORME QUADRATICHE

Algebra lineare e geometria AA Appunti sul cambio di base in uno spazio vettoriale

2. Fra tutti i rettangoli inscritti in una circonferenza, determinare quello di area massima.

ATTENZIONE: : giustificate le vostre argomentazioni! Geometria Canale 3. Lettere J-PE (Prof P. Piazza) Esame scritto del 12/02/2014. Compito A.

Prodotto scalare e matrici < PX,PY >=< X,Y >

GEOMETRIA 1 quarta parte

SPAZI VETTORIALI CON PRODOTTO SCALARE A =

Spazi euclidei, endomorfismi simmetrici, forme quadratiche. R. Notari

Autovalori e autovettori di una matrice quadrata

Geometria BAER Canale A-K Esercizi 8

0. Introduzione al linguaggio matematico

Applicazioni lineari e diagonalizzazione. Esercizi svolti

AUTOVALORI, AUTOVETTORI, AUTOSPAZI

Prodotto interno (prodotto scalare definito positivo)

Autovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti)

ESERCIZI DI ALGEBRA LINEARE (II PARTE) In ogni sezione gli esercizi sono tendenzialmente ordinati per difficoltà crescente.

Esercizi Di Geometria 1 (BAER) Canale 1

Complemento ortogonale e proiezioni

APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof. F.Podestà, a.a

Applicazioni bilineari e matrici.

Facoltà di Ingegneria Corsi di Laurea in Ingegneria Navale ed Ingegneria Industriale. Programma del corso di GEOMETRIA

Prima prova scritta di Geometria 1, 26 gennaio 2018

Formulario sui Prodotti Hermitiani Marcello Mamino Pisa, 24 v 2010

0. Introduzione al linguaggio matematico

Geometria UNO Prodotti hermitiani

REGISTRO DELLE LEZIONI

Matrici simili. Matrici diagonalizzabili.

Lezione Diagonalizzazione ortogonale per matrici simmetriche

Capitolo IX DIAGONALIZZAZIONE DI MATRICI SIMMETRICHE

0.1 Condizione sufficiente di diagonalizzabilità

FONDAMENTI DI ALGEBRA LINEARE E GEOMETRIA INGEGNERIA CHIMICA E DEI MATERIALI 27 GIUGNO 2016

6. Spazi euclidei ed hermitiani

0.1 Spazi Euclidei in generale

GEOMETRIA 1 Autovalori e autovettori

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n

0. Introduzione al linguaggio matematico

Forme bilineari simmetriche

GEOMETRIA 1 quarta parte

GAAL: Capitolo dei prodotti scalari

FONDAMENTI DI ALGEBRA LINEARE E GEOMETRIA

Diagonalizzabilità di endomorfismi

Geometria BAER Canale A-K Esercizi 9

p(ϕ) = a 0 Id + a 1 ϕ + + a n ϕ n,

PROGRAMMA DEL CORSO DI GEOMETRIA E ALGEBRA. A.A

Isometrie e cambiamenti di riferimento

Soluzione. (a) L insieme F 1 e linearmente indipendente; gli insiemi F 2 ed F 3 sono linearmente

Universita degli Studi di Roma - "Tor Vergata" - Facolta Ingegneria Esercizi GEOMETRIA (Edile-Architettura e dell Edilizia) CONICHE DI

Corso di Laurea in Fisica. Geometria. a.a Prof. P. Piazza Diagonalizzazione delle forme bilineari simmetriche

A.A. 2014/2015 Corso di Algebra Lineare

Corso di Geometria Meccanica, Elettrotecnica Esercizi 11: soluzioni

Fattorizzazione QR e matrici di Householder

4 Autovettori e autovalori

Corso di Matematica Discreta. Anno accademico Appunti sulla diagonalizzazione.

PROGRAMMA DEL CORSO DI GEOMETRIA E ALGEBRA. A.A

Errata corrige. p. 10 riga 5 del secondo paragrafo: misurare

Similitudine (ortogonale) e congruenza (ortogonale) di matrici.

Volumi in spazi euclidei 12 dicembre 2014

Corso di Geometria Ing. Informatica e Automatica Test 1: soluzioni

Calendario delle lezioni di Geometria e Algebra

Applicazioni lineari e diagonalizzazione pagina 1 di 5

1. Complemento ortogonale di un vettore non nullo Abbiamo visto che nel piano

Geometria BAER Canale A-K Esercizi 11

GEOMETRIA 1 terza parte

Esercizi di ripasso: geometria e algebra lineare.

Richiami di algebra delle matrici a valori reali

Geometria A. Università degli Studi di Trento Corso di laurea in Matematica A.A. 2017/ Maggio 2018 Prova Intermedia

Facoltà di INGEGNERIA E ARCHITETTURA Anno Accademico 2016/17 Registro lezioni del docente ZUDDAS FABIO

(P x) (P y) = x P t (P y) = x (P t P )y = x y.

MATRICI ORTOGONALI. MATRICI SIMMETRICHE E FORME QUADRATICHE

Operatori antisimmetrici

Corso di Laurea in Fisica. Geometria. a.a Prof. P. Piazza Diagonalizzazione delle forme bilineari simmetriche

Capitolo 8 Forme quadratiche e loro applicazioni Esercizi svolti Tutorato di geometria e algebra lineare. Marco Robutti

ENDOMORFISMI. ove B := (v 1,v 2,v 3 ). (1) Determinare gli autovalori di f e le relative molteplicità algebriche e geometriche.

Lezioni di Algebra Lineare V. Autovalori e autovettori

Note per il corso di Geometria Corso di laurea in Ing. Elettronica e delle Telecomunicazioni

ALGEBRA C. MALVENUTO

Autovettori e autovalori

LEZIONE 16 A = Verifichiamo se qualcuna fra le entrate a di A è suo autovalore. determinare per quale entrata a di A risulta rk(a ai 2 ) 1.

Daniela Lera A.A

ESAME DI GEOMETRIA. 6 febbraio 2002 CORREZIONE QUIZ

Geometria Appello I Sessione Invernale Corso di laurea in fisica A.A 2018/2019 Canali A C, L Pa, Pb Z

Appunti di Geometria - 5

Punti di massimo o di minimo per funzioni di n variabili reali

11 settembre Soluzione esame di geometria - Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA...

La forma normale di Schur

Prodotti scalari e matrici

Parte 7. Autovettori e autovalori

Algebra lineare e geometria AA Esercitazione del 14/6/2018

APPLICAZIONI LINEARI

LEZIONE 12. v = α 1 v α n v n =

Applicazioni lineari e diagonalizzazione

Transcript:

Spazi vettoriali metrici e teorema spettrale.. Prodotti scalari e hermitiani. Spazi vettoriali metrici Definizione. Sia V uno spazio vettoriale su R e sia g: V V R una funzione. Se per ogni v, v, v, w, w, w V e λ R si ha g(v + v, w) g(v, w) + g(v, w), g(v, w) g(v, w ) + g(v, w ), g(λv, w) λg(v, w) g(v, λw) g si dice forma bilineare. Se per ogni v, w V si ha g(v, w) g(w, v) g si dice simmetrica. Una forma bilineare simmetrica si dice prodotto scalare. Definizione. Sia V uno spazio vettoriale su C e sia h: V V C una funzione. Se per ogni v, v, v, w, w, w V e λ R si ha h(v + v, w) h(v, w) + h(v, w), h(v, w) h(v, w ) + h(v, w ), h(λv, w) λh(v, w), h(v, λw) λh(v, w) g si dice forma sesquilineare. Se per ogni v, w V si ha g(v, w) g(w, v) g si dice hermitiana. Una forma sesquilineare hermitiana si dice prodotto hermitiano. Esempio. Il prodotto scalare canonico <, >: R n R n R di R n è la forma bilineare simmetrica definita per ogni scelta di v, w R n da < v, w > v i w i w T v. Sia A M n (R) una matrice simmetrica reale ossia tale che A A T. Un prodotto scalare <, > A : R n R n R è definito da < v, w > A < Av, w >. La bilinearità di <, > A segue immediatamente dalla bilinearità del prodotto scalare canonico e dalla distributività del prodotto di matrici. La simmetria segue da: < v, w > A < Av, w >< w, Av > (Av) T w v T A T w v T Aw < Aw, v >< w, v > A.

Esempio. Il prodotto hermitiano canonico su C n è la forma sesquilineare hermitiana <, >: C n C n C definita per ogni scelta di v, w C n da < v, w > v i w i w H v dove come al solito per una matrice (o per un vettore inteso come matrice con una sola colonna) l apice H indica la trasposta coniugata. Sia A M n (R) una matrice hermitiana ossia tale che A A H. Un prodotto hermitiano <, > A : C n C n C è definito da < v, w > A < Av, w >. La sesquilinearità di <, > A segue immediatamente dalla sesquilinearità del prodotto hermitiano canonico e dalla distributività del prodotto di matrici. La hermitianità segue da: < v, w > A < Av, w > < w, Av > (Av) H w v H A H w v H Aw < Aw, v > < w, v > A. In realtà si dimostra facilmente che i prodotti scalari e hermitiani definiti negli Esempi e sono tutti quelli possibili: Proposizione.: (i) Sia (, ): R n R n R un prodotto scalare e siano e,..., e n i vettori della base canonica di R n. Se A (a kj ) è la matrice simmetrica definita da a kj (e j, e k ), allora (, ) <, > A. (ii) Sia (, ): C n C n C un prodotto hermitiano e siano e,..., e n i vettori della base canonica di C n. Se A (a kj ) è la matrice Hermitiana definita da a kj (e j, e k ), allora (, ) <, > A. Dimostrazione: (i): Siano x., y x n (x, y) x j e j, y k e k (ii): Siano x x. x n j k y k, y x k a kj x j j (x, y) x j e j, j k y k y. y n y. y n j,k R n. Allora x j y k (e j, e k ) y k (Ax) k y T Ax < x, y > A. k C n. Allora y k e k k a kj x j j j,k x j y k (e j, e k ) y k (Ax) k y H Ax < x, y > A. k

Esempio. Sia V C ([a, b]) lo spazio vettoriale delle funzioni continue a valori reali definite sull intervallo [a, b] R. Definiamo g: V V R ponendo g(f, g) b a f(t)g(t)dt per ogni f, g V. È immediato verificare che g è un prodotto scalare. Definizione. Un prodotto scalare (hermitiano) <, > su uno spazio vettoriale V si dice definito positivo se per ogni v V \ {O} si ha < v, v >> e definito negativo se per ogni v V \ {O} si ha < v, v ><. Si dice che <, > è semidefinito positivo se per ogni v V si ha < v, v > e esiste v V \ {O} tale che < v, v >. Si dice che <, > è semidefinito negativo se per ogni v V si ha < v, v > e esiste v V \ {O} tale che < v, v >. Infine <, > si dice indefinito se esistono v, w V tali che < v, v >> e < w, w ><. Esempi. Il prodotto scalare canonico di R n e il prodotto hermitiano canonico di C n sono definiti positivi. In teoria della Relatività è importante considerare il prodotto di Minkowski, il prodotto scalare su R 4 definito da x x <, x x 4 y y y y 4 > x y + x y + x y x 4 y 4. Il prodotto di Minkowski è indefinito. Il prodotto scalare definito nell Esempio sullo spazio delle funzioni continue sull intervallo [a, b] è definito positivo. Infatti se f C ([a, b]) allora f (t) per t [a, b]. Dunque b a f (t)dt e si dimostra in teoria dell integrazione che b a f (t)dt se e solo se f, e quindi f, è identicamente nulla. Ci occuperemo prevalentemente di prodotti scalari definiti positivi. Cominciamo introducendo un ulteriore nozione: Definizione. Uno spazio vettoriale metrico reale (complesso) è uno spazio vettoriale V su R (C) su cui è definito un prodotto scalare (hermitiano) <, > definito positivo. Su uno spazio vettoriale metrico la funzione : V R +, definita da v < v, v >, si dice norma. Proposizione.: Sia V uno spazio vettoriale metrico con prodotto <, > e norma. Allora: (i) Per ogni v V si ha v e v se e solo se v O. (ii) Per ogni scalare λ e v, w V si ha λv λ v, v + w v + w + Re < v, w >. (iii) Per ogni v, w V vale la diseguaglianza di Cauchy-Schwarz: < v, w > v w (.) e l uguaglianza vale se e solo se v e w sono linearmente dipendenti.

(iv) Per ogni v, w V vale la diseguaglianza triangolare: v + w v + w. (.) (v) Per ogni v, w V valgono le seguenti formule di polarizzazione: < v, w > ( v + w v w ) per V su R (.) 4 Re < v, w > 4 ( v + w v w ) e Im < v, w > 4 ( v + iw v iw ) per V su C. (.4) Dimostrazione: La (i) segue immediatamente dal fatto che <, > è definito positivo. Per (ii) calcoliamo nel caso complesso (quello reale è ancora più semplice): λv < λv, λv > λλ < v, v > λ v, v+w < v+w, v+w >< v, v > + < w, w > + < v, w > + < w, v > v + w +Re < v, w > Dimostriamo ora la (iii). Se v oppure w l enunciato vale. Supponiamo allora che v e w. Allora, usando (ii), per ogni coppia di scalari a, b si ha av + bw a v + b w + Re(ab < v, w >). Se si pone a w > e b < v, w >, la diseguaglianza diventa w 4 v + < v, w > w + Re[ w ( < v, w > < v, w >)] w 4 v < v, w > w. Dividendo per w >, la diseguaglianza di Cauchy-Schwarz segue. Si osservi che l eguaglianza vale se e solo se av + bw e quindi se e solo se av + bw O, ossia se v e w sono linearmente dipendenti. Per quanto riguarda (iv), si osservi prima di tutto che che per ogni v, w Dunque Re < v, w > < v, w > v w. v + w v + w + Re < v, w > v + w + Re < v, w > v + w + v w ( v + w ) e quindi (iv) vale. Infine dimostriamo le formule di polarizzazione nel caso complesso. Si ha v + w v + w + Re < v, w > e v w v + w Re < v, w > e quindi In modo analogo calcoliamo 4Re < v, w > v + w v w. v + iw v + w + Im < v, w > e v iw v + w Im < v, w > e quindi Nel caso reale si procede allo stesso modo. 4Im < v, w > v + iw v iw. 4

Osservazione. Sia V uno spazio vettoriale metrico con norma. La funzione d: V V R + definita da d(v, v ) v v si dice distanza. Allora si vede immediatamente che per ogni v, v V si ha d(v, v ), con l uguaglianza se e solo se v v, e che d(v, v ) d(v, v ). Dalla diseguaglianza triangolare (.) segue la diseguaglianza triangolare per la distanza ossia d(v, v ) d(v, v ) + d(v, v ) per ogni v, v, v V. Infatti d(v, v ) v v v v + v v v v + v v d(v, v ) + d(v, v ). Grazie alla diseguaglianza di Cauchy-Schwarz per uno spazio vettoriale metrico reale ha senso definire una nozione di angolo.: Definizione. Sia V uno spazio vettoriale metrico su R e siano v, w V due vettori non nulli. L angolo (convesso) fra v e w è il numero reale θ (vw) [, π] tale che cos θ < v, w > v w. (.5) La definizione è ben posta dato che la diseguaglianza di Cauchy-Schwarz in questo caso equivale a < v, w > v w e quindi esiste un unico θ [, π] tale che valga la (.5). Con argomenti di geometria elementare si vede facilmente che questa nozione di angolo nel caso di R o R, pensati come spazi vettoriali metrici con i rispettivi prodotti scalari canonici, coincide con quella usuale. Nel caso di spazi vettoriali metrici complessi per dare una nozione di angolo occorre ricorrere a considerazioni che esulano dai contenuti del corso. Invece è semplice definire la nozione di ortogonalità per qualunque spazio vettoriale metrico. Definizione. Sia V uno spazio vettoriale metrico con prodotto <, >. Due vettori v, w V si dicono ortogonali (o perpendicolari) se < v, w > e si scrive v w. Se S, S V scriveremo S S se ogni vettore di S è ortogonale a ogni vettore in S. Se S consiste di un solo elemento v si scrive semplicemente v S. Esercizio. Sia V uno spazio vettoriale metrico e U V un suo sottospazio. Sia {u,..., u r } una base di V e sia v V arbitrario. Dimostrare che v U se e solo se < v, u i > per ogni i,..., r. Proposizione.: Sia V uno spazio vettoriale metrico e v,..., v n vettori non nulli a due a due ortogonali. Allora v,..., v n sono linearmente indipendenti. In particolare se n dim(v ), allora {v,..., v n } è una base di V. Dimostrazione: Per ipotesi < v i, v j > se i j e < v i, v i > per ogni i dato che v i O. Dunque siano α,..., α n scalari tali che Allora per ogni i,..., n si ha α v +... α n v n O. < v i, O >< v i, α v +... α n v n > α i < v i, v i > da cui segue che necessariamente α i per ogni i,..., n. Dunque v,..., v n sono linearmente indipendenti. Il resto dell enunciato è immediato dato che se dim(v ) n allora {v,..., v n } è un insieme massimale di vettori linearmente indipendenti. 5

Definizione. Una base ortogonale di uno spazio vettoriale metrico V è una base costituita da vettori a due a due ortogonali. Una base ortogonale {v,..., v n } di V si dice ortonormale se è composta di vettori di norma, ossia se v i per ogni i,..., n. Esempio. Si consideri R n (C n ) con il prodotto scalare (hermitiano) canonico. Allora la base canonica è una base ortonormale. Esempio. Non è difficile {( scrivere ) ( )} tutte le basi ortogonali di R con il prodotto scalare x y canonico. Infatti B, è una base ortonormale di R se e solo se x y x + x y + y e x y + x y. Dalla prima relazione segue che, per opportuni θ, ϕ R, si ha x cos θ, x sin θ, y cos ϕ, y sin ϕ. Dalla seconda si ottiene cos θ cos ϕ + sin θ sin ϕ cos(θ ϕ). Pertanto si dovrà avere ϕ θ π oppure ϕ θ π. Dato che cos(θ π) sin θ, sin(θ π) cos θ, cos(θ π ) sin θ, sin(θ π ) cos θ, allora B è una base ortonormale di R se e solo se esiste θ R tale che {( ) ( )} {( ) cos θ sin θ cos θ B, oppure B, sin θ cos θ sin θ ( sin θ cos θ )}. Le basi ortonormali sono strumenti fondamentali per studiare gli spazi vettoriali metrici perché possono essere utilizzate per esprimere in modo particolarmente semplice le proprietà metriche. Questo fatto è illustrato ad esempio nella seguente Proposizione.4: Sia {v,..., v n } una base ortonormale di V. Allora valgono le seguenti formule: (i) Per ogni v V si ha v < v, v i > v i (somma di Fourier) (.) (ii) Per ogni v, w V si ha < v, w > < v, v i >< v i, w > (formula di Parseval) (.7) (iii) Per ogni v V si ha: v < v, v i > (teorema di Pitagora) (.8)

Dimostrazione: Sia v V arbitrario. Allora v n α iv i per opportuni scalari α,..., α n. Si fissi un arbitrario j {,..., n}. Allora utilizzando il fatto che {v,..., v n } è una base ortonormale: n < v, v j > α i v i, v j α i < v i, v j > α j e quindi (i) segue. Siano ora v, w V arbitrari. Allora utilizzando (i), abbiamo n < v, w > < v, v i > v i, < w, v j > v j < v, v i > < w, v j > < v i, v j > j < v, v i > < w, v i > i,j < v, v i >< v i, w > e quindi (ii) è dimostrata. Infine (iii) è (ii) nel caso in cui w v. Naturalmente occorre porsi il problema dell esistenza di basi ortonormali. A questione risponde il seguente risultato che non solo garantisce l esistenza di basi ortonormali, ma fornisce un efficace metodo per costruirle. Teorema.5: (Procedimento di ortonormalizzazione di Gram-Schmidt) Sia V uno spazio vettoriale metrico e siano v,..., v r V vettori linearmente indipendenti. Allora i vettori w,..., w n definiti per ricorrenza da w v e w j v j soddisfano le seguenti proprietà: j h (i) Span(w,..., w j ) Span(v,..., v j ) per ogni j,... r; < v j, w h > < w h, w h > w h j,... r (.9) (ii) w j è ortogonale a Span(w,..., w j ) per ogni j,... r e quindi,in particolare w,..., w r sono a due a due ortogonali; (iii) Se {v,..., v r } è una base di V e w,..., w n sono definiti da (.9), allora { w w,..., w r w r } è una base ortonormale di V. In particolare quindi uno spazio vettoriale metrico finitamente generato ammette una base ortonormale. Dimostrazione: Si procede per induzione sull indice j. Se j gli enunciati sono banali. Supponiamo che il risultato sia vero per j. Allora in particolare Span(w,..., w j, v j ) Span(v,..., v j, v j ) e, per costruzione w j Span(w,..., w j, v j ). Dato che per oni k < j si ha < w j, w k > v j j h < v j, w h > < w h, w h > w h, w k < v j, w k > < v j, w k > < w k, w k > < w k, w k > j < v j, w h > < v j, w k > < w h, w h > < w h, w k > h, (.) allora, i vettori w,..., w j, w j sono a due a due a due ortogonali in Span(v,..., v j, v j ) e quindi Span(w,..., w j ) Span(v,..., v j ). Da (.) segue anche che w j è ortogonale a Span(w,..., w j ), e quindi la dimostrazione è completa. 7

Come immediata conseguenza abbiamo i seguenti Corollario.: Sia V uno spazio vettoriale metrico di dimensione n e siano v,..., v r V vettori a due a due ortogonali ciascuno di norma. Allora esistono n r vettori v r+,..., v n tali che {v,..., v r, v r+,..., v n } sia una base ortonormale di V. Dimostrazione: Basta completare v,..., v r V a una base {v,..., v r, u r+,..., u n } di V e poi applicare il Teorema.5. Corollario.7: Sia V uno spazio vettoriale metrico di dimensione n e sia U V un sottospazio di dimensione r di V. Allora esiste un unico sottospazio U V, chiamato il complemento ortogonale di U, tale che U U e V U U. Dimostrazione: Se {v,..., v r } è una base ortonormale di U, sia {v,..., v r, v r+,..., v n } un suo completamento a una base ortonormale di V. Allora U Span(v r+,..., v n ). Molte applicazioni geometriche delle nozioni presentate in questo paragrafo sono dovute alla seguente Proposizione.8: Sia V uno spazio vettoriale metrico di dimensione finita e U un suo sottospazio. Esiste una applicazione lineare P U : V V chiamata proiezione ortogonale sul sottospazio U, che ha le seguenti proprietà: i) ImP U U e per ogni v V il vettore P U (v) è l unico vettore tale che v P U (v) è ortogonale a tutti i vettori di U; ii) Se {v,..., v r } è una base ortonormale di U e {v,..., v r, v r+,..., v n } è un suo completamento a una base ortonormale di V, allora per ogni vettore v n < v, v i > v i V si ha r P U (v) < v, v i > v i ; (.) iii) il vettore P U (v) è il vettore di U che minimizza la distanza da v, ossia per ogni vettore u U vale la diseguaglianza v u v P U (v) (.) e vale l eguaglianza se e solo se u P U (v). Dimostrazione: È immediato convincersi che la formula (.) definisce una applicazione lineare P U : V V tale che ImP U U. Avremo dunque dimostrato completamente (i) e (ii) se proveremo che per ogni v V il vettore P U (v) è l unico vettore tale che v P U (v) è ortogonale a tutti i vettori di U. Anche questo fatto è immediato. Infatti, per costruzione, v P U (v) n ir+ < v, v i > v i e quindi < v P U (v), v i > per ogni i,..., r. D altra parte se u U allora u r α iv i per opportuni scalari α,..., α r. Inoltre v u U se e solo se per ogni j,..., r si ha r < v u, v j >< v, v j > α i v i, v j < v, v j > α j e quindi necessariamente se e solo se u P U (v). Rimane da dimostrare (.). Sia u U arbitrario, allora v u (P U (v) u) + (v P U (v)) e (P U (v) u) (v P U (v)) dato che v P U (v) U e P U (v) u U. Pertanto v u P U (v) u + v P U (v) + Re P U (v) u, v P U (v) P U (v) u + v P U (v) v P U (v) con l eguaglianza che vale se e solo se P U (v) u O ossia se e solo se u P U (v). 8

Esempio. Per fissare le idee sulle nozioni presentate risolviamo il seguente esercizio. Sia U il sottospazio di R 4 definito da x x U x x + x x + x 4. x 4 Troveremo una base ortonormale per U (pensato come spazio metrico con il prodotto scalare canonico) e l estenderemo a una base ortonormale di R 4. Infine troveremo la matrice della proiezione ortogonale P U su U relativa alla base canonica di R 4. Si vede facilmente che v, v, v è una base di U. Utilizzando il procedimento di Gram-Schmidt troviamo ora una base {w, w, w } di U costituita di vettori a due a due ortogonali. Poniamo allora w v ; utilizzando (.9): w v < v, w > < w, w > w / / w v < v, w > < w, w > w < v, w > < w, w > w / < v, w > < v, w > < w, w > < w, w > / / / /. / / / / Dunque una base ortonormale per U è data da { } { B w w, w w, w w w, } w, w. Per completare B a una base ortonormale di R 4, procediamo nel modo seguente. Completiamo {w, w, w } a una base di R 4 : basterà aggiungere un vettore della base canonica che non appartiene a U. Ad esempio un completamento è dato da {w, w, w, e 4 }. Poi applichiamo il procedimento di Gram-Schmidt per sostituire e 4 con un vettore w 4 in modo che {w, w, w, w 4 } sia una base di vettori a due a due ortogonali. Dunque: w 4 e 4 < e 4, w > < w, w > w < e 4, w > < w, w > w < e 4, w > < w, w > w /4 w w 4 w /4. /4 /4 9

Una una base ortonormale B di R 4 che completa B è allora data da { } { w B w, w w, w w, w 4 w 4 / / /, /, / w, / / / / w, w, w 4 / /, / / }. Un metodo alternativo per trovare un vettore che completi B a una base ortonormale di R 4 è il seguente. Dato che {v, v, v } è una base di U si trova un vettore z O ortogonale a U risolvendo il sistema omogeneo < v, z >< v, z >< v, z >. Aggiungendo il vettore z/ z si ottiene una base ortonormale di R 4. Cerchiamo ora di studiare la proiezione ortogonale P U : R 4 R 4 sul sottospazio U. Dato che, per definizione si ha ( ) w P U w ( ) w w, P w U w ( ) w w, P w U w ( ) w w, P w4 U O, w 4 la matrice associata a P U relativa alla base B è data da A. Per trovare la matrice A di P U relativa alla base canonica C di R 4, si ricordi che A B AB dove B è la matrice del cambio di base da B a C e B è la matrice del cambio di base da C a B. Dunque B è la matrice che ha per colonne le coordinate dei vettori della base B relative alla base canonica C e B è l inversa di B. Si ha allora B e B. Si osservi che B è la trasposta di B : questo e un fatto non casuale che si chiarirà fra

qualche pagina. Possiamo allora calcolare A B AB /4 /4 /4 /4 /4 /4 /4 /4 /4 /4 /4 /4 /4 /4 /4 /4 Da questo punto in poi consideriamo escusivamente spazi vettoriali metrici di dimensione finita. Ci sarà utile nel seguito il seguente Lemma.9: Sia V uno spazio vettoriale metrico e w V. Allora < v, w > per ogni v V w O. Dimostrazione: Se w O allora ovviamente < v, w > per ogni v V. Viceversa sia < v, w > per ogni v V. Se {v,..., v n } è una base ortonormale di V allora w < w, v j > v j O. j Proposizione.: Sia T : V W un applicazione lineare fra spazi metrici su K R o C. Esiste una unica applicazione lineare T : V W tale che per ogni v V e w W si abbia: < T (v), w > W < v, T (w) > V. (.) Se A è la matrice associata a T relativa a basi ortonormali B di V e C di W, allora la matrice associata a T relativa a C e B è { A T se K R A. (.4) A H A T se K C

Dimostrazione: Esistenza di T : Siano B {v,..., v n } e C {w,..., w m } rispettivamente di V e W. Se A è la matrice associata a T relativa a B e C, allora l applicazione T : W V che relativamente a C e B ha matrice A (a ij ) definita da (.4) effettivamente verifica (.). Siano v m x i v i V w y j w j W. j Allora per T (v) è l unico vettore di W che ha coordinate Ax rispetto alla base C e quindi T (v) ( m n ) a li x i w l l e Pertanto e analogamente m T (w) a kjy j v k k j k j a jk y j v k. m ( n ) m < T (v), w > W a li x i w l, y j w j l j W ( m m n ) a li x i y j < w l, w j > W l j m a ji x i y j < v, T (w) > V j n x i v i, k j x i m a jk y j v k k j m a jk y j < v i, v k > V j m a ji x i y j V e quindi la (.) è verificata. Unicità di T : Se S: V W è un altra applicazione lineare che soddisfa (.), allora per ogni v V e w W < v, T (w) > V < T (v), w > W < v, S(w) > V e quindi < v, T (w) S(w) > V. Per il Lemma.9 allora T (w) S(w) O per ogni w W e dunque T S.

Definizione. Sia T : V W un applicazione lineare fra spazi metrici. L applicazione T : W V definita nella Proposizione. si dice aggiunta di T. Osservazione. Sia T : V W un applicazione lineare fra spazi metrici e sia T : W V la sua aggiunta. Per l unicità dell aggiunta e per l arbitrarietà della scelta delle basi ortonormali usate nella Proposizione. per definire T, segue che per qualunque scelta di basi ortonormali B per V e C per W, se A è la matrice di T relativa a B e C, allora la matrice A di T relativa a C e B è data dalla (.4). Esempio. Si consideri su R n il prodotto scalare canonico. Se A M m,n (R), L aggiunta di L A : R n R m è L A T : R m R n. Basta considerare su R n e R m le basi canoniche e applicare applicare la Proposizione.. Ovviamente in questo caso si può anche osservare direttamente che L A L A T dato che per ogni v Rn e w R m < L A (v), w > R m w T Av (w T Av) T v T A T w < L A T (w), v > R n< v, L A T (w) > R n Esempio. Si consideri su C n il prodotto scalare canonico. Se A M m,n (C), L aggiunta di L A : C n C m è L A H : C m C n. Basta considerare su C n e C m le basi canoniche e applicare applicare la Proposizione.. Anche in questo caso è facile dimostrare direttamente che L A L A H dato che per ogni v Cn e w C m < L A (v), w > C m w H Av (w H Av) H v H A H w < L A H (w), v > C n < v, L A H (w) > C n Definizione. Un endomorfismo T : V W di uno spazio metrico si dice autoaggiunto se T T ossia se < T (v), w >< v, T (w) > per ogni v, w V. Proposizione.: Sia T : V V un endomorfismo di uno spazio metrico su K R o C. Siano B una base ortonormale V e A sia la matrice di T relativa a B. Allora T è autoaggiunto { A T se K R A A. A H A H se K C Dimostrazione: Immediata dall Osservazione. Definizione. Un endomorfismo T : V V di uno spazio metrico si dice isometria se < T (v), T (w) >< v, w > per ogni v, w V. A volte le isometrie sono chiamate rotazioni. Proposizione.: Le seguenti affermazioni sono equivalenti: (i) T è un isometria; (ii) T è invertibile e T T ; (iii) T trasforma basi ortonormali in basi ortonormali; (iv) T (v) v per ogni v V ; (v) Se A è la matrice di T rispetto a una base ortonormale, allora A è invertibile e { A T se K R A A. A H A H se K C

Dimostrazione: La dimostrazione seguirà il seguente schema: (i) (ii) (iii) (iv) (i) e (ii) (v). (i) (ii) Per ogni v, w V si ha < v, w >< T (v), T (w) >< v, T (T (w)) > e quindi Per il lemma.9 allora < v, w T (T (w)) >. T (T (w)) w (.5) per ogni w V. Da (.5) segue immediatamente che T è iniettiva. Infatti se per w, w V si ha T (w ) T (w ) allora w T (T (w )) T (T (w )) w. Dato che è un endomorfismo, T è biettivo e quindi invertibile. Per l unicità dell inverso, ancora da (.5) segue T T. (ii) (iii) Sia {v,..., v n } una base ortonormale. Si ha < T (v i ), T (v j ) >< v i, T (T (v j )) >< v i, T (T (v j )) >< v i, v j > e quindi {T (v ),..., T (v n )} è una base ortonormale. { se i j se i j (iii) (iv) Per ipotesi, se {v,..., v n } è una base ortonormale, anche {T (v ),..., T (v n )} lo è. Sia v V. Allora ( n ) v < v, v i > v i e T (v) T < v, v i > v i < v, v i > T (v i ). Allora n T (v) < v, v i > T (v i ), k < v, v k > T (v k ) k < v, v i > < v, v k > < T (v i ), T (v k ) > < v, v i > v. (iv) (i) Utilizzando la formuala di polarizzazione, nel caso reale abbiamo: < T (v), T (w) > 4 ( T (v) + T (w) T (v) T (w) 4 ( T (v + w) T (v w) 4 ( v + w v w < v, w >. Il caso complesso si dimostra allo stesso modo utilizzando le corrispondenti formule per il prodotto hermitiano. (ii) (v) Fissata una base ortonormale B di V, se A è la matrice di T relativa a B, allora T è invertibile se e solo se A è invertibile e T T se e solo se A A. Definizione. Una matrice A M n,n (R) si dice ortogonale se A T A I n. Una matrice A M n,n (C) si dice unitaria se A H A I n. 4

Corollario.: Sia A una matrice quadrata di ordine n reale (complessa). Le seguenti affermazioni sono equivalenti: (i) A è ortogonale (unitaria); (ii) L A è una isometria di R n (C n ) con il prodotto scalare (hermitiano) canonico; (iii) Le colonne di A formano una base ortonormale di R n (C n ) con il prodotto scalare (hermitiano) canonico. Dimostrazione: (i) (ii) La matrice A è ortogonale (unitaria) se e solo se A T A I n (A H A I n ) e quindi se e solo se (L A ) L A L A T (L A ) se K R, (L A ) L A L A H (L A ) se K C. (i) (iii) Se A (A,..., A n ), allora A è ortogonale (unitaria) se e solo se per ogni i, j,..., n si ha (A i ) T A j { i j i j se K R (A i ) H A j { i j i j se K C ossia se e solo se {A,..., A n } è una base ortonormale di R n (C n ) con il prodotto scalare (hermitiano) canonico. Esercizio. La composizione di isometrie è una isometria. L inversa di una isometria è un isometria. Esercizio. Il prodotto di due matrici ortogonali (unitarie) è una matrice ortogonale (unitaria). L inversa di una matrice ortogonale (unitaria) è una matrice ortogonale (unitaria). Esercizio. Dimostrare che una matrice A di ordine è ortogonale se e solo se esiste θ R tale che si può scrivere in uno dei modi seguenti: ( ) cos θ sin θ A sin θ cos θ ( cos θ sin θ oppure A sin θ cos θ Consiglio: ricordare la descrizione data delle basi ortonormali di R. ). Utilizzeremo le seguenti notazioni: O(n) {A M n,n (R) A T A I n } per il gruppo delle matrici ortogonali di ordine n e U(n) {A M n,n (R) A H A I n } per il gruppo delle matrici unitarie di ordine n. Osservazione. Siano B, C due basi ortonormali di uno spazio vettoriale metrico V su K R o C. La matrice B del cambio di base da B a C è ortogonale se K R, unitaria se K C. Questo è immediato se si osserva che B è la matrice dell applicazione identica di V relativa alle basi B, C. Dato che l identità è sempre un isometria (esercizio banale!) allora necessariamente B è ortogonale se K R, unitaria se K C. 5

Osservazione. Siano B, C due basi ortonormali di uno spazio vettoriale metrico V su K R o C. Sia T : V V un endomorfismo e siano A la matrice di T relativa a B e A la matrici di T relativa C. Allora { A B AB B T AB se K R B H AB se K C. Due matrici A, A reali quadrate di ordine n si dicono congruenti se esiste una matrice invertibile B tale che A B T AB.. Diagonalizzazione ortogonale di endomorfismi autoaggiunti In questo paragrafo dimostreremo che ogni endomorfismo autoaggiunto di uno spazio vettoriale metrico è diagonalizzabile e che la base rispetto alla quale ha matrice diagonale si può scegliere ortonormale. Cominciamo con la seguente cruciale osservazione: Teorema.: Sia T : V V un endomorfismo autoaggiunto di uno spazio vettoriale metrico V di dimensione n su K R o C. Allora T ha n autovalori (contati con la molteplicità) e sono tutti in R. Dimostrazione: Rispetto a una base ortonormale T ha una matrice A simmetrica nel caso reale, hermitiana nel caso complesso. Gli autovalori di T sono esattamente le radici del suo polinomio caratteristico di A che sono nel campo K. Per il teorema fondamentale dell algebra, il polinomio caratteristico di A ha esattamente n radici (contate con la molteplicità) in C. Dobbiamo allora solo dimostrare che le radici del polinomio caratteristico di A sono reali. Si consideri L L A : C n C n. Dato che A A H (sia nel caso reale, sia nel caso complesso), allora L è un endomorfismo autoaggiunto di C n con il prodotto hermitiano canonico. Sia λ una radice del polinomio caratteristico di A. Allora λ è un autovalore di L. Sia u C n \ {} tale che L(u) λu. Si ha λ u λ < u, u >< λu, u >< Lu, u >< u, Lu > λ < u, u > λ u e quindi (λ λ) u. Dato che u, allora deve essere λ λ ossia λ R. Il risultato principale che vogliamo dimostrare è il seguente Teorema.: Sia V uno spazio vettoriale metrico di dimensione n e sia T : V V. Le seguenti affermazioni sono equivalenti: (i) Esiste una base ortonormale {v,..., v n } di V e numeri reali λ,..., λ n tali che se u n x iv i allora T (u) n λ ix i v i. (ii) V ha una base ortonormale formata da autovettori di T ciascuno con autovalore reale (rispetto alla quale T ha matrice diagonale). (iii) T è autoaggiunta. Dimostrazione: (i) (ii) Se vale (i) allora si ha T (v i ) λ i v i e quindi vale (ii). D altro canto se {v,..., v n } è una base ortonormale formata da autovettori di T ciascuno con

autovalore reale λ i corrispondente a v i allora la (i) segue immediatamente per la linearità di T. (ii) (iii) Se vale (ii) allora T ha matrice diagonale rispetto a una base ortonormale. Dato che una matrice diagonale reale coincide con la sua trasposta e con la sua aggiunta, necessariamente T T. Supponiamo viceversa che valga (iii). Procederemo per induzione sulla dimensione n di V. Se n allora (ii) è banale. Supponiamo che se T è autoaggiunta valga (ii) per spazi di dimensione n. Per il Teorema., esiste un autovalore λ R di T. Sia v un autovettore con autovalore λ e con v. Sia W (Span(v )). Allora W è un sottospazio di V di dimensione n e, per costruzione, si ha che w W se e solo se < w, v > e quindi W {w V < w, v > }. Si ha inoltre T (W ) W. Infatti u T (W ) u T (w) per qualche w W. Allora < u, v >< T (w), v >< w, T (v ) >< w, λv > λ < w, v > e quindi u W. Il prodotto definito su V, ristretto a W, definisce una struttura di spazio vettoriale metrico per W. Dato che T (W ) W allora T : W W è un endomorfismo autaggiunto di uno spazio vettoriale metrico di dimensione n. Esiste allora, per l ipotesi induttiva, una base ortonormale {v,..., v n } formata da autovettori di di T ciascuno con autovalore reale. Dato che < v j, v > per j,..., n, allora {v, v,..., v n } è una base ortonormale di V formata da autovettori di di T ciascuno con autovalore reale e quindi (ii) vale. Conseguenza immediata del Teorema. è il seguente Corollario.: (Teorema spettrale) Sia T : V V un endomorfismo di uno spazio vettoriale metrico reale. Esiste una base ortonormale formata da autovettori di T se e solo se T è autoaggiunto. In termini di matrici il Teorema. si traduce in questo modo: Teorema.4: (i) Sia A M n,n (R) una matrice simmetrica reale. Allora esiste una matrice ortogonale B O(n) tale che D B AB B T AB è una matrice diagonale. (ii) Sia A M n,n (C) una matrice hermitiana. Allora esiste una matrice unitaria B U(n) tale che D B AB B H AB è una matrice diagonale reale. Dimostrazione: (i) Si consideri L A : R n R n. Allora L A è un endomorfismo autoaggiunto di R n con il prodotto scalare canonico. Per il Teorema. esiste una base ortonormale B rispetto alla quale L A ha matrice diagonale. La matrice B del cambio di base dalla base canonica alla base B, che ha per colonne le coordinate dei vettori di B, è la matrice cercata. (ii) La dimostrazione, analoga al caso reale, è lasciata per esercizio. Vogliamo illustrare ora come in pratica si possa diagonalizzare un endomorfismo autoaggiunto. A tal fine cominciamo con la seguente utile Proposizione.5: Siano V uno spazio vettoriale metrico e T : V V un endomorfismo autoaggiunto. Autovettori di T relativi a autovalori distinti sono ortogonali. Dimostrazione: Siano µ ν autovalori di T e v, w autovettori relativi rispettivamente a µ e ν. Allora µ < v, w >< µv, w >< T (v), w >< v, T (w) >< v, νw > ν < v, w > e quindi, dato che µ ν deve essere < v, w >. 7

La Proposizione.5 ci dice che uno spazio vettoriale metrico si decompone in autospazi di un endomorfismo autoaggiunto. Suggerisce quindi di procedere per diagonalizzare un endomorfismo autaggiunto T : V V di uno spazio metrico V seguendo il seguente schema: I Passo: Fissata una base ortonormale, si scrive la matrice associata a T, si calcola il polinomio caratteristico sfruttando la matrice e si trovano gli autovalori di T II Passo: Per ciascun autovalore si trova una base ortonormale per il corrispondente autospazio. L unione delle basi degli autospazi determinate in questo modo è una base diagonalizzante per T. Data una matrice simmetrica reale A si può adattare il procedimento per trovare una matrice ortogonale B tale che D B T AB B AB sia diagonale: I Passo: Si scrive il polinomio caratteristico e si calcolano gli autovalori di A. II Passo: Per ciascun autovalore si trova una base ortonormale per il corrispondente autospazio. L unione delle basi degli autospazi determinate in questo modo è una base diagonalizzante per L A. La matrice B che ha per colonne i vettori della base ottenuta in questo modo è la matrice cercata. In tutti e due i casi nel I Passo occorre trovare le radici di un polinomio. Mentre sotto le ipotesi imposte si è sicuri che esistono il numero giusto di radici reali, trovarle effettivamente è tutta un altra faccenda! Per diagonalizzare mediante matrici unitarie matrici hermitiane si procede in modo analogo. Esempio Si consideri la matrice A. Il suo polinomio caratteristico è p A (λ) (λ ). Dunque gli autovalori di A sono, ciascuno con moteplicità. Se V, V sono i rispettivi autospazi si ha V Ker(A I 4 ) Ker Span, V Ker(A + I 4 ) Ker Span, Dunque basi ortonormali per V e V sono date ad esempio rispettivamente da:,, e la matrice ortonormale diagonalizzante B è data da B 8

Concludiamo il paragrafo con un osservazione che è alle volte utile. Abbiamo ripetutamente osservato che un endomorfismo arbitrario di uno spazio vettoriale non è in genere diagonalizzabile. D altra parte si dimostra facilmente che dato un endomorfismo di uno spazio vettoriale metrico esiste una base ortonormale rispetto alla quale l endomorfismo ha matrice triangolare superiore: dunque se non si può sempre diagonalizzare un endomorfismo, almeno lo si può triangolarizzare! Diamo di seguito la dimostrazione di questo risultato nella versione per matrici: Teorema.: Per ogni A M n (C) esiste una matrice unitaria U tale che S U AU U H AU è una matrice triangolare superiore. Analogamente, per ogni A M n (R) che ha n autovalori, contati con la loro molteplicità lagebrica, reali. Allora esiste una matrice ortogonale O tale che S O AO O T AU è una matrice triangolare superiore. Dimostrazione: Dimostriamo il caso complesso procedendo per induzione. Il caso reale è del tutto analogo. Per n il risultato è ovvio. Supponiamo sia vero per matrici quadrate di ordine n. Sia λ un autovalore dell endomorfismo L A : C n C n e sia z un autovettore relativo a λ con z. Sia infine {z, z,..., z n } una base ortonormale di C n. La matrice B di L A relativa a questa base ha questa forma: B λ.... A dove A è una matrice quadrata di ordine n. Dato che A e B sono matrici dello stesso endomorfismo L A relative a basi ortonormali diverse, esiste una matrice unitaria U di ordine n tale che B U AU U H AU. Per l ipotesi induttiva esiste una matrice unitaria U di ordine n tale che S (U ) AU U H AU è triangolare superiore. Se definiamo... U. U, allora U è una matrice unitaria di ordine n tale che S U BU U H BU.... (U ) H λ.... (U ) H A U λ.... A.... U λ..... S è triangolare superiore. Ma allora la matrice unitaria U U U è la matrice cercata dato che, rimettendo insieme i calcoli fatti, si ha S U AU U H AU. 9

. Forme quadratiche reali Definizione. Sia A M n,n una matrice simmetrica. La forma forma quadratica reale associata ad A (a ij ) è la funzione φ: R n R definita da φ(x) x T Ax i,j a ij x i x j. (.) Esempio Sia f: R n R una funzione infinitamente derivabile. Per x R n sia A f x i x j (x ) la matrice delle derivate seconde di F in x. La forma quadratica associata ad A data da φ(x) x T Ax i,j f x i x j (x )x i x j si dice forma hessiana di f in x. La forma hessiana è importante nello studio dei punti di massimo e di mininimo. Ad esempio infatti, utilizzando lo sviluppo di Taylor in x, è facile dimostrare che se in x si annullano le derivate prime di f e risulta φ(x) > se x, allora x è un punto di minimo locale per f. Definizione. Sia φ: R n R la forma quadratica associata alla matrice simmetrica A (a ij ). La forma φ e la matrice A si dicono (i) definite positive se (i) definite negative se (i) semidefinite positive se φ(x) x T Ax i,j (i) semidefinite negative se φ(x) x T Ax i,j φ(x) x T Ax φ(x) x T Ax i,j i,j a ij x i x j > x ; (.) a ij x i x j < x ; (.) a ij x i x j x e φ(x ) x T Ax per qualche x ; (.4) a ij x i x j x e φ(x ) x T Ax per qualche x. (.5) La forma φ e la matrice A si dicono indefinite se φ assume sia valori negativi sia positivi. Come applicazione dei risultati precedenti, abbiamo la seguente:

Proposizione.: Sia φ: R n R la forma quadratica associata alla matrice simmetrica A (a ij ). Siano λ,..., λ n gli autovalori (eventualmente con ripetizione) di A. Esiste una base ortonormale B di R n tale che se x sono le coordinate rispetto a B di un vettore v R n, allora φ è data da φ(v) λ (x ) +... λ n (x n). (.) Inoltre φ e A sono definite positive (negative) se e solo se tutti gli autovalori di A sono positivi (negativi); φ e A sono semidefinite positive (negative) se e solo se tutti gli autovalori di A sono non negativi (nonpositivi); φ e A sono indefinite se e solo se A ha autovalori sia positivi sia negativi. Dimostrazione: Sia B una base ortonormale di R n formata da autovettori di L A e sia B la matrice del cambio di base dalla base canonica alla base B. Allora, se x designano le coordinate di v R n relative alla base canonica e x quelle relative a B, si ha x Bx. Dunque, ricordando che D B T AB è una matrice diagonale con sulla diagonale gli autovalori di A, otteniamo φ(v) x T Ax (Bx ) T A(Bx ) (x ) T (B T AB)(x ) λ (x ) +... λ n (x n) (.7) Dalla (.7) è semplice studiare il segno della forma quadratica φ Ad esempio è immediato concludere che se tutti gli autovalori di A sono positivi allora φ è definita positiva. D altra parte se φ è definita positiva, e B {v,..., v n } allora per ogni j si ha < φ(v j ) λ j. Le altre affermazioni si dimostrano in modo analogo. Definizione 4. L espressione (.) si dice forma canonica metrica della forma quadratica φ. Esercizio. Si consideri la forma quadratica su R definita da φ(x) 5x 7x +7x +48x x. Trovare la forma canonica metrica di φ, decidere se è defoinita positiva e determinare una base ortonormale rispetto alla quale φ è in forma canonica metrica. Si vede subito che φ è la forma quadratica associata alla matrice A 5 7 4. 4 7 Il polinomio caratteristico di A è p(λ) (λ 5) (λ + 5) e quindi A ha autovalori 5 con molteplicità e 5 con molteplicità. Dunque φ ha forma canonica metrica φ(x ) 5x + 5x 5x. Calcolando gli autospazi, si vede facilmente che una base ortonormale dell autospazio relativo all autovalore 5 è data da, /5 e una 4/5 base ortonormale per l autospazio relativo all autovalore 5 è data da 4/5. Si /5 può allora concludere che una base ortonormale rispetto alla quale φ è in forma canonica metrica è, /5, 4/5. 4/5 /5