Appunti del corso di Geometria II

Documenti analoghi
Università del Salento Corso di Laurea in Matematica APPUNTI DI GEOMETRIA II. Giovanni Calvaruso

Universita degli Studi di Roma Tor Vergata Facolta di Ingegneria: Elettronica. Corso di Geometria ed Algebra Docente F. Flamini

GE210 Geometria e algebra lineare 2 A.A. 2018/2019

Salvo avviso contrario V denota un k-spazio spazio vettoriale (di dimensione finita).

Capitolo IV SPAZI VETTORIALI EUCLIDEI

CORSO DI GEOMETRIA APPLICAZIONI LINEARI E MATRICI A.A. 2018/2019 PROF. VALENTINA BEORCHIA

Facoltà di Ingegneria Corsi di Laurea in Ingegneria Navale ed Ingegneria Industriale. Programma del corso di GEOMETRIA

GEOMETRIA PER FISICI ELENCO DEGLI ARGOMENTI TRATTATI DURANTE LE LEZIONI

0. Introduzione al linguaggio matematico

{Geometria per [Fisica e (Fisica e Astrofisica)]}

Spazi euclidei, endomorfismi simmetrici, forme quadratiche. R. Notari

Capitolo IX DIAGONALIZZAZIONE DI MATRICI SIMMETRICHE

GEOMETRIA 1 quarta parte

Applicazioni lineari simmetriche e forme quadratiche reali.

REGISTRO DELLE LEZIONI

GAAL: Capitolo dei prodotti scalari

Algebra Lineare - Autunno 2008

Elementi di Algebra Lineare Applicazioni lineari

GEOMETRIA 1 ottava parte

ESERCIZI DI GEOMETRIA E ALGEBRA LINEARE (II PARTE) In ogni sezione gli esercizi sono tendenzialmente ordinati per difficoltà crescente.

Autovalori e autovettori di una matrice quadrata

Geometria I. Soluzioni della prova scritta del 19 settembre 2016

Autovalori e autovettori

Similitudine (ortogonale) e congruenza (ortogonale) di matrici.

Anno Accademico 2016/2017

GEOMETRIA 1 quarta parte

CORSO ALGEBRA LINEARE 2006/07

Esercizi di Geometria - 1

Applicazioni lineari e diagonalizzazione

Forme bilineari e prodotti scalari

Calendario delle lezioni di Geometria e Algebra

Autovalori, Autovettori, Diagonalizzazione.

0. Introduzione al linguaggio matematico

APPLICAZIONI LINEARI O OMOMORFISMI

CORSO DI ALGEBRA (M-Z) Prof. A. Venezia

0. Introduzione al linguaggio matematico

Parte 8. Prodotto scalare, teorema spettrale

Corso di Laurea in Fisica. Geometria. a.a Prof. P. Piazza Diagonalizzazione delle forme bilineari simmetriche

Calendario del corso di Geometria e Algebra anno accademico 2016/2017

Sapienza Università di Roma Corso di laurea in Ingegneria Energetica Geometria A.A ESERCIZI DA CONSEGNARE prof.

FONDAMENTI DI ALGEBRA LINEARE E GEOMETRIA INGEGNERIA CHIMICA E DEI MATERIALI 27 GIUGNO 2016

Facoltà di Anno Accademico 2018/19 Registro lezioni del docente PINTUS NICOLA

APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof. F.Podestà, a.a

Algebra lineare e geometria AA Esercitazione del 14/6/2018

Corso di Laurea in Matematica - Esame di Geometria UNO. Prova scritta del 4 settembre 2014

PROVA SCRITTA DI GEOMETRIA 2 MATEMATICA, 20/09/2011

SPAZI EUCLIDEI, APPLICAZIONI SIMMETRICHE, FORME QUADRATICHE

Anno Accademico 2017/2018

0. Introduzione al linguaggio matematico

PROVA SCRITTA DI GEOMETRIA 2 CON ELEMENTI DI STORIA 2, MATEMATICA, 16/06/2017. Nome... Matricola...

Forme bilineari simmetriche

Spazi vettoriali euclidei.

Spazi vettoriali metrici.

FORME BILINEARI E QUADRATICHE

Corso di Geometria e Algebra Programma svolto anno accademico 2017/2018

GEOMETRIA 1 Autovalori e autovettori

ESAME DI GEOMETRIA. 6 febbraio 2002 CORREZIONE QUIZ

Prova scritta di Geometria 1 Docente: Giovanni Cerulli Irelli 20 Gennaio 2017

Corso di Laurea in Matematica - Esame di Geometria 1. Prova scritta del 7 settembre 2015

6. Spazi euclidei ed hermitiani

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n

Esercizi di MATEMATICA PER RCHITETTURA prima parte: Algebra Lineare e Geometria

Elementi di Algebra Lineare Spazi Vettoriali

UNIVERSITA DEGLI STUDI DI PAVIA REGISTRO. DELLE LEZIONI ESERCITAZIONI SEMINARI Anno accademico 2012/13

A. Languasco - Esercizi Matematica B - 2. Spazi Vettoriali e Trasformazioni lineari 1

ESERCIZI DI ALGEBRA LINEARE (D) A = A = A = R 2,2. D5 Dire come bisogna scegliere i parametri h e k affinché la

ESERCIZI DI ALGEBRA LINEARE (D) V = 1 2. Verificare che V è un sottospazio e determinarne una base. A =

A.A. 2014/2015 Corso di Algebra Lineare

Definizione. Sia f : V V un endomorfismo e λ R. Se esiste v V non nullo tale che

GEOMETRIA 1 terza parte

Soluzioni della prova scritta di Geometria 1 del 27 giugno 2019 (versione I)

Appunti del corso di geometria 1. G. Bande

Prodotto scalare e matrici < PX,PY >=< X,Y >

appuntiofficinastudenti.com 1. Strutture algebriche e polinomi

NOME COGNOME MATRICOLA CANALE

PROGRAMMA DEL CORSO DI GEOMETRIA E ALGEBRA. A.A

(V) (FX) L unione di due basi di uno spazio vettoriale è ancora una base dello spazio vettoriale.

Algebra lineare Geometria 1 11 luglio 2008

Corso di Laurea in Fisica. Geometria. a.a Prof. P. Piazza Diagonalizzazione delle forme bilineari simmetriche

Elementi di Algebra Lineare Spazi Vettoriali

Autovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti)

Facoltà di INGEGNERIA E ARCHITETTURA Anno Accademico 2016/17 Registro lezioni del docente ZUDDAS FABIO

Operatori antisimmetrici

SPAZI VETTORIALI CON PRODOTTO SCALARE A =

2. Fra tutti i rettangoli inscritti in una circonferenza, determinare quello di area massima.

Esercizi di geometria per Fisica / Fisica e Astrofisica

x n i sima pos. x, y = x T y = x i y i R. i=1

Esercitazioni di Geometria A: spazi euclidei

AUTOVALORI, AUTOVETTORI, AUTOSPAZI

GEOMETRIA E ALGEBRA LINEARE Soluzioni Appello del 17 GIUGNO Compito A

Esonero di GEOMETRIA 1 - C. L. Matematica 21 Febbraio M 2 (R) a + 2b d = 0.

Spazi vettoriali metrici e teorema spettrale.

1. Esercizi (1) Calcolare + ( 1) + 3 2, 2. (2) siano X, Y, Z R 3. Dimostrare che se X +Y = X +Z, allora Y = Z;

Forme bilineari e prodotti scalari

Formulario sui Prodotti Hermitiani Marcello Mamino Pisa, 24 v 2010

Elementi di Algebra Lineare Spazi Vettoriali

Corso di Laurea in Matematica - Esame di Geometria 1. Prova scritta del 30 gennaio 2017

ESERCIZI DI ALGEBRA LINEARE (II PARTE) In ogni sezione gli esercizi sono tendenzialmente ordinati per difficoltà crescente.

APPLICAZIONI LINEARI

Transcript:

Università del Salento Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di Laurea Triennale in Matematica Appunti del corso di Geometria II Alessandro Montinaro ANNO ACCADEMICO 2015-2016

L obiettivo dei presenti appunti è quello di fornire alcuni concetti fondamentali di una parte dell Algebra Lineare, e della Geometria Proiettiva e Affine nel piano, utili per gli studenti che devono sostenere l esame di Geometria II. Gli argomenti affrontati nei quattro capitoli degli appunti sono brevemente descritti qui di seguito. La prima parte del primo capitolo è dedicata alle proprietà fondamentali delle forme bilineari di uno spazio vettoriale, con particolare riguardo alle forme bilineari simmetriche ed alle forme quadratiche ad esse associate. Nella parte centrale viene trattata la riduzione a forma canonica di una forma quadratica e la classificazione delle forme quadratiche reali attraverso il Teorema di Sylvester. Inoltre, viene fornita una dimostrazione elementare del Criterio di Sylvester per le forme bilineari simmetriche definite positive. Nella parte finale del primo capitolo si studiano gli spazi vettoriali euclidei, cioè gli spazi vettoriali reali muniti di un prodotto scalare, evidenziando come proprietà tipiche dello spazio in cui viviamo, quali la lunghezza di un vettore, l angolo tra vettori e il Teorema di Pitagora, si generalizzano in modo naturale negli spazi vettoriali euclidei. Il secondo capitolo è dedicato alle proprietà fondamentali dell applicazione aggiunta e degli endomorfismi autoaggiunti, analizzando, in particolare, la semplicità di tali endomorfismi e le forme quadratiche da essi indotte. Nel terzo capitolo è dedicato allo studio delle isometrie di uno spazio

vettoriale euclideo, analizzandone le proprietà fondamentali e classificandole in dimensione due e tre, rispettivamente. Infine, oggetto di studio del quarto capitolo sono il piano proiettivo e il piano affine su un campo K nei casi in cui questo è algebricamente chiuso oppure è il campo dei numeri reali. Nella prima parte viene esaminato il gruppo delle proiettività e la relativa azione su punti e rette del piano proiettivo. Vengono inoltre studiati due notevoli sottogruppi del gruppo delle proiettività: il gruppo delle affinità ed il gruppo delle isometrie nel caso del piano affine euclideo. Nella seconda parte, seguendo l ottica di Klein nel Programma di Erlangen per lo studio della Geometria, vengono analizzate le proprietà delle coniche lasciate invarianti dalle proiettività, dalle affinità e dalle isometrie, ottenendo una classificazione proiettiva, affine e metrica delle coniche, rispettivamente.

Welcome to my house. Come freely. Go safely; and leave something of the happiness you bring. (Count Dracula) 1 Forme Bilineari. Spazi Vettoriali Euclidei In questo capitolo vengono analizzate le proprietà fondamentali delle forme bilineari su spazi vettoriali, con particolare riguardo a quelle simmetriche. La parte finale del capitolo è dedicata all analisi dei fondamenti degli spazi vettoriali euclidei. 1.1 Forme Bilineari Definizione 1.1. Sia V uno spazio vettoriale sul campo K. Un applicazione ϕ : V V K si dice forma bilineare su V se gode delle seguenti proprietà: 1. ϕ(x 1 + x 2, y) = ϕ(x 1, y) + ϕ(x 2, y) per ogni x 1, x 2, y V, 2. ϕ(x, y 1 + y 2 ) = ϕ(x, y 1 ) + ϕ(x, y 2 ) per ogni x, y 1, y 2 V, 3. ϕ(λx, y) = ϕ(x, λy) = λϕ(x, y) per ogni λ K e x, y V.

1.1 Forme Bilineari 4 La forma bilineare ϕ si dice simmetrica se ϕ(x, y) = ϕ(y, x) per ogni x, y V, antisimmetrica se ϕ(x, y) = ϕ(y, x) per ogni x, y V. Proposizione 1.1. ϕ è antisimmetrica se e solo se ϕ(x, x) = 0 per ogni x V. Dimostrazione. Se ϕ è antisimmetrica, per y = x, si ha ϕ(x, x) = ϕ(x, x) e quindi ϕ(x, x) = 0. Viceversa, per ogni x, y V risulta 0 = ϕ(x + y, x + y) = ϕ(x, x) + ϕ(x, y) + ϕ(y, x) + ϕ(y, y) = ϕ(x, y) + ϕ(y, x) da cui segue ϕ(x, y) = ϕ(y, x). Esempio 1.1. L applicazione ϕ(x, y) = 0 per ogni x, y V è banalmente una forma bilineare, detta forma bilineare nulla. Essa è sia simmetrica che antisimmetrica. Esempio 1.2. Siano A = (a ij ) M n (K) e n ϕ : K n K n K, (x, y) X t AY = a ij x i y j, dove X e Y sono i vettori colonna delle componenti di x e y rispetto alla base canonica di K n. Allora ϕ è una forma bilineare. Infatti, siano x 1, x 2, y V allora vale che ϕ(x 1 + x 2, y) = (X 1 + X 2 ) t AY = (X1 t + X2)AY t = X1AY t + X2AY t = ϕ(x 1, y) + ϕ(x 2, y). In modo analogo si prova che ϕ(x, y 1 + y 2 ) = ϕ(x, y 1 ) + ϕ(x, y 2 ). Infine, siano x, y V, λ K, allora i,j=1 ϕ(λx, y) = (λx) t AY = λx t AY = λϕ(x, y)

1.1 Forme Bilineari 5 e analogamente ϕ(x, λy) = λϕ(x, y). Si noti che se B = {e 1,...e n } è la base canonica di K n, allora ϕ(e i, e j ) = a ij per ogni i = 1,..., n. È facile vedere che ϕ è simmetrica A è simmetrica ϕ é antisimmetrica A è antisimmetrica Infine, se A = I n, allora ϕ(x, y) = x 1 y 1 + x 2 y 2 +... + x n y n si dice forma bilineare standard su K n. Esempio 1.3. La forma bilineare ϕ(x, y) = X t J k Y = x 1 y k+1 + + x k y n x k+1 y 1 x n y k, dove J k = 0 k I k I k 0 k è detta forma alternante standard., Sia V uno spazio vettoriale sul campo K, allora 1. B(V) = {ϕ : V V K ϕ è una forma bilineare}; 2. B s (V) = {ϕ : V V K ϕ è una forma bilineare simmetrica}; 3. B a (V) = {ϕ : V V K ϕ è una forma bilineare antisimmetrica}. Proposizione 1.2. Valgono i seguenti fatti: i. B(V) è uno spazio vettoriale su K rispetto alle seguenti operazioni: (a) (ϕ 1 + ϕ 2 )(x, y) := ϕ 1 (x, y) + ϕ 2 (x, y) per ogni ϕ 1, ϕ 2 B(V); (b) (λϕ)(x, y) := λϕ(x, y) per ogni λ K e ϕ B(V);

1.1 Forme Bilineari 6 ii. B s (V) e B a (V) sono sottospazi di B(V); iii. La somma di B s (V) e di B a (V) è diretta. Dimostrazione. I punti (i) e (ii) sono semplici verifiche. Dimostriamo il punto (iii). Sia ϕ B a (V) B s (V), allora ϕ(x, y) = ϕ(y, x) = ϕ(y, x). Quindi, ϕ = 0. Osservazione 1.1. Siano ϕ B(V n ) e B = {e 1,..., e n } una base di V n. Se x = x 1 e 1 +... + x n e n e y = y 1 e 1 +... + y n e n, dalla bilinearità di ϕ segue che n ϕ(x, y) = x i y j ϕ(e i, e j ). i,j=1 Quindi, ϕ è univocamente determinata dai valori che essa assume su tutte le coppie di vettori della base B. Sia A = (a ij ) una matrice di ordine n a coefficienti in K, dove a ij = ϕ(e i, e j ) per ogni i, j = 1,..., n, allora n ϕ(x, y) = a ij x i y j = X t AY i,j=1 dove X e Y sono i vettori delle componenti di x e y rispetto alla base B. Quindi ϕ è univocamente determinata dalla matrice A. La matrice A è detta matrice associata a ϕ rispetto alla base B e la si denota con M B (ϕ). Lemma 1.1. Siano V n uno spazio vettoriale sul campo K, B = {e 1,..., e n } una base e ϕ B(V n ), allora 1. ϕ B s (V n ) se e solo se M B (ϕ) è simmetrica; 2. ϕ B a (V n ) se e solo se M B (ϕ) è antisimmetrica. Dimostrazione. ϕ B s (V n ) se e solo se a ij = ϕ(e i, e j ) = ϕ(e j, e i ) = a ji

1.1 Forme Bilineari 7 per ogni i, j = 1,..., n, quindi se e solo se A è una matrice simmetrica. ϕ B a (V n ) se e solo se a ij = ϕ(e i, e j ) = ϕ(e j, e i ) = a ji per ogni i, j = 1,..., n, quindi la matrice A è antisimmetrica. Siano M n (K) l insieme delle matrici di ordine n a coefficienti nel campo K, S n (K) il sottoinsieme di M n (K) delle matrici simmetriche di ordine n e A n (K) il sottoinsieme di M n (K) delle matrici antisimmetriche di ordine n. Teorema 1.1. Siano V n uno spazio vettoriale sul campo K e B = {e 1,..., e n } una sua base, allora Ψ : B(V n ) M n (K), ϕ M B (ϕ) Ψ Bs(V n) : B s (V n ) S n (K), ϕ M B (ϕ) Ψ Ba(V n) : B a (V n ) A n (K), ϕ M B (ϕ) sono isomorfismi di spazi vettoriali. Dimostrazione. Segue dalla definizione della matrice M B (ϕ) che Ψ è un applicazione iniettiva. Ora, siano A M n (K), x = x 1 e 1 +...+x n e n e y = y 1 e 1 +...+y n e n. Sia ϕ(x, y) = n i,j=1 a ijx i y j = X t AY, dove X e Y rappresentano i vettori colonna delle componenti di x e y rispetto alla base B. Allora ϕ B(V n ) è l unica forma bilineare tale che Ψ(ϕ) = M B (ϕ) = A per l Osservazione 1.1. Pertanto ϕ è bigettiva. Infine, siano λ, µ K, ϕ 1, ϕ 2 B(V n ), A 1 = M B (ϕ 1 ) e A 2 = M B (ϕ 2 ). Allora (λϕ 1 + µϕ 2 ) (x, y) = λϕ 1 (x, y) + µϕ 2 (x, y) = λx t A 1 Y + µx t A 2 Y = X t (λa 1 ) Y + X t (µa 2 ) Y = X t (λa 1 + µa 2 ) Y

1.1 Forme Bilineari 8 e quindi M B (λϕ 1 + µϕ 2 ) = λm B (ϕ 1 ) + µm B (ϕ 2 ). Cioè Ψ(λϕ 1 + µϕ 2 ) = λψ (ϕ 1 ) + µψ (ϕ 2 ). Pertanto, Ψ è un isomorfismo di spazi vettoriali. Infine, Ψ Bs(V n) e Ψ Bs(V n) sono isomorfismi di spazi vettoriali poiché Ψ è un isomorfismo e vale il Lemma 1.1. Teorema 1.2. 1. dim B(V n ) = n 2, dim B s (V n ) = n(n+1) 2 e dim B a (V n ) = n(n 1) 2 ; 2. B(V n ) = B s (V n ) B a (V n ). Dimostrazione. Poiché B(V n ) = M n (K), B s (V n ) = S n (K) e B a (V n ) = A n (K) per il Teorema 1.1, segue che dim B(V n ) = n 2, dim B s (V n ) = n(n+1) 2 e dim B a (V n ) = n(n 1) 2. Pertanto, vale l asserto (ii) poiché la somma di B s (V) e B a (V) è diretta per la Proposizione 1.2. Il precedente teorema è particolarmente interessante perché implica che ogni forma bilineare ϕ su V n è somma di un unica forma bilineare simmetrica ϕ s e di un unica forma bilineare antisimmetrica ϕ a. Inoltre, se B è una fissata base di V n, allora vale che M B (ϕ s ) = 1 (M 2 B(ϕ) + M B (ϕ) t ) M B (ϕ a ) = 1 (M 2 B(ϕ) M B (ϕ) t ). Definizione 1.2. Siano A, B M n (K). Allora A e B si dicono congruenti se e solo se esiste P GL(n, K) tale che B = P t AP. Si osservi che: 1. Se A, B M n (K) allora rg(a) = rg(b) (segue, per esempio, dal Teorema del rango per omomorfismi di spazi vettoriali). 2. La congruenza è una relazione di equivalenza su M n (K).

1.1 Forme Bilineari 9 Proposizione 1.3. Siano ϕ B(V n ), e B 1, B 2 due basi di V n, allora M B1 (ϕ) e M B2 (ϕ) sono congruenti. Dimostrazione. Siano B 1 = {e 1,..., e n }, B 2 = {e 1,..., e n} due basi di V n e P = (p ij ) GL(n, K) la matrice di passaggio dalla base B 2 alla base B 1 (e j = n h=1 p hje h ). Siano x, y V, allora X = P X e Y = P Y, dove X e X sono i vettori colonna delle componenti di x rispetto alle basi B 1 e B 2, Y e Y sono i vettori colonna delle componenti di y rispetto alle basi B 1 e B 2. Se A = M B1 (ϕ) e A = M B2 (ϕ), allora ϕ(x, y) = (X ) t A Y = (P X) t A (P Y ) = X t (P t A P )Y e quindi A = P t A P. Pertanto, M B1 (ϕ) e M B2 (ϕ) sono congruenti. Esempio 1.4. La forma bilineare simmetrica su R 3 definita da ha ϕ : R 3 R 3 R, ϕ(x, y) = x 1 y 1 + 3x 2 y 2 + x 1 y 3 + x 3 y 1. 1 0 1 A = 0 3 0. 1 0 0 come matrice associata rispetto alla base canonica B = {e 1, e 2, e 3 }. Sia ora B = {v 1, v 2, v 3 } un altra base di R 3 con v 1 = (1, 1, 0), v 2 = (1, 0, 1), v 3 = (0, 1, 1). Allora la matrice simmetrica associata a ϕ rispetto tale base è 4 2 4 B = 2 3 1. 4 1 3 Le matrici A e B sono congruenti, infatti B = M t AM, dove 1 1 0 M = 1 0 1, 0 1 1

1.2 Forme Bilineari Simmetriche e Forme Quadratiche 10 è la matrice che rappresenta il cambiamento di base. Definizione 1.3. Sia ϕ B(V n ), allora rg(ϕ) = rg (M B (ϕ)), dove B è una qualsiasi base di V n, è detto rango di ϕ. Inoltre, ϕ è non degenere se e solo se il rango di ϕ è n. Si osservi che la definizione è ben posta poiché se B 1 e B 2 sono due basi distinte di V n, allora M B1 (ϕ) e M B2 (ϕ) sono congruenti per la Proposizione 1.3 e quindi hanno lo stesso rango. 1.2 Forme Bilineari Simmetriche e Forme Quadratiche L obiettivo del presente paragrafo e dei successivi è lo studio delle forme bilineari simmetriche e delle forme quadratiche ad esse associate. Definizione 1.4. Siano ϕ B s (V) e v, w V. I vettori v e w sono ortogonali se e solo se ϕ(v, w) = 0. In tal caso scriveremo v w. Un vettore v V si dice isotropo se e solo se v v. Esempio 1.5. Il vettore v = (0, 0, 1) è isotropo per la forma bilineare simmetrica dell Esempio 1.4. Siano ϕ B(V) e S un sottoinsieme di V, allora S = {w V : v w}. Proposizione 1.4. S è un sottospazio di V. Dimostrazione. Siano λ, µ K e u, w S, allora ϕ(v, λu + µw) = ϕ(v, λu) + ϕ(v, µw) = λϕ(v, u) + µϕ(v, w) = 0. Pertanto λu + µw S.

1.2 Forme Bilineari Simmetriche e Forme Quadratiche 11 Il sottospazio V è detto nucleo di ϕ e si denota con ker(ϕ). Un sottospazio U di V si dice singolare se U U {0} e totalmente singolare se U U. Due sottospazi U e W si dicono ortogonali se U W. Dalla simmetria di ϕ segue che: U W W U Se U e W sono ortogonali e uno è supplementare dell altro, allora scriveremo V = U W. Lemma 1.2. Siano ϕ B s (V), U e W sottospazi di V. Se W è finitamente generato, allora U è ortogonale a W se e solo se U è ortogonale ai vettori di una base di W. Dimostrazione. Siano B = {e 1,..., e k } una base di W e w W, allora w = k i=1 w ie i. Se u U, allora ( ) k k ϕ(u, w) = ϕ u, w i e i = w i ϕ(u, e i ). i=1 i=1 Pertanto, se u e i per ogni i = 1,..., k, allora u w e quindi u W. Viceversa, se u w, allora u e i per ogni i = 1,..., k. Teorema 1.3. Se ϕ B s (V n ), allora V n = ker(ϕ) S, dove S è un sottospazio non singolare di V n. Dimostrazione. Sia S un supplementare di ker(ϕ) in V n. Allora V n = ker(ϕ) S. Poiché tutti i vettori di ker(ϕ) sono ortogonali a tutti i vettori di V n, vale che V n = ker(ϕ) S. Ora proviamo che S è non singolare. Sia x S tale che x s per ogni s S. Se w V n, allora w = k 1 + s 1 con k 1 ker(ϕ) e s 1 S. Ciò implica ϕ(x, w) = ϕ(x, k 1 ) + ϕ(x, s 1 ) = 0. Pertanto, x ker(ϕ) S e quindi x = 0, essendo S un supplementare di ker(ϕ).

1.2 Forme Bilineari Simmetriche e Forme Quadratiche 12 Teorema 1.4. S ϕ B s (V n ), allora rg(ϕ) = n dim ker(ϕ). Dimostrazione. Siano B = {e 1,..., e n } una fissata base di V n e A = M B (ϕ). Sia f End(V) tale che A = M B (f). Proviamo che ker(ϕ) = ker(f). Per ogni vettore x denotiamo con X il vettore colonna delle componenti di x rispetto a B. In particolare E i denota le componenti di e i rispetto alla base B. Quindi E i è il vettore colonna avente componenti tutte nulle tranne la i-esima che è uguale a 1. Quindi y ker(f) AY = 0 I n AY = 0 EiAY t = 0, per ogni i = 1,.., n X t AY = 0 per il Lemma 1.2. Segue che ker(f) = ker(ϕ). Dal Teorema del rango segue che rg(ϕ) = rg(a) = rg(f) = dim V dim V. Corollario 1.1. ϕ B s (V n ) è degenere se e solo se ker(ϕ) {0}. Esempio 1.6. Consideriamo la forma bilineare simmetrica su R 3 definita da: ϕ(x, y) = x 1 y 1 + x 1 y 1 + x 2 y 2 + 3x 2 y 2 + 2x 3 y 2 + x 3 y 3. Tale forma bilineare è degenere, infatti sia 1 1 0 A = 1 3 2, 0 2 1 la matrice associata a ϕ rispetto alla base canonica B, si ha che rg(a) = 2. Inoltre, sia f End(R) tale che A = M B (f); determiniamo ker(f): 1 1 0 1 3 2 0 2 1 x 1 x 2 x 3 0 = 0. 0

1.2 Forme Bilineari Simmetriche e Forme Quadratiche 13 Pertanto ker(f) = L(1, 1, 2). Preso il vettore x = λ(1, 1, 2) risulta che x ker(f) e quindi ϕ( x, y) = 0 y R 3, cioè x ker(ϕ). D altra parte rg(ϕ) = 2 e quindi ker(ϕ) = ker(f) = L(1, 1, 2) (si veda la dimostrazione del Teorema 1.4) Definizione 1.5. Sia ϕ B s (V) e sia Q : V K, x Q(x) = ϕ(x, x), allora Q é detta forma quadratica associata a ϕ. Proposizione 1.5. Se Q è la forma quadratica associata a ϕ, allora: 1. Q(λx) = λ 2 x per ogni λ K e x V ; 2. ϕ(x, y) = 1 {Q(x + y) Q(x) Q(y)}. 2 Dimostrazione. L asserto (1) è banalmente vero essendo ϕ bilineare. Poiché vale Q(x + y) = ϕ(x + y, x + y) = Q(x) + Q(y) + 2ϕ(x, y), essendo ϕ bilineare e simmetrica, l asserto (2) segue banalmente. La formula (2) della Proposizione 1.5 è detta formula di polarizzazione e ϕ è detta forma polare di Q. Dalla precedente proposizione si evince che che ogni forma bilineare è la forma polare di un unica forma quadratica. Sia B = {e 1,..., e n } una base di V n e sia A = M B (ϕ) con ϕ B s (V n ). Siano Q la forma quadratica associata a ϕ e x = x 1 e 1 +... + x n e n il generico vettore di V n. Allora n Q(x) = a ij x i x j = X t AX. i,j=1 Quindi, anche Q viene individuata in modo univoco da A (fissando la base B). Pertanto M B (Q) = A = M B (ϕ).

1.3 Teorema di Rappresentazione di Riesz 14 Infine, se Q è una forma quadratica allora rg(q) = rg(ϕ). Si noti che ogni forma quadratica individua un polinomio omogeneo di grado 2 nelle indeterminate x 1,..., x n. È vero anche il viceversa. Infatti, considerato il generico polinomio omogeneo P (x 1,..., x n ) = n i,j=1 q ijx i x j individua la forma quadratica Q(x) = n i,j=1 q ijx i x j, dove x è il vettore di componenti x 1,..., x n rispetto ad una fissata base B di K n. La forma quadratica Q, rispetto alla base B, ha associata la matrice A = (a ij ) con a ii = q ii e a ij = a ji = q ij /2 per i < j. Chiaramente, se P 1 (x 1,..., x n ), P 2 (x 1,..., x n ) K[x 1,..., x n ] individuano la stessa forma quadratica, le matrici associate sono congruenti. Infine è facile vedere che se ϕ B s (V) è la forma polare di Q, fissato un generico sottospazio W di V n, la forma indotta da ϕ su W è la forma polare della restrizione di Q a W. 1.3 Teorema di Rappresentazione di Riesz Il Teorema di Rappresentazione di Riesz stabilisce un isomorfismo canonico tra V n e il suo duale nel caso in cui V n sia munito di una forma bilineare, simmetrica non degenere. E ben noto che, in generale uno spazio vettoriale finito dimensionale non è canonicamente isomorfo al suo duale. La parte finale di questo paragrafo è dedicata allo studio del reticolo dei sottospazi di V n rispetto all ortogonalità indotta da un forma bilineare e simmetrica. Teorema 1.5. (Riesz) Sia ϕ una forma bilineare simmetrica non degenere su V n. Allora Φ : V n Vn, x φ x, dove φ x (v) = ϕ(v, x), è un isomorfismo (canonico) di spazi vettoriali. In particolare, per ogni f X esiste un unico x X tale che f = φ x.

1.3 Teorema di Rappresentazione di Riesz 15 Dimostrazione. Proviamo che Φ è lineare. Siano v 1, v 2 V n, allora Φ(v 1 +v 2 ) = φ v1 +v 2. Per ogni w V n, si ha che φ v1 +v 2 (w) = ϕ(w, v 1 + v 2 ) = ϕ(w, v 1 ) + ϕ(w, v 2 ) = φ v1 (w) + φ v2 (w), quindi Φ(v 1 + v 2 ) = Φ(v 1 ) + Φ(v 2 ). Analogamente Φ(λv) = φ λv e, per ogni w V n, φ λv (w) = ϕ(w, λv) = λϕ(w, v) = λφ v (w), quindi Φ(λv) = λφ(v). Pertanto Φ è lineare. Ora, sia x ker Φ, allora φ x è la forma nulla, cioè ϕ(x, y) = 0 per ogni y V e quindi x ker(ϕ), pertanto x = 0 essendo ϕ non degenere. Quindi Φ è iniettiva e pertanto Φ è bigettiva essendo dimv n = dim Vn. Corollario 1.2. Siano ϕ una forma bilineare simmetrica non degenere su V n e S un sottospazio di V n, allora per ogni g S esiste x V n tale che g(y) = ϕ(x, y). Dimostrazione. Siano g S e B 0 = {e 1,..., e k } una base di S. Per il Teorema della base incompleta, B 0 si può estendere ad una base di V n. Sia f Vn tale che f(e i ) = g(e i ) per i = 1,..., k, f(e i ) = 0 per i = k + 1,..., n. Per Teorema di Riesz esiste x tale che f(y) = ϕ(x, y) e quindi g(y) = ϕ(x, y) per ogni y S. Osservazione 1.2. Nel Corollario 1.2 il vettore x non è univocamente determinato poiché g si può estendere ad una forma di Vn in diversi modi. Teorema 1.6. Sia ϕ B s (V n ) non degenere e sia X un sottospazio di V n. Allora 1. dim X + dim X = dim V n ;

1.3 Teorema di Rappresentazione di Riesz 16 2. X = X Dimostrazione. Sia Φ : V n X, x φ x dove φ x : X K, y φ x (y) = ϕ(x, y). Chiaramente, Φ è ben posta. Inoltre, Φ è lineare poiché ϕ è bilineare. Sia g X, per il Corollario 1.2 esiste v V n tale che g(v) = ϕ(x, v). Pertanto, Φ è suriettiva. Sia w ker Φ, allora φ w è la forma nulla su X. Quindi φ w (x) = 0 per ogni x X se e solo se ϕ(x, w) = 0 per ogni x X. Pertanto, w kerφ se e solo se w X. Quindi ker Φ = X. Dal Teorema del rango segue che dim V n = dim ImΦ + dim ker Φ = dim X + dim X = dim X + dim X essendo X = X. Ciò prova l asserto (1). Segue banalmente che S S. D altra parte dim S = dim V n dim S = dim V n (dim V n dim S) = dim S. Pertanto S = S, che è l asserto (2). Proposizione 1.6. Siano ϕ B s (V n ) e W un sottospazio di V n. 1. Se W è totalmente singolare, allora W W. In particolare, dim W n 2 ; 2. se W non è singolare, allora V n = W W. Dimostrazione. Se W è totalmente singolare, allora dim W dim W. D altra parte, per il Teorema 1.6 (1) vale che dim V n = dim W + dim W 2 dim W, pertanto dim W n 2. Se W è non singolare, allora la somma di W con W è diretta, quindi V = W W, per il Teorema 1.6 (1).

1.3 Teorema di Rappresentazione di Riesz 17 Proposizione 1.7. Siano ϕ B s (V) e X, Y due sottospazi di V. Allora valgono i seguenti fatti: 1. Se X Y, allora Y X ; 2. (X + Y) = X Y ; 3. X + Y (X Y) ; 4. Se V è finitamente generato, allora X + Y = (X Y). Dimostrazione. L asserto (1) è banalmente vero. Siano X, Y X + Y, allora, per l asserto (1), vale che (X + Y) X e (X + Y) Y, pertanto (X + Y) X Y. Ora, siano t X Y e u X + Y. Quindi, esistono x X e y Y tali che u = x + y. Allora ϕ(t, u) = ϕ(t, x + y) = ϕ(t, x) + ϕ(t, y). Siccome t X Y, si ha che ϕ(t, x) = ϕ(t, y) = 0. Pertanto, t (X + Y) e quindi X Y (X + Y). Dalla doppia inclusione segue l asserto (2). Siano X, Y sottospazi di V. X Y X, Y, allora X, Y (X Y) e quindi X + Y (X Y). (1.1) Se V è finitamente generato, allora dim(x + Y ) = dim X + dim Y dim(x Y ) = dim V dim X + dim V dim Y dim(x Y ) = dim V dim X + dim V dim Y dim(x + Y) = 2 dim V dim X dim Y (dim V dim(x + Y)) = dim V dim X dim Y + dim(x + Y) = dim V dim(x Y) = dim(x Y). Poiché vale (1.1) e dim(x + Y ) = dim(x Y), segue l asserto (4).

1.4 Diagonalizzazione delle forme quadratiche 18 1.4 Diagonalizzazione delle forme quadratiche Di seguito è fornita la definizione di base ortogonale, o diagonalizzante, per una forma bilineare e simmetrica. In questo paragrafo viene affrontato il problema dell esistenza di siffatte basi. Definizione 1.6. Se ϕ B s (V n ), una base B = {e 1,..., e n } di V n si dice base ortogonale (per ϕ) se e i e j per ogni i, j = 1,..., n, i j. Se B è una base ortogonale di V per ϕ, allora M B (ϕ) è diagonale e quindi ϕ(x, y) = a 11 x 1 y 1 + a 22 x 2 y 2 +... + a nn x n y n. Lemma 1.3. Se ϕ B s (V n ) è non degenere, allora esiste una base ortogonale di V n per ϕ. Dimostrazione. Proviamo l asserto per induzione su n. Se n = 1 la tesi è banalmente vera. Quindi, supponiamo vera la tesi per n 1 e proviamola per n. Poiché ϕ è non degenere, esiste e 1 V n vettore non isotropo. Infatti, se per ogni x V n ϕ(x, x) = 0, allora per l Osservazione 1.1 ϕ è anche antisimmetrica. Quindi, ϕ B s (V n ) B a (V n ) e, per la Proposizione 1.2 (iii), ϕ = 0. Ma ciò è assurdo poiché ϕ è non degenere. Sia V 1 = L(e 1 ), allora V 1 è non singolare. Infatti, se V 1 fosse singolare, allora V 1 V1, dim V 1 = 1, e quindi e 1 sarebbe isotropo, ma ciò è assurdo. Pertanto V 1 V1 = {0} e quindi la somma di V 1 e V1 è diretta. Allora dim(v 1 V 1 ) = dim V 1 + dim V 1 = dim V n, per il Teorema 1.6 (1). Quindi V n = V 1 V 1. Sia ϕ 1 la forma indotta su V 1. Proviamo che ϕ 1 è non degenere. Sia x 0 ker(ϕ 1 ), allora ϕ 1 (x 0, y) = ϕ(x 0, y) = 0 (1.2)

1.4 Diagonalizzazione delle forme quadratiche 19 per ogni y V 1. Sia v V n. Poiché esistono λ K e u V 1 tali che v = λe 1 + u, allora V n = V 1 V 1. Quindi, ϕ(x 0, v) = ϕ(x 0, λe 1 + u) = λϕ(x 0, e 1 ) + ϕ(x 0, u). Poiché x 0 V 1 segue che ϕ(x 0, e 1 ) = 0 e per (1.2) ϕ(x 0, u) = 0. Quindi x 0 ker(ϕ), allora x 0 = 0 essendo ϕ non degenere. Pertanto, ϕ 1 è non degenere. Siccome dim V 1 = n 1, per l ipotesi induttiva esiste B 1 = {e 2,..., e n } base ortogonale di V 1 per ϕ 1 e quindi per ϕ. Allora B = {e 1, e 2,..., e n } è una base ortogonale di V n per ϕ. Teorema 1.7. Se ϕ B s (V n ), allora esiste una base ortogonale di V n per ϕ. Dimostrazione. Se ϕ è non degenere, la tesi segue banalmente dal Lemma 1.3. Sia quindi ϕ degenere. Allora V n = ker(ϕ) S con S non singolare per il Teorema 1.3. Sia ϕ 1 la forma indotta da ϕ su S. Poiché S è non singolare, ϕ 1 è non degenere, esiste una base ortogonale B S di S per ϕ 1 e quindi per ϕ. Sia B 0 una qualsiasi base di ker(ϕ), allora B = B 0 B S è una base ortogonale di V n per ϕ. Corollario 1.3. Se A S n (K), allora A è congruente ad una matrice diagonale. Dimostrazione. Sia ϕ B s (K n ) data da ϕ(x, y) = X t AY, dove A = M B (ϕ) e B è la base canonica di K n. Sia D = M B (ϕ) dove B è una base ortogonale di K n per ϕ per il Teorema 1.7, allora esiste P GL(n, K) tale che D = P t AP. Teorema 1.8. Sia ϕ B s (V n ), dove V n è uno spazio vettoriale sul campo K algebricamente chiuso, allora esiste una base ortogonale B di V n tale che M B (ϕ) = I r 0 1 (1.3) 0 2 0 3

1.4 Diagonalizzazione delle forme quadratiche 20 dove r = rg(ϕ), I r è la matrice identica di M r (K), 0 1 M r,n r (K), 0 2 M n r,r (K) e 0 3 M n r,n r (K) sono tutte matrici nulle. Dimostrazione. Sia ϕ B s (V n ), allora esiste una base ortogonale B 0 = {e 1, e 2,..., e n } di V n per ϕ. Quindi, a 11 0... 0 0 a 22... 0 M B0 (ϕ) =...... 0 0 0 0 a nn Sia r = rg(ϕ), allora r = rg(m B0 (ϕ)). Senza perdere di generalità, possiamo assumere che a ii 0 per i = 1,..., r e a ii = 0 per i = r + 1,..., n. Poiché K è algebricamente chiuso, per ogni i = 1,..., r esiste α i K tale che αi 2 = a ii. Sia B = {f 1, f 2,..., f n }, dove α 1 i e i, per i = 1,..., r f i = e i, per i = r + 1,..., n allora ϕ(f i, f j ) = 0 per i j o per i = j > r, mentre per i = j < r risulta ϕ(f i, f i ) = ϕ(α 1 i è come in (1.3). e i, α 1 i e i ) = α 2 i ϕ(e i, e i ) = 1. Pertanto, B è ortogonale e M B (ϕ) Corollario 1.4. Sia A S n (K) con K algebricamente chiuso. Se r = rg(a), allora A è congruente ad una matrice diagonale della forma (1.3). Dimostrazione. Segue banalmente dal Teorema 1.8 procedendo come nel Corollario 1.3. Teorema 1.9. (Sylvester) Sia ϕ una forma bilineare simmetrica di rango r di uno spazio vettoriale reale V n. Allora esiste un intero 0 p r dipendente solo

1.4 Diagonalizzazione delle forme quadratiche 21 da ϕ, ed una base B = {e 1, e 2,..., e n } di V n tale che I p 0 0 M B (ϕ) = 0 I r p 0 0 0 0 n r dove 0 denota la matrice nulla di ordini opportuni. (1.4) Dimostrazione. Sia B 0 = {e 1, e 2,..., e n } una base ortogonale di V n rispetto a ϕ, allora a 11 0... 0 0 a 22... 0 M B0 (ϕ) =...... 0 0 0 0 a nn Sia r = rg(ϕ), allora r = rg(m B0 (ϕ)). Possiamo assumere che a ii 0 per i = 1,..., r e a ii = 0 per i = r + 1,..., n, e che inoltre i primi 0 p r siano positivi (infatti, psssiamo eventualmente riordinare gli elementi di B 0 perché ciò si verifichi). Allora a ii = αii 2 per i p e a ii = αii 2 per p + 1 i r. Sia B = {e 1, e 2,..., e n}, dove e i = α 1 ii e 1 e i per 1 i r per r + 1 i n Quindi, ϕ(e i, e j) = 0 per i j, o per i = j > r. Per i = j r risulta ϕ(e i, e j) = 1 o 1 a seconda che i p o i > p rispettivamente. Pertanto, Q(x) = x 2 1 +... + x 2 p x 2 p+1... x 2 r. Rimane da provare che p dipende solo da ϕ e non dalla base scelta. Sia B = {e 1, e 2,..., e n} una base ortogonale di V n rispetto a Q tale che Q(y) = y 2 1 +... + y 2 t y 2 t+1... t 2 r.

1.4 Diagonalizzazione delle forme quadratiche 22 Supponiamo t p e quindi t < p. Si considerino i sottospazi S = e 1,..., e p e T = e t+1,..., e n di Vn. Dalla formula di Grassmann segue che dim S T = dim S + dim T dim(s + T ) = p + n t dim(s + T ) p t > 0. Sia v S T, v 0. Allora e quindi v = λ 1 e 1 +... + λ p e p = µ t+1 e t+1 +... + µ n e n Q(v) = λ 2 1 +... + λ 2 p > 0 Q(v) = µ 2 t+1... µ 2 n < 0 che è assurdo. Pertanto t = p e quindi la tesi. Procedendo come nel Corollario 1.3 vale il seguente Corollario 1.5. Se A S n (R), allora A è congruente ad una matrice diagonale come in 1.4 dove r = rg(a) e p è un intero compreso tra 0 e r dipendente solo da A. Se Q è una forma quadratica su uno spazio vettoriale reale V n, allora esiste una base B di V n rispetto alla quale Q(x) = x 2 1 +... + x 2 p x 2 p+1... x 2 r (1.5) dove p ed r sono interi tali che 0 p r, che dipendono solo da Q. La (1.5) si dice forma canonica di Q. Gli interi p ed r si dicono indice di positività e di negatività, rispettivamente. La coppia (p, r p) è detta segnatura di Q. Una forma quadratica Q si dice definita positiva se Q(x) > 0 per ogni x V, x 0; semidefinita positiva se Q(x) 0 per ogni x V;

1.4 Diagonalizzazione delle forme quadratiche 23 semidefinita negativa se Q(x) 0 per ogni x V; definita negativa se Q(x) < 0 per ogni x V, x 0; indefinita se non è semidefinita positiva o negativa. Analoga terminologia si applica alla forma polare di Q. Dal Teorema di Sylvester vale che le possibili forme canoniche delle forme quadratiche non nulle sono le seguenti: Forma quadratica Segnatura Definita positiva Q(x) = x 2 1 +... + x 2 n (n, 0) Semidefinita positiva Q(x) = x 2 1 +... + x 2 r, r < n (r, 0) Semidefinita negativa Q(x) = x 2 1... x 2 r, r < n (0, r) Definita negativa Q(x) = x 2 1... x 2 n (0, n) Indefinita Q(x) = x 2 1 +... + x 2 p x 2 p+1... x 2 r (p, r p) In particolare, per n = 2, se Q non è la forma nulla, si ha: Forma quadratica Segnatura Definita positiva Q(x) = x 2 1 + x 2 2 (2, 0) Semidefinita positiva Q(x) = x 2 1, (1, 0) Semidefinita negativa Q(x) = x 2 1, (0, 1) Definita negativa Q(x) = x 2 1 x 2 2 (0, 2) Indefinita Q(x) = x 2 1 x 2 2 (1, 1)

1.4 Diagonalizzazione delle forme quadratiche 24 Per n = 3, e Q diversa dalla forma nulla, risulta: Forma quadratica Segnatura Definita positiva Q(x) = x 2 1 + x 2 2 + x 2 3 (3, 0) Semidefinita positiva Q(x) = x 2 1 + x 2 2, (2, 0) Q(x) = x 2 1, (1, 0) Semidefinita negativa Q(x) = x 2 1, (0, 1) Q(x) = x 2 1 x 2 2, (0, 2) Definita negativa Q(x) = x 2 1 x 2 2 x 2 3 (0, 3) Indefinita Q(x) = x 2 1 x 2 2 x 2 3 (1, 2) Q(x) = x 2 1 + x 2 2 x 2 3 (2, 1) Q(x) = x 2 1 x 2 2 (1, 1) Se Q(x) = X t AX è una forma quadratica reale, allora Q è congruente ad una matrice della forma (1.4) per il Teorema di Sylvester. Pertanto è ben posta la seguente definizione: Definizione 1.7. Sia A S n (R). Allora A si dice definita positiva, semidefinita positiva, semidefinita negativa, definita negativa o indefinita, se Q(x) = X t AX è definita positiva, semidefinita positiva, semidefinita negativa, definita negativa o indefinita rispettivamente. Corollario 1.6. Sia A S n (R), allora A è definita positiva se e solo se esiste M GL(n, R) tale che A = M t M. Dimostrazione. Per il Teorema di Sylvester, A S n (R) è definita positiva se e solo se è congruente a I n, cioè A = M t M con M GL(n, R). Definizione 1.8. Il minore principale di ordine k di A M n (K), dove k = 1,..., n, è il determinante della sottomatrice A k di A ottenuta eliminando le ultime n k righe e le ultime n k colonne di A.

1.4 Diagonalizzazione delle forme quadratiche 25 Teorema 1.10. (Criterio di Sylvester) Una matrice simmetrica reale A di ordine n è definita positiva se e solo se per ogni k = 1,..., n il minore principale di ordine k di A è positivo. Dimostrazione. Si consideri la forma quadratica su R n definita positiva Q(Y ) = Y t AY individuata dalla matrice simmetrica reale A rispetto ad una fissata base B di R n. Per k = 1,..., n, si consideri la forma quadratica su R k definita da Q k (X) = X t A k X. Per ogni x = (x 1,..., x k ) vettore di R k si consideri il vettore di R n definito da x = (x 1,..., x k, 0,..., 0). Vale che: Q k ( x) = X k t A k X = a ij x i x j = X t AX = Q(x) i,j=1 Allora Q k è definita positiva poiché Q è definita positiva. Pertanto A k è definita positiva, e per il Corollario 1.6 esiste M k GL(k, R) tale che A k = Mk tm k. Quindi det A k = det (Mk tm k) = det (M k ) 2 > 0 per ogni k = 1,..., n. Proviamo ora per induzione su n che A è definita positiva se e solo det A k > 0 per ogni k = 1,..., n. Per n = 1 l asserto è banalmente vero. Quindi supponiamo vera la tesi per n 1 e proviamola per n. Si consideri la forma quadratica Q(x) = X t AX. Si consideri il sottospazio Y di R n costituito dai vettori y = (y 1,...,...y n 1, 0) e la forma quadratica su R n 1 definita da Q n 1 (ȳ) = Ȳ t A n 1 Ȳ con ȳ = (y 1,...,...y n 1 ). Segue dall ipotesi induttiva che Q n 1 è definita positiva. Inoltre Q(y) > 0 per ogni y Y, poiché Q n 1 (ȳ) = Q(y). Per il Teorema 1.8 esiste una base ortogonale B = {e 1,..., e n} di R n tale che Q(y) = λ 1 y1 2 + λ 2 y2 2 +... + λ n yn 2 con λ 1 λ 2... λ n. Dal Corollario 1.4 segue che det A = (det P ) 2 λ 1 λ 2 λ n, dove P è la matrice di passaggio dalla base B alla base B. Sia X = L(e 1, e 2 ). Poiché dim Y = n 1 e dim X = 2, allora dim X Y 1. Sia w X Y, w 0. Allora Q(w) > 0 ed esistono scalari w 1, w 2 R tali che

1.5 Spazi Vettoriali Euclidei 26 w = w 1 e 1 + w 2 e 2. Quindi ( ) 0 < Q(w) λ 1 w1 2 + λ 2 w2 2 λ 2 w 2 1 + w2 2 da cui segue che 0 < λ 2... λ n. D altra parte 0 < det A e quindi 0 < λ 1 λ 2 λ n, essendo det A = (det P ) 2 λ 1 λ 2 λ n. Quindi, 0 < λ 1 λ 2... λ n. Pertanto, Q(y) = λ 1 y1 2 + λ 2 y2 2 +... + λ n yn 2 > 0 per ogni vettore non nullo y di R n, e quindi A è definita positiva. 1.5 Spazi Vettoriali Euclidei In questo paragrafo sono studiate le proprietà fondamentali degli spazi vettoriali euclidei. Definizione 1.9. Sia V uno spazio vettoriale reale. Un forma bilineare e simmetrica, di V definita positiva si dice prodotto scalare. La coppia (V,, ) si dice Spazio Vettoriale Euclideo. Esempio 1.7. x, y = x 1 y 1 +... + x n y n, è uno prodotto scalare su R n, detto prodotto scalare standard. Esempio 1.8. Lo spazio di vettori geometrici di V 3 con prodotto scalare definito da: 0 se u = 0 o v = 0, u v = u v cos uv ˆ se u 0, v 0, è uno spazio vettoriale euclideo. Esempio 1.9. Per le proprietà degli integrali si ha che (f, g) = è un prodotto scalare su C R [a, b]. b a f(x) g(x) dx. (1.6)

1.5 Spazi Vettoriali Euclidei 27 Definizione 1.10. Sia (V,, ) uno spazio vettoriale euclideo. : V R, x x = x, x si dice norma su V indotta dal prodotto scalare,. Il numero reale non negativo x si dice norma del vettore x. Teorema 1.11. (Disuguaglianza di Schwarz) Sia (V,, ) uno spazio vettoriale euclideo, allora per ogni v, w V risulta v, w v w e l uguaglianza vale se e solo se v e w sono paralleli. Dimostrazione. Se w = 0, l asserto è banalmente vero. Quindi, supponiamo che w 0. Siano a = w, w e b = v, w. Allora 0 av + bw, av + bw = a 2 v, v + 2ab v, w + b 2 w, w = w, w 2 v, v 2 w, w v, w 2 + v, w 2 w, w = w, w ( w, w v, v v, w 2) Poiché w 0, allora w, w > 0 e quindi v, w 2 v, v w, w, cioè v, w v w. Si noti che v, w 2 = v, v w, w se e solo se av + bw, av + bw = 0 e ciò si verifica se e solo se v = aw/b, essendo b 0. Proposizione 1.8. La norma gode delle seguenti proprietà: 1. x 0 per ogni x V, e x = 0 se e solo se x = 0; 2. λx = λ x per ogni λ R e x V; 3. x + y x + y per ogni x, y V. Inoltre l uguaglianza vale se e solo se x e y sono paralleli.

1.5 Spazi Vettoriali Euclidei 28 Dimostrazione. Gli asserti (1) e (2) sono banalmente veri in quanto seguono dalla definizione di norma. Proviamo l asserto (3). Dalla disuguaglianza di Schwarz segue che se x, y V allora x + y 2 = x 2 + 2 x, y + y 2 x 2 + 2 x, y + y 2 x 2 + 2 x y + y 2 ( x + y ) 2 Quindi, x + y x + y. Inoltre, vale l uguaglianza se e solo se x, y = x y e quindi se e solo se x e y sono paralleli. Definizione 1.11. La coppia (V, ) si dice spazio normato. Siano x, y vettori non nulli di uno spazio vettoriale euclideo V. Allora x,y x y 1 e quindi 1 x, y x y 1. Poiché cos [0,π] : [0, π] [ 1, 1] è invertibile, esiste un unico θ [0, π] tale che cos θ = x,y x y. Allora ( ) x, y θ = arccos x y é l angolo convesso (non orientato) individuato da x e y. Pertanto, v, w = x y cos θ. (1.7) Esempio 1.10. Si consideri il prodotto scalare standard di R 4 : x, y 1 = x 1 y 1 + x 2 y 2 + x 3 y 3 + x 4 y 4. Siano v 1 = (1, 1, 0, 1), v 2 = (1, 1, 1, 0) e calcoliamo l angolo individuato da essi ( ) v1, v 1 θ = arccos 1 = arccos 2 v 1 1 v 2 1 3 θ 4 9 π. Ora, su R 4 si consideri il prodotto scalare definito da x, y 2 = 1 2 x 1y 1 + 1 2 x 2y 2 + x 3 y 3 + x 4 y 4. (1.8)

1.5 Spazi Vettoriali Euclidei 29 L angolo individuato dai vettori v 1, v 2 è: ( ) v1, v 2 θ = arccos 2 = arccos 1 v 1 2 v 2 2 2 θ = π 3. Si considerino, infine, i vettori ortogonali rispetto al prodotto scalare standard w 1 = (1, 1, 1, 1) e w 2 = (1, 0, 0, 1), che rispetto al prodotto scalare, 2 determinano l angolo: ( ) w1, w 2 θ = arccos 2 = arccos 1 w 1 2 w 2 2 9 θ 8 15 π. Teorema 1.12. Siano x, y due vettori di uno spazio vettoriale euclideo, allora: 1. (Teorema di Carnot) x + y 2 = x 2 + y 2 + 2 x y cos θ, dove θ è l angolo convesso (non orientato) individuato da x e y; 2. (Teorema di Pitagora) x + y 2 = x 2 + y 2 se e solo se x, y V sono ortogonali. Dimostrazione. Vale che: x + y 2 = x + y, x + y = x 2 + y 2 + 2 x, y = x 2 + y 2 + 2 x y cos θ dove θ è l angolo convesso (non orientato) individuato da x e y per (1.7). Inoltre, x + y 2 = x 2 + y 2 se e solo se x, y = 0, cioè se x e y sono ortogonali. Sia x un vettore di uno spazio vettoriale euclideo V. Allora x si dice versore se e solo se x = 1. In particolare, se x 0 allora e := associato a x. x x si dice versore Un insieme finito di vettori {v 1, v 2,..., v t } di V si dice ortogonale se v i, v j = 0 per ogni i, j = 1,..., t, con i j. Un insieme finito di vettori {v 1, v 2,..., v t } di V si dice ortonormale se è un

1.5 Spazi Vettoriali Euclidei 30 insieme ortogonale e vale che v i = 1 per ogni i = 1,..., t. Se dim V = n una base ortonormale è una base B = {e 1, e 2,..., e n } tale che e i, e j = δ ij per ogni i, j = 1,..., n. Proposizione 1.9. Se {v 1, v 2,..., v t } è un insieme ortogonale di vettori non nulli di V, allora {v 1, v 2,..., v t } è un insieme linearmente indipendente. Inoltre, se dim V = n, un insieme ortogonale di n vettori non nulli di V è una base ortogonale. Dimostrazione. Siano λ 1,..., λ t R tali che λ 1 v 1 + λ 2 v 2 +...λ t v t = 0, allora per ogni j = 1,..., t risulta n 0 = λ i v i, v j = i=1 n λ i v i, v j = λ j i=1 Quindi, {v 1, v 2,..., v t } è un insieme linearmente indipendente. In particolare, se dim V = n, un insieme ortogonale di n vettori è linearmente indipendente massimale, cioè una base. Se B = {e 1,..., e n } è una base ortonormale di V n, allora M B (, ) = I n, quindi, rispetto a tale base x, y = x 1 y 1 +... + x n y n. In altre parole la rappresentazione di, rispetto ad una fissata base ortonormale è la stessa del prodotto scalare standard dei vettori di R n rispetto alla base canonica di quest ultimo. Teorema 1.13. Ogni spazio vettoriale euclideo V n possiede basi ortonormali. Dimostrazione. Poiché, è definito positivo, segue dal Teorema di Sylvester che esiste una base B tale che M B (, ) = I n,. Quindi, B è una base ortonormale di V n.

1.5 Spazi Vettoriali Euclidei 31 Il seguente teorema rappresenta un algoritmo per costruire basi ortonormali a partire da basi di uno spazio vettoriale euclideo finitamente generato. Teorema 1.14. (di Ortonormalizzazione di Gram-Schmidt) Sia {v 1,..., v n } una base di uno spazio vettoriale euclideo V n, allora l insieme {e 1,..., e n } in cui e k = w k w k e w 1 = v 1, w k = v k k 1 è una base ortonormale di V n. j=1, v k,w j w j,w j w j, k 2, Dimostrazione. Dimostriamo per induzione su k che L(v 1,..., v k ) = L(w 1,..., w k ) e che w k 0 per ogni k = 1,..., n. Per k = 1 la tesi è banalmente vera. Supponiamo vera la tesi per k 1 e proviamola per k. Supponiamo che w k = 0. Allora v k = k 1 j=1 v k, w j w j, w j w j, e pertanto v k L(w 1,...w k 1 ) = L(v 1,...v k 1 ) per l ipotesi induttiva. Quindi v k è combinazione lineare di v 1,...v k 1. Ma ciò è assurdo poiché {v 1,...v k 1, v k } è un sottoinsieme della base {v 1,..., v n }. Pertanto w k 0. Vale che v k = w k + k 1 j=1 v k, w j w j, w j w j e quindi v k L(w 1,..., w k ). Pertanto, L(v 1,..., v k ) L(w 1,..., w k ). D altra parte L(w 1,..., w k 1 ) L(v 1,..., v k 1 ) per l ipotesi induttiva e quindi w k L(w 1,..., w k 1, v k ) L(v 1,..., v k ). Pertanto L(v 1,..., v k ) = L(w 1,..., w k ). Proviamo ora per induzione su k che w k è ortogonale a w j per ogni j = 1,..., k 1. Se k = 2, vale che: w 2, w 1 = v 2 v 2, w 1 w 1, w 1 w 1, w 1 = v 2, w 1 v 2, w 1 w 1, w 1 w 1, w 1 = 0.

1.5 Spazi Vettoriali Euclidei 32 Ora supponiamo vera la tesi per k 1 e proviamola per k. Per j = 1,...k 1 vale che w k, w j = v k k 1 i=1, v k, w i w i, w i w k 1 v k, w i i, w j = v k, w j w i=1, i, w i w i, w j = v k, w j v k, w j w j, w j w j, w j = 0. Pertanto, {w 1,..., w n } è un insieme di n vettori non nulli a due a due ortogonali. Quindi {w 1,..., w n } è una base ortogonale di V n per la Proposizione 1.9. Conseguentemente, {e 1,..., e n } è una base ortonormale di V n. Esempio 1.11. Consideriamo il prodotto scalare su R 4 definito da: x, y = 1 2 x 1y 1 + 1 2 x 2y 2 + x 3 y 3 + x 4 y 4. Applicando il procedimento di Gram-Schmidt ai vettori otteniamo: v 1 = (1, 1, 1, 1), v 2 = (1, 1, 1, 1), v 3 = ( 1, 1, 1, 1), v 4 = (1, 0, 0, 1), w 1 = v 1 w 2 = v 2 v 2, w 1 w 1, w 1 w 1 = v 2 + 1 3 w 1 = 2 (2, 2, 1, 1), 3 w 3 = v 3 v 3, w 1 w 1, w 1 w 1 v 3, w 2 w 2, w 2 w 2 = v 3 + 1 3 w 1 + 1 2 w 2 = (0, 0, 1, 1), w 4 = v 4 v 4, w 1 w 1, w 1 w 1 v 4, w 2 w 2, w 2 w 2 v 4, w 3 w 3, w 3 w 3 = v 4 + 1 6 w 1 1 2 w 2 1 2 w 3 = 1 (1, 1, 0, 0). 2

1.5 Spazi Vettoriali Euclidei 33 Quindi {w 1, w 2, w 3, w 4 } è una base ortogonale ed {e 1, e 2, e 3, e 4 } è una base ortonormale di R 4, dove e 1 = w 1 w 1 = 1 (1, 1, 1, 1) 3 e 2 = w 2 3 w 2 = 3 (2, 2, 1, 1) 2 e 3 = w 3 w 3 = 1 (0, 0, 1, 1) 2 e 4 = w 4 w 4 = 1 (1, 1, 0, 0). 2 Proposizione 1.10. Siano B = {e 1,..., e n } una base ortonormale di V n x = n j=1 x je j un generico vettore di V n, allora per ogni i = 1,..., n risulta x i = x, e i. e Dimostrazione. Per ogni i = 1,..., n risulta n x, e i = x j e j, e i = j=1 n x j δ ji = x i i=1 La seguente proposizione è stata già provata per le forme bilineari simmetriche. Tuttavia, ivi forniamo una dimostrazione anche nel caso degli spazi vettoriali euclidei. Proposizione 1.11. Sia W un sottospazio finito dimensionale di uno spazio vettoriale euclideo V, allora V = W W. Dimostrazione. Sia {e 1,..., e n } una base di W. Sia v V e w = v, e 1 e 1 +... + v, e n e n.

1.5 Spazi Vettoriali Euclidei 34 Allora v = w + (v w) con w, v w = w, v w = w, v w, w = n n v, e j 2 v, e i v, e j δ ij = j=1 n v, e j 2 i,j=1 j=1 j=1 n v, e j 2 = 0 Quindi V = W + W. Inoltre W W = 0, essendo il prodotto scalare, definito positivo. Definizione 1.12. Sia V uno spazio vettoriale euclideo ed U un suo sottospazio di dimensione finita. Dalla Proposizione 1.11 segue che per ogni vettore x V esistono e sono unici i vettori x U U, x U U tale che x = x U + x U. I vettori x U e x U si dicono proiezioni ortogonali di x su U e U, rispettivamente. La seguente proposizione mostra la natura della matrice di passaggio tra basi ortonormali. Proposizione 1.12. Siano B = {e 1,..., e n } e B = {e 1,..., e n} due basi di uno spazio vettoriale euclideo V n e sia P la matrice di passaggio da B a B. Se B è ortonormale, allora B è ortonormale se e solo se P t P = I n. Dimostrazione. L i-esima colonna della matrice P rappresenta le coordinate di e i rispetto a B. Quindi e i = h p hie h. Allora

1.5 Spazi Vettoriali Euclidei 35 n e i, e j = p hi e h, h=1 = n h,k=1 n p kj e k = k=1 p hi p kj δ hk = n p hi p hj. h=1 n h,k=1 p hi p kj e h, e h Quindi, e i, e j è uguale al prodotto della i-esima riga di P t per la j-esima colonna di P. Pertanto, e i, e j = δij se e solo se P t P = I n.

You know that place between sleep and awake; that s the place where you can still remember dreaming? That s where I ll always love you. That s where I ll be waiting. (Peter Pan) 2 Endomorfismi Simmetrici In questo capitolo vengono analizzate le principali proprietà dell aggiunta di un applicazione lineare, e degli endomorfismi autoaggiunti (simmetrici). 2.1 Applicazione aggiunta Teorema 2.1. Siano (V n, ) e ( W m, ) spazi vettoriali euclidei e sia f : V n W m un applicazione lineare. Allora esiste un unica applicazione lineare f : W m V n tale che f(v), w = v, f (w) per ogni v V n, w W m. L applicazione f è detta applicazione aggiunta di f. Dimostrazione. Sia w W m e sia θ w : V n R definita da θ w (v) = f(v), w. Poiché f è lineare e, è bilineare, segue che θ w è una forma su V n, cioè θ w Vn. Per il Teorema di Riesz, esiste un unico x V n tale che θ w (v) = v, x. Sia, quindi f : W m V n, w x. Allora f(v), w = θ w (v) = v, x = v, f (w) per ogni v V n, w W m. Ciò prova l esistenza e l unicità di f. Rimane da provare che f è lineare. Siano

2.1 Applicazione aggiunta 37 λ 1, λ 2 R e w 1, w 2 W m. Allora per ogni vettore v V n vale che: v, f (λ 1 w 1 + λ 2 w 2 ) = f(v), λ 1 w 1 + λ 2 w 2 = λ 1 f(v), w 1 + λ 2 f(v), w 2 = λ 1 v, f (w 1 ) + λ 2 v, f (w 2 ) = v, λ 1 f (w 1 ) + λ 2 f (w 2 ) quindi f (λ 1 w 1 + λ 2 w 2 ) = λ 1 f (w 1 ) + λ 2 f (w 2 ), cioè f è lineare. Corollario 2.1. Siano B = {e i } n i=1 e B = {e i} m i=1 basi ortonormali di (V n, ) e ( Wm, ) spazi vettoriali euclidei rispettivamente, e sia f : V n W m. Allora M B,B(f ) = M B,B (f) t. Dimostrazione. Siano A = M B,B (f) e A = M B,B(f ), allora A = (a ij ) e A = (a ij). Quindi a ij è la i-esima componente di f (e j) rispetto alla base B, pertanto a ij = f (e j), e i essendo B una base ortonormale di Vn. Quindi a ij = f (e j), e i = e j, f(e i ) = f(ei ), e j, = aji essendo f(e i ), e j, la j-esima componente della decomposizione di f(e i ) rispetto alla base ortonormale B di W m. Teorema 2.2. Siano f e g le applicazioni aggiunte di f e g rispettivamente. Allora si ha che (f g) = g f. Dimostrazione. Siano f, g applicazioni lineari e f, g le rispettive applicazioni aggiunte. Per ogni x, y V n : (f g)(x), y = x, (f g) (y). D altra parte, (f g)(x), y = f(g(x)), y = g(x), f (y) = x, g (f (y)) = x, (g f )(y).

2.2 Endomorfismi simmetrici 38 Pertanto x, (f g) (y) = x, (g f )(y) per ogni x, y V n e quindi (f g) = g f. In seguito, analizzeremo due particolari classi di endomorfismi, quelli che coincidono con l aggiunta (endomorfismi simmetrici o autoaggiunti), e quelli che sono invertibili per cui l applicazione aggiunta coincide con l inversa (isometrie lineari). 2.2 Endomorfismi simmetrici Definizione 2.1. Siano (V n,, ) uno spazio vettoriale euclideo, un endomorfismo f : V n V n si dice endomorfismo simmetrico se e solo se f(x), y = x, f(y) per ogni x, y V n. Quindi f è simmetrico se coincide con la sua applicazione aggiunta. Esempio 2.1. Sia U un sottospazio di uno spazio vettoriale euclideo finitamente generato V. La proiezione ortogonale p : x x U è un endomorfismo simmetrico. Infatti, posto p(x) = x U, p(y) = y U, si ha che: p(x), y = x U, y y U + y U = x U, y y U + x U, y U = x, p(y), in quanto x U, y y U = 0 essendo y y U U. Teorema 2.3. La matrice che rappresenta un endomorfismo simmetrico f di V n rispetto ad una base ortonormale {e 1,..., e n } è una matrice reale simmetrica. Dimostrazione. L asserto segue dal Corollario 2.1. Proposizione 2.1. Siano (V n,, ) uno spazio vettoriale euclideo ed f : V n V n un automorfismo simmetrico. Allora f 1 è simmetrico.

2.2 Endomorfismi simmetrici 39 Dimostrazione. Siano x, y V n e v, w V n tale che x = f(v) e y = f(w). Allora: f 1 (x), y = v, f(w) = f(v), w = x, f 1 (y). Se f è un endomorfismo simmetrico di V, la funzione Q f : V R definita da Q f (x) = f(x), x, per ogni x V, (2.1) si dice forma quadratica associata ad f. Se V ha dimensione n, x = (x 1, x 2,..., x 3 ) V n e A = (a ij ) è la matrice associata a f rispetto ad una base ortonormale, allora: n Q f (x) = a ij x i x j = X t AX. i,j=1 Teorema 2.4. Si ha una corrispondenza biunivoca tra endomorfismi simmetrici e forme quadratiche ad essi associate. Dimostrazione. f individua Q f attraverso la (2.1). Viceversa, data Q, esiste un unico endomorfismo simmetrico f corrispondente ad essa. Basta osservare che: Q(x + y) = f(x + y), x + y = Q(x) + f(x), y + x, f(y) + Q(y), e poiché f è simmetrico si ha che: f(x), y = 1 {Q(x + y) Q(x) Q(y)}. 2 2.2.1 Autovalori di un endomorfismo simmetrico In questo paragrafo analizzeremo le proprietà fondamentali relative agli autovalori di un endomorfismo simmetrico.

2.2 Endomorfismi simmetrici 40 Teorema 2.5. Le soluzioni dell equazione caratteristica di una matrice simmetrica reale sono tutte reali. Dimostrazione. Sia P A (λ) = det(a λi) il polinomio caratteristico associato alla matrice simmetrica e reale A. Come conseguenza del Teorema fondamentale dell Algebra P A (λ) è interamente decomponibile su C. Pertanto, sia λ 1 = a 1 + ib 1 una soluzione di P A (λ) = 0. Si consideri il sistema lineare omogeneo di n equazioni in n incognite (A λ 1 I)X = 0, esso ammette almeno una soluzione Z 1 = X 1 + iy 1 C n,1, con X 1, Y 1 R n,1 non entrambi nulli. Quindi cioè AZ 1 = λ 1 Z 1 A(X 1 + iy 1 ) = (a 1 + ib 1 )(X 1 + iy 1 ). Uguagliando le parti reali ed immaginarie si ottiene: AX 1 = a 1 X 1 b 1 Y 1 AY 1 = b 1 X 1 + a 1 Y 1. Sia f l endomorfismo simmetrico di R n, munito del prodotto scalare standard, avente A per matrice associata rispetto alla base canonica. Allora f(x 1 ) = a 1 X 1 b 1 Y 1 Pertanto: f(y 1 ) = b 1 X 1 + a 1 Y 1. f(x 1 ), Y 1 = a 1 X 1 Y 1 b 1 Y 1 2, X 1, f(y 1 ) = b 1 X 1 2 + a 1 Y 1 X 1, e quindi b 1 ( X1 2 + Y 1 2) = 0.

2.2 Endomorfismi simmetrici 41 Poiché almeno uno tra X 1 e Y 1 è non nullo, allora X 1 2 + Y 1 2 > 0, quindi b 1 = 0. Pertanto, λ 1 R. Corollario 2.2. Sia f un endomorfismo simmetrico dello spazio vettoriale euclideo (V n,, ), allora tutte le soluzioni dell equazione caratteristica di f sono reali. Dimostrazione. Sia B una base ortonormale di (V n,, ); allora M B (f) è simmetrica e poiché vale P f (λ) = P A (λ), la tesi segue dal Teorema 2.5. Teorema 2.6. Siano f un endomorfismo simmetrico di (V n,, ), e λ 1, λ 2 due autovalori distinti di f, allora gli autospazi V (λ 1 ) e V (λ 2 ) sono ortogonali. Dimostrazione. Siano x V (λ 1 ) e y V (λ 2 ) con λ 1 λ 2. Allora f(x) = λ 1 x e f(y) = λ 2 y. Poiché f è simmetrico vale che: λ 1 x, y = f(x), y = x, f(y) = x, λ 2 y. Quindi (λ 1 λ 2 ) x, y = 0, da cui si ha che x, y = 0 essendo λ 1 λ 2. Teorema 2.7. (Spettrale) Sia f un endomorfismo simmetrico di (V n,, ), allora esiste una base B ortonormale di autovettori di f. In particolare f è semplice, ovvero M B (f) è una matrice diagonale. Dimostrazione. Procediamo per induzione sulla dimensione n dello spazio vettoriale. Per n = 1 la tesi è banalmente vera. Supponiamo l asserto vero per n 1 e dimostriamolo per n. Sia λ 1 un autovalore reale di f, la sua esistenza è garantita dal Teorema 2.5. Sia u 1 un autovettore di f relativo a λ 1 di norma 1 e sia V n 1

2.2 Endomorfismi simmetrici 42 il sottospazio di V n ortogonale ad u 1. Si consideri la restrizione f Vn 1 di f al sottospazio V n 1. Se x V n 1 allora f(x), u 1 = x, f(u 1 ) = x, λ 1 u 1 = 0 e quindi f(x) V n 1. Pertanto V n 1 è f-invariante. Allora f Vn 1 è un endomorfismo di V n 1 ed è simmetrico poiché f è simmetrico. Per l ipotesi induttiva esiste una base ortonormale {u 1,...u n } di V n 1 per f Vn 1 e quindi per f. Allora {u 1,..., u 2 } è la base ortonormale di V n cercata. Rispetto a tale base l endomorfismo simmetrico f è rappresentato dalla matrice λ 1 0... 0 0 λ 2... 0 M B (f) =...... 0 0 0 0 λ n Se x ha componenti (x 1, x 2,..., x 3 ) rispetto alla base ortonormale {u 1, u 2,..., u n }, si ha: f(x) = λ 1 x 1 u 1 + λ 2 x 2 u 2 +... + λ n x n u n e quindi Q f (x) = f(x), x = λ 1 x 2 1 +... + λ n x 2 n. (2.2) La (2.2) è detta forma canonica della forma quadratica associata ad f.