0.1. APPLICAZIONI LINEARI SIMMETRICHE ED HERMITIANE 1 Il Teorema Spettrale In questa nota vogliamo esaminare la dimostrazione del Teorema Spettrale e studiare le sue conseguenze per quanto riguarda i prodotti scalari e le forme quadratiche. 0.1 Applicazioni lineari simmetriche ed hermitiane In questa sezione vogliamo definire le applicazioni lineari simmetriche e vedere quali sono le matrici ad esse associate fissata una opportuna base in dominio e codominio. Definizione 0.1.1. Sia V uno spazio vettoriale reale con un prodotto scalare, definito positivo. Diciamo che l applicazione lineare T : V V e simmetrica se Tu,v = u,tv (1) Vediamo ora il caso particolare di una applicazione lineare T : R n R n e del prodotto scalare euclideo. Fissata la base canonica C, nella notazione del capitolo precedente possiamo scrivere: u,v = (u) C I(v) C in altre parole, il prodotto euclideo e associato alla matrice identita. Consideriamo ora la matrice A associata all applicazione lineare T, fissata la base canonica, (le colonne di A sono (T(e 1 )) C,...(T(e n )) C ). Possiamo dunque scrivere: Tu,v = (A(u) C ) t I(v) C = (u) t C At I(v) C = (u) t C IAt (v) C (2) Se A e una matrice simmetrica, cioe A = A t, abbiamo che T e una applicazione lineare simmetrica poiche (u) t C IAt (v) C = u,tv e dunque da (2), Tu,v = u,tv.
2 Viceversa, se T e simmetrica, vediamo che la matrice A e simmetrica. Infatti: 1 0... 0 Te i,e j = (A(e i ) C ) t I(e j ) C = ( ) 0 1... 0 0. a 1i... a ni = a ji.. 0... 1 1. 0 1 0... 0 a 1j e i,te j = (e i ) t C IA(e j) C = ( 0...1...0 ) 0 1... 0 a 2j... = a ij 0... 1 e dunque per la condizione (1) abbiamo a ij = a ji, cioe la matrice A e simmetrica. Lo stesso accade per il caso generale: applicazioni lineari simmetriche sono associate, fissate opportune basi, a matrici simmetriche. Proposizione 0.1.2. Sia V uno spazio vettoriale reale e, un prodotto scalare definito positivo. Allora una applicazione lineare T : V V e simmetrica se e solo se la matrice A = (a ij ) associata a T in una base ortonormale e una matrice simmetrica. Dimostrazione. Sia B = {v 1,...,v n } una base ortonormale per il prodotto scalare dato. Tale base esiste sempre grazie al teorema di Gram-Schmidt. Dimostriamo prima che la matrice associata all applicazione lineare simmetrica T nella base B e simmetrica. Abbiamo: T(v j ) = a 1j v 1 + +a nj v n a nj da cui: poiche a ij = T(v j ),v i = v j,t(v i ) = a ji (3) T(v j ),v i = a 1j v 1,v i + +a ij v i,v i + +a nj v n,v j = a ij e analogamente v j,t(v i ) = a j1 v j,v 1 + +a ji v j,v j + +a nj v n,v j = a ji
0.1. APPLICAZIONI LINEARI SIMMETRICHE ED HERMITIANE 3 D altra parte, l equazione (3) dimostra che se la matrice A associata a T in una base ortonormale e simmetrica allora T(v j ),v i = v j,t(v i ). Poiche ogniu,v V e combinazionelinearediv 1,...,v n abbiamochel uguaglianza precedente da immediatamente T(u), v = u, T(v). Cio conclude la dimostrazione. Osservazione 0.1.3. La proposizione precedente non deve sorprenderci. Infatti se fissiamo una base ortonormale B = {v 1,...,v n } di V, osserviamo che la matrice associata al prodotto scalare definito positivo arbitrario e data, per definizione, da C = ( v i,v j ) = I, cioe coincide con la matrice identita. Pertanto se esprimiamo due vettori u e w come combinazione lineare dei vettori della base B, u = u 1 v 1 + +u n v n, w = w 1 v 1 + +w n v n, abbiamo che: u,w = u 1 v 1 + +u n v n,w 1 v 1 + +w n v n = = u 1 w 1 v 1,v 1 +u 1 w 2 v 1,v 2 + +u n w n v n,v n = = u 1 w 1 + +u n w n Abbiamo utilizzato le proprieta di bilinearita del prodotto scalare e il fatto che v i,v j = δ ij. In altre parole, il prodotto scalare arbitrario, definito positivo, si esprime nelle coordinate della base B come il prodotto scalare standard in R n. Quindi se realizziamo l isomorfismo tra V e R n utilizzando la base B e identifichiamo ogni vettore u con il vettore in R n dato da (u) B (la n-upla di coordinate di u nella base B), T : V V e simmetrica se e solo se T : R n R n e simmetrica, ove definiamo T (u) B = (Tu) B. Remark 0.1.4. Si noti che se A e una matrice generica n n reale nelle osservazioni preliminari alla proposizione precedente abbiamo dimostrato che: Au,v = u,a t v ove, e il prodotto scalare euclideo e u, v R n. Concludiamo questa sezione con una osservazione relativa al campo complesso. In completa analogia con il caso reale possiamo dare la seguente definizione.
4 Definizione 0.1.5. Sia V uno spazio vettoriale complesso con un prodotto hermitiano definito positivo, h. Diciamo che un applicazione lineare T : V V e hermitiana se Tu,v h = u,tv h Possiamo enunciare l analogo della Proposizione 0.1.6, la cui dimostrazione e uguale a quanto visto per il caso reale. Proposizione 0.1.6. Sia V uno spazio vettoriale complesso con un prodotto hermitiano definito positivo, h. Sia T : V V applicazione lineare e sia B una base ortonormale. Allora T e hermitiana se e solo se la matrice associata a T nella base B e una matrice hermitiana. 0.2 Preliminari al Teorema Spettrale In questa sezione vogliamo enunciare e dimostrare uno dei risultati piu importanti dell algebra lineare: il teorema spettrale. Incominciamo con il caso di uno spazio vettoriale sul campo reale, per il caso complesso vedremo, con brevi osservazioni, che la dimostrazione resta praticamente identica. Cominciamo con il ricordare cosa significa per una matrice reale A essere simmetrica: significa che A = A t, cioe A coincide con la sua trasposta. In pratica, e facile verificare, si veda l Oss. 0.1.4, che cio corrisponde al fatto che, rispetto al prodotto scalare ordinario (euclideo) in R n : Au,v = u,av Notazione: quando scriviamo Au stiamo intendendo il prodotto righe per colonne della matrice A per la colonna delle coordinate del vettore u rispetto alla base canonica. A rigore dovremmo scrivere A(u) C, ma preferiamo una scrittura piu semplice, sapendo pero che stiamo commettendo un abuso di notazione. Analogamente ricordiamo cosa significa per una matrice complessa A essere hermitiana: significa che A = A, cioe A coincide con la sua trasposta complessa coniugata. E facile verificare che cio corrisponde al fatto che rispetto al prodotto scalare hermitiano in C n : Au,v h = u,av h
0.2. PRELIMINARI AL TEOREMA SPETTRALE 5 Se A e una matrice simmetrica reale abbiamo immediatamente che e anche una matrice hermitiana, infatti e banale che soddisfi la condizione A = A in quanto il complesso coniugato di un numero reale e il numero reale stesso. Iniziamo con due lemmi seguiti da alcune osservazioni praticamente immediate. Il primo lemma ci dice che ogni matrice simmetrica ammette almeno un autovalore reale, il secondo lemma ci dice (in realta una sua conseguenza) che autovettori di autovalori distinti di una matrice simmetrica sono sempre perpendicolari. Questi sono i passi chiave per la dimostrazione del teorema spettrale. Lemma 0.2.1. Sia A M n (R) una matrice simmetrica. Allora A ammette un autovalore reale. Dimostrazione. A e una matrice a coefficienti reali, tuttavia poiche i reali sono contenuti nel campo complesso abbiamo anche che A M n (C). Il polinomio caratteristico di A: det(a λi) = 0 ammette almeno una soluzione complessa, λ 0, per il teorema fondamentale dell algebra. Vogliamo dimostrare che λ 0 e reale, cioe λ 0 = λ 0. Sia u C n un autovettore di autovalore λ 0. Poiche A e simmetrica e anche hermitiana (si vedano le osservazioni precedenti al lemma), e possiamo dunque scrivere: Au,u h = u,au h ove, h e il prodotto hermitiano standard in C n. Dunque Dunque λ 0 u,u h = Au,u h = u,au h = λ 0 u,u h (λ 0 λ 0 ) u,u h = 0 e poiche il prodotto hermitiano standard e non degenere, cioe u,u h 0 abbiamo λ 0 = λ 0. Osservazione 0.2.2. L autovettore u nella dimostrazione puo essere scelto reale, cioe u R n. Infatti una volta dimostrato che λ R, abbiamo che l autospazio V λ = ker(a λi) R n e diverso dal solo vettore nullo e quindi esiste un autovettore reale di λ. Questo risultato ci da anche immediatamente l analogo risultato per le matrici hermitiane.
6 Corollario 0.2.3. Sia A una matrice hermitiana. Allora tutti gli autovalori di A sono reali. Lasciamo al lettore la facile verifica che se λ e autovalore di A hermitiana allora λ = λ: basta fare gli stessi passaggi che abbiamo visto sopra. Gli autovettori tuttavia in questo caso potranno essere complessi. Andiamo ora a stabilire un altro risultato che si rivelera fondamentale nella dimostrazione del teorema spettrale. Lemma 0.2.4. Sia A una matrice simmetrica, λ un suo autovalore reale e u un autovettore (reale) corrispondente. Sia w un vettore perpendicolare a u rispetto all usuale prodotto scalare. Allora u e perpendicolare a Aw. Dimostrazione. Poiche u e perpendicolare a w abbiamo 0 = λ u,w = Au,w = u,aw e dunque anche Aw e perpendicolare a u. Abbiamo quasi immediatamente un corollario particolarmente importante. Corollario 0.2.5. Siano λ e µ autovalori distinti di una matrice simmetrica A e u, w due autovettori corrispondenti. Allora u e perpendicolare a w. Dimostrazione. Dobbiamo mostrare u, w = 0. Abbiamo λ u,w = Au,w = u,aw = µ u,w Dunque (λ µ) u,w = 0 e poiche λ µ otteniamo u,w = 0. Osserviamo che sia il lemma che il corollario precedenti hanno un ovvia generalizzazione al caso in cui la matrice A sia hermitiana e il prodotto considerato sia il prodotto hermitiano in C n. Concludiamo con un corollario che essenzialmente traduce quanto abbiamo dimostrato per le matrici simmetriche nel linguaggio delle applicazioni lineari simmetriche. Anche questo corollario ha un ovvia generalizzazione al caso hermitiano. Corollario 0.2.6. Sia V uno spazio vettoriale reale con un prodotto scalare definito positivo. Sia T : V V una applicazione lineare simmetrica Allora abbiamo i seguenti risultati:
0.3. IL TEOREMA SPETTRALE 7 1. T ammette almeno un autovalore λ reale e un autovettore corrispondente u V. 2. Se w V e perpendicolare all autovettore u allora anche T(w) e perpendicolare a u. 3. Autovettori di T di autovalori diversi sono perpendicolari tra loro. 0.3 Il Teorema Spettrale Possiamo finalmente enunciare il teorema spettrale simultaneamente per le matrici simmetriche reali e le applicazioni lineari simmetriche. Teorema 0.3.1. Sia V uno spazio vettoriale reale con un prodotto scalare definito positivo. Sia A una matrice simmetrica reale e T : V V l applicazione lineare simmetrica corrispondente ad A in una base ortonormale. A e diagonalizzabile mediante una matrice ortogonale, cioe esiste P ortogonale tale che D = P 1 AP sia diagonale. Esiste una base ortonormale N in cui T ha associata una matrice diagonale. Prima della dimostrazione osserviamo che le due affermazioni dell enunciato sono completamente equivalenti. La base ortonormale che stiamo cercando al punto (2) e una base di autovettori con norma 1 e la matrice diagonale associata a T nella base N e proprio la matrice D del punto (1) e ha sulla diagonale gli autovalori di A, che sono gli stessi dell applicazione lineare T ad essa associata nella base canonica. Dimostrazione. Sia λ 1 un autovalore reale di T e u 1 Vun suo autovettore di norma 1. Sappiamo che tali λ 1 e u 1 esistono per il Lemma 0.2.1. Sia W 1 = span{u 1 }. Allora abbiamo V = span{u 1 } W 1, ove dim(w 1 ) = n 1. Consideriamo ora l applicazione lineare T 1 = T W1, cioe guardiamo T 1 ristretta al solo sottospazio W 1 : T 1 : W 1 V Per il Lemma 0.2.4, poiche u e perpendicolare anche a T 1 (w) per ogni w W 1 abbiamo che Im(T 1 ) W 1 = span{u 1 } e pertanto possiamo scrivere T 1 : W 1 W 1. Ripetiamo oratuttiiragionamenti fattifinoaquesto momento per T : V V anche per l applicazione simmetrica T 1 : W 1 W 1. Tale applicazione
8 avra unautovalorerealeλ 2 eunautovettorerealedinorma1, u 2 W 1 R n. Chiaramente poiche T 1 non e altro che T ristretta a W 1, l autovalore λ 2 e il corrispondente autovettore u 2 saranno anche autovalore e autovettore di T. Dunque ragionando come sopra, definiamo W 2 = span{u 2 } W 1, dim(w 2 ) = n 2. Notiamo che ogni vettore di W 2 e anche perpendicolare a u 1 inquantow 2 W 1. E chiarocheprocedendoinquestomododoponpassi abbiamo trovato n autovettori di T u 1,...u n di norma 1 e perpendicolari tra loro, dunque essi formano la base ortonormale di autovettori richiesta e pertanto T e diagonalizzabile. Concludiamo questa sezione con qualche osservazione sul caso complesso, che e una generalizzazione immediata di quanto abbiamo visto sino ad ora. Teorema 0.3.2. Sia A una matrice hermitiana e T : V V l applicazione lineare hermitiana corrispondente ad A nella base canonica. A e diagonalizzabile mediante una matrice unitaria, cioe esiste P unitaria tale che D = P 1 AP = P AP sia diagonale (e reale!). Esiste una base ortonormale (rispetto al prodotto hermitiano standard) N in cui T ha associata una matrice diagonale (reale!). Esempio 0.3.3. Consideriamo la matrice reale 3 2 4 A = 2 6 2 4 2 3 Gli autovalori sono λ = 7 con molteplicita algebrica 2 e λ = 2 con molteplicita algebrica 1. Gli autospazi sono: V 7 = span{v 1 = (1,0,1),v 2 = ( 1/2,1,0)}, V 2 = span{v 3 = ( 1, 1/2,1)} La matrice Q avente per colonne gli autovettori della base di autovettori {v 1,v 2,v 3 } diagonalizza la matrice A, tuttavia non e ortogonale: 7 0 0 1 1/2 1 D = 0 7 0 = Q 1 AQ, Q = 0 1 1/2 0 0 2 1 0 1
0.3. IL TEOREMA SPETTRALE 9 Se vogliamo diagonalizzare A tramite una cambio di base ortogonale, dobbiamo ortogonalizzare con l algoritmo di Gram Schmidt la base di autovettori di ciascun autospazio. La matrice ortogonale che stiamo cercando e : 1/ 2 1/ 18 2/3 P = 0 4/ 18 1/3 1/ 2 1/ 18 2/3 e abbiamo D = P 1 AP.