Prodotti scalari e matrici

Documenti analoghi
Il Teorema Spettrale. 0.1 Applicazioni lineari simmetriche ed hermitiane

Inversa di una matrice

Parte 8. Prodotto scalare, teorema spettrale

Soluzioni della prova scritta di Geometria 1 del 27 giugno 2019 (versione I)

Esercizi Di Geometria 1 (BAER) Canale 1

LeLing12: Ancora sui determinanti.

Esercizi per Geometria II Geometria euclidea e proiettiva

3. Vettori, Spazi Vettoriali e Matrici

APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof. F.Podestà, a.a

Similitudine (ortogonale) e congruenza (ortogonale) di matrici.

Matrici simili. Matrici diagonalizzabili.

Esercizi di Geometria - 2

Geometria e Topologia I (U1-4) 2006-mag-10 61

Autovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti)

Universita degli Studi di Roma - "Tor Vergata" - Facolta Ingegneria Esercizi GEOMETRIA (Edile-Architettura e dell Edilizia) CONICHE DI

Spazi euclidei, endomorfismi simmetrici, forme quadratiche. R. Notari

Esercizi sulle coniche (prof.ssa C. Carrara)

2. Fra tutti i rettangoli inscritti in una circonferenza, determinare quello di area massima.

Soluzione. (a) L insieme F 1 e linearmente indipendente; gli insiemi F 2 ed F 3 sono linearmente

Prova scritta di Geometria 1 Docente: Giovanni Cerulli Irelli 15 Febbraio 2017

Forme bilineari simmetriche

Esercizi sulle coniche (prof.ssa C. Carrara)

Capitolo IV SPAZI VETTORIALI EUCLIDEI

Transcript:

Prodotti scalari e matrici 1 Forme bilineari e matrici In questa sezione vogliamo studiare la corrispondenza biunivoca che esiste tra l insieme delle forme bilineari su di un certo spazio vettoriale V finito dimensionale su k e le matrici M n (k) di ordine n, una volta che sia stata fissata una base per V. Cominciamo con la definizione di forma bilineare. Sia V spazio vettoriale finito dimensionale sul campo k. Definizione 1.1. La funzione g : V V k si dice una forma bilineare se: 1. g(u+u,v) = g(u,v)+g(u,v), g(u,v+v ) = g(u,v)+g(u,v ) per ogni u, u, v, v V. 2. g(λu,v) = λg(u,v), g(u,µv) = µg(u,v)per ogni u, v V e per ogni λ, µ k. g si dice simmetrica se g(u,v) = g(v,u). Una forma bilineare simmetrica si dice un prodotto scalare su V. Sia B = {v 1,...,v n } una base fissata in V. Ogni vettore di V si esprime in modo unico come combinazione lineare degli elementi in B. Dati u e w vettori in V possiamo scrivere: u = u 1 v 1 + +u n v n, w = w 1 v 1 + +w n v n, Grazie alle proprieta (1) e (2) della definizione?? possiamo scrivere: g(u,v) = n u i w j g(v i,v j ) (1) i,j=1 Dunque la forma g e determinata se conosciamo i numeri c ij = g(v i,v j ) cioe se conosciamo la matrice C = (c ij ) M n (k). 1

Viceversa la formula (??) ci permette di definire univocamente una forma bilineare g data una matrice C = (c ij ). Infatti possiamo subito definire: c 11... c 1n v 1 g(u,v) = (u) t B C(v) B = (u 1...u n )... c n1... c nn ove u 1 (u) B =. u n, (v) B = sono le coordinate di u e v rispetto alla base B. v 1. Notiamo ora che g e simmetrica se e solo se la matrice corrispondente C = (c ij ) e simmetrica cioe C = C t. Infatti poiche g(u,v) k, g(u,v) t = g(u,v), v n g(u,v) = (u) t B C(v) B = ((u) t B C(v) B) t = (v) t B Ct (u) B Inoltre per la simmetria g(u,v) = g(v,u) dunque g(u,v) = (v) t BC t (u) B = g(v,u) = (v) t BC(u) B Prendendo u = v i e v = v j otteniamo che c ij = c ji cioe che la matrice C e simmetrica. Abbiamo pertanto dimostrato il seguente risultato. Proposizione 1.2. Sia V spazio vettoriale finito dimensionale sul campo k e sia B una sua base fissata. Esiste una corrispondenza biunivoca tra le forme bilineari g e le matrici in M n (k). In tale corrispondenza: g(v 1,v 1 )... g(v 1,v n ) g C =.. g(v n,v 1 )... g(v n,v n ) v n g(u,w) = (u) t B C(v)t B C ove (u) B denota la colonna delle coordinate del vettore u rispetto la base B. I prodotti scalari (non necessariamente non degeneri o definiti positivi) corrispondono alle matrici simmetriche in M n (k). 2

Vediamo un esempio concreto. Esempio 1.3. Consideriamo la matrice: ( ) 2 1 C = 1 2 C e associata al prodotto scalare (u 1,u 2 ),(v 1,v 2 ) = 2u 1 v 1 +u 1 v 2 +u 2 v 1 + 2u 2 v 2. Infatti: ( ) ( )( ) 2 1 v1 u1 u 2 = u 1 2 1 v 1 +2u 1 v 2 +2u 2 v 1 +u 2 v 2 v 2 2 Prodotti scalari e cambio di base Sia k = R, in altre parole, consideriamo spazi vettoriali finito dimensionali e reali, anche se quanto diciamo ha perfettamente senso per un campo generico k. Ci chiediamo ora come cambia una matrice simmetrica associata ad un dato prodotto scalare in R n, fissata la base canonica, se decidiamo di cambiare base. Ricordiamo in analogia quanto visto per le applicazioni lineari: al variare della base, la matrice associata ad una applicazione lineare puo assumere varie forme (ad esempio se riesco a trovare una base di autovettori, la matrice associata e diagonale), tuttavia l applicazione lineare non cambia! La situazione qui e del tutto analoga: la matrice associata ad un prodotto scalare dato puo assumere aspetti molto diversi tra loro e tuttavia il prodotto scalare ad essa associato (nelle varie basi) resta lo stesso! Vedremo che sorprendentemente fissato un prodotto scalare in R n e sempre possibile scegliere una base ortonormale (rispetto al prodotto scalare standard in R n ) rispetto alla quale la matrice associata al prodotto scalare dato e diagonale. Questo risultato straordinario prende il nome di Teorema spettrale e lo vedremo in dettaglio in seguito. Esiste naturalmente anche una versione anche per il campo complesso. Sia N la matrice del cambio di base, in altre parole N e la matrice associata all applicazione identica ove abbiamo fissato una data base B nel dominio e la base canonica nel codominio. N = M B,C (id) 3

Abbiamo allora che per ogni vettore u R n : (u) B = N 1 (u) C, (u) C = N(u) B ove (u) B denota la colonna delle coordinate del vettore u rispetto la base B. 1 Supponiamoche, fissatalabasecanonicainr n, C sialamatrice(simmetrica) associata ad un prodotto scalare fissato. Vogliamo determinare qual e la matrice C associata allo stesso prodotto scalare nella base B. Sostituiamo pertanto i vettori generici nell espressione del prodotto scalare dato: u,v = (u) t C C(v) C = (N(u) B ) t C(N(v) B ) = (u) t B Nt CN(v) B Abbiamo pertanto ottenuto che fissata la base B la matrice associata ad un prodotto scalare con matrice C rispetto alla base canonica e : C = N t CN ove N e la matrice del cambio di base (come sopra). Vediamo l esempio precedente. Esempio 2.1. Consideriamo il prodotto scalare associato nella base canonica a ( ) 2 1 C = 1 2 Supponiamo di scegliere come base B = {v 1 = e 1,v 2 = e 1 +e 2 }: ( ) 1 1 N =, 0 1 La matrice C associata al medesimo prodotto scalare nella base B e : ( )( )( ) ( ) 1 0 2 1 1 1 2 3 C = = 1 1 1 2 0 1 3 3 Consideriamo il prodotto scalare di v 1 e v 2 cioe e 1,e 1 + e 2 utilizzando prima la base canonica e poi la base B e verifichiamo che il risultato e lo stesso. e 1,e 1 +e 2 = ( 1 0 )( )( ) 2 1 1 = 3 1 2 1 e 1 +2e 2,e 1 +e 2 = ( 1 0 )( )( ) 2 3 0 = 3 3 6 1 1 Ricordiamo che la matrice N ha per colonne i vettori della base B espressi in termini dei vettori della base canonica. 4

Osservazione 2.2. E utile confrontare la formula del cambio di base per una applicazione lineare e quella del cambio di base per un prodotto scalare. Due matrici A e B rappresentano la stessa applicazione lineare (in basi diverse) se e solo se sono simili, cioe esiste una matrice invertibile P: B = P 1 AP. Due matrici A e B rappresentano lo stesso prodotto scalare (in basi diverse) seesolo se esiste una matricep invertibile taleche B = P t AP. E chiaro guardando queste due formule che matrici con la proprieta P t = P 1, cioe tali che la loro trasposta coincide con l inversa, rivestono una importanza particolare e la prossima sezione e dedicata ad uno studio piu approfondito proprio di queste matrici. 3 Matrici ortogonali In questa sezione vogliamo definire un insieme di matrici estremamente importanti per una comprensione piu approfondita del concetto di prodotto scalare: le matrici ortogonali. Consideriamo lospaziovettorialer n dotatodelprodottoscalarestandard e cioe : u,v = u v = u 1 v 1 +...u n v n ove u = (u 1...u n ), v = (v 1...v n ) in R n. Definizione 3.1. Una matrice A M n (R) si dice ortogonale se conserva il prodotto scalare cioe se: Au,Av = u,v L insieme delle matrici ortogonali si indica con O(n). Le matrici ortogonali godono di molte proprieta che riassumiamo in una proposizione. Proposizione 3.2. Sia A una matrice quadrata n n. Le seguenti affermazioni sono equivalenti. 1. A e ortogonale, cioe Au,Av = u,v. 5

2. A conserva la norma dei vettori, cioe : Au,Au = u,u. 3. A t A = I = A t A ove I e la matrice identita e A t denota la matrice trasposta. 4. Le colonne (righe) di A formano una base ortonormale. 5. Sia T A : R n R n, T A u = Au ove esprimiamo i vettori nella base canonica di R n. Se B e base ortonormale allora le immagini dei vettori in B formano una base ortonormale. Proof. (1) (2). Una delle due implicazioni e immediata. Per l altra si consideri: A(u v),a(u v) = (u v),(u v) Da cui segue subito Au,Au = u,u. (1) (3). Il prodotto scalare standard di due vettori u, v scritti come colonne, cioe nelle loro coordinate rispetto alla base canonica, puo essere espresso come il prodotto righe per colonne : Dunque abbiamo che: v 1 u t v = (u 1...u n ). v n Au,Av = (Au) t (Av) = u t (A t A)v ricordando che se X e Y sono matrici abbiamo (XY) t = Y t X t. Allora u t (A t A)v = u t v per ogni u e v se e solo se A e ortogonale. Notiamo che con C = A t A mentre e t i (At A)e j = c ij e t i e j = δ ij ove δ ij = 1 se i = j e vale zero altrimenti (δ ij si dice delta di Kronecker). Dunque abbiamo A t A = I 6

inquanto abbiamo mostrato che le matrici C = A t AeI sono uguali elemento per elemento. (3) (4). Se v 1,...v n sono i vettori colonna di A l equazione A t A = I equivale a: v i v j = 0, i j, v i v i = 1. dunque tali colonne formano una base ortonormale. (4) (5). Immediato Osservazione 3.3. Il determinante di una matrice ortogonale puo essere solo ±1. Infatti det(a t A) = det(a t )det(a) = det(a) 2 = det(i) = 1 perche il determinante di una matrice e uguale al determinante della trasposta (fatto non del tutto ovvio che comunque non abbiamo dimostrato). InoltreseAe ortogonalee immediatochesiaa 1 chea t sianoortogonali. Corollario 3.4. Se A e B sono matrici ortogonali allora AB e una matrice ortogonale. In particolare abbiamo che O(n) l insieme delle matrici ortogonali forma un gruppo rispetto all operazione di moltiplicazione per uno scalare. Vediamo alcuni esempi salienti di matrici ortogonali. Esempio 3.5. 1. Rotazioni in R 2 : ( ) cos(t) sin(t) A = sin(t) cos(t) 2. Riflessione rispetto alla retta x = y in R 2 : ( ) 0 1 A = 1 0 7