18.1 Applicazioni lineari tra spazi di dimensione finita. i=1. i=1. 1,...,x 00 n), allora[v 0 + v 00 ] B =(x x 00. i=1. i=1

Documenti analoghi
LEZIONE 21 [ ] D [ ] 1. k n. k m. k n,1 k m,1

LEZIONE 17. B : kn k m.

APPLICAZIONI LINEARI

LEZIONE 12. Y = f(x) = f( x j,1 f(e j ) = x j,1 A j = AX = µ A (X),

CORSO DI GEOMETRIA APPLICAZIONI LINEARI E MATRICI A.A. 2018/2019 PROF. VALENTINA BEORCHIA

Algebra lineare e geometria AA Appunti sul cambio di base in uno spazio vettoriale

Soluzione degli esercizi di algebra lineare (del 26 ottobre 2018)

APPLICAZIONI LINEARI

ENDOMORFISMI. ove B := (v 1,v 2,v 3 ). (1) Determinare gli autovalori di f e le relative molteplicità algebriche e geometriche.

Algebra Lineare. a.a Gruppo A-H. Prof. P. Piazza Soluzioni del compito pomeridiano del 6/12/2004

GEOMETRIA 1 terza parte

Algebra lineare e geometria AA Appunti sul cambio di base in uno spazio vettoriale

Geometria e Topologia I 18 maggio

LEZIONE 16. Proposizione Siano V e W spazi vettoriali su k = R, C. Se f: V W

Foglio di esercizi numero 2 Corso di Fondamenti di Algebra Lineare e Geometria Ingegneria Aerospaziale e Meccanica

CORSO DI MATEMATICA II Prof. Paolo Papi ESERCIZI. 1). Stabilire quali dei seguenti sottoinsiemi di V sono sottospazi vettoriali. (a) V = R 3.

0.1 Coordinate in uno spazio vettoriale

SPAZI VETTORIALI CON PRODOTTO SCALARE A =

Esempio. L immagine di f è l insieme dei vettori w = (w 1, w 2 ) R 2 che hanno w 1 = w 2. Quindi:

APPLICAZIONI LINEARI O OMOMORFISMI

Soluzioni primi compitini - Geometria 1

Algebra lineare e geometria AA Esercitazione del 14/6/2018

Esercizi Applicazioni Lineari

APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof. F.Podestà, a.a

Geometria I 2009-mag

16.1 Dimensione di uno spazio vettoriale

Corso di Laurea in Fisica. Geometria. a.a Canale 3 Prof. P. Piazza Magiche notazioni

Applicazioni Lineari. Nota Bene: Questo materiale non deve essere considerato come sostituto delle lezioni.

LEZIONE 15. Esempio L applicazione f: R 3 R 2. è lineare. Infatti si ha che se α R, (x, y, z) R 3 risulta

ENDOMORFISMI. NOTE DI ALGEBRA LINEARE

CORSO DI MATEMATICA DISCRETA I (ALGEBRA) Prof. Paolo Papi ESERCIZI

Tutorato di GE110. Universitá degli Studi Roma Tre - Corso di Laurea in Matematica

Elementi di Algebra Lineare Applicazioni lineari

Intersezione e somma di sottospazi vettoriali

DIAGONALIZZAZIONE. M(f) =

Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof. Fabio Perroni. 5. Rango

Intersezione e somma di sottospazi vettoriali

Per capire meglio il concetto di combinazione lineare prendiamo in considerazione alcuni esempi.

Lezione Il metodo degli scarti

Nozioni e notazioni: concetti primitivi di insieme, elemento ed appartenenza.

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n

Esercizi Di Geometria 1 (BAER) Canale 1

Esercizi per il corso di Algebra e Geometria L.

CORSI DI LAUREA IN MATEMATICA E FISICA

Corso di Geometria - CdL triennale in Ingegneria a.a

GE110 - Geometria 1. Prova in Itinere 2 27 Maggio 2010

Esercizi su applicazioni lineari. Per tutto il seguito, se non specificato esplicitamente K indicherà un campo e V,W,U spazi vettoriali su K.

Esempi. In R 2, le coppia (2, 5) è combinazione lineare dei vettori (0, 1) e (1, 1). Infatti:

p(ϕ) = a 0 Id + a 1 ϕ + + a n ϕ n,

LEZIONE 12. v = α 1 v α n v n =

Prova scritta di Geometria 1 Docente: Giovanni Cerulli Irelli 20 Gennaio 2017

Geometria I. Esercizi svolti.

1.1 Matrici a coefficienti in R. Vi sono alcuni casi particolari che vale la pena evidenziare:

CORSO DI ALGEBRA (M-Z) Prof. A. Venezia

A. Languasco - Esercizi Matematica B - 2. Spazi Vettoriali e Trasformazioni lineari 1

Esercizi 1 Spazi vettoriali. { (x, y, z) R 3 (x, y, z) (2, 2, 2) } ;

LEZIONE 8. k e w = wx ı + w y j + w z. k di R 3 definiamo prodotto scalare di v e w il numero

LEZIONE Equazioni matriciali. Negli Esempi e si sono studiati più sistemi diversi AX 1 = B 1, AX 2 = R m,n, B = (b i,h ) 1 i m

Parte 7. Autovettori e autovalori

ESERCIZI DI ALGEBRA LINEARE. Vincenzo Di Gennaro

Esercizi di Geometria 1 - Foglio 3bis

Elementi di Algebra Lineare Applicazioni lineari

Autovalori e autovettori

Corsi di laurea in Matematica e Matematica per le Applicazioni Esame scritto di Algebra Lineare del 7/2/2002

Sottospazi vettoriali

LEZIONE 9. Figura 9.1.1

CORSO DI ALGEBRA LINEARE Anno Accademico 2004/2005 Appunti su SISTEMI di EQUAZIONI LINEARI

LEZIONE 13. v =α 1 v α i 1 v i 1 + α i v i = =α 1 v α i 1 v i 1 + α i (λ 1 v λ i 1 v i 1 ) =

Compito di MD 4 Giugno 2014

Lezione 5: Applicazioni Lineari. 1 Definizione di applicazione lineare

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria.

Lezioni di Algebra Lineare V. Autovalori e autovettori

Le risposte vanno giustificate con chiarezza. 1) Nello spazio vettoriale V delle matrici 2 2 a coefficienti reali, considera le matrici A 1 = , A 4 =

ALGEBRA LINEARE E GEOMETRIA: ESERCIZI 5. Indice. 2. Esercizi 5

Lezione Risoluzione di sistemi

Rango di una matrice e teorema di Rouché-Capelli

i) la somma e il prodotto godano delle proprietà associativa, commutativa e distributiva;

Anno Accademico 2017/2018

h, i: V V! R (v 1,v 2 ) 7! hv 1,v 2 i ! R v 7! hv, v 0 i èlineare. Perlacommutativitàdelprodottoscalaresegueanchelalinearità dell applicazione

Matrici simili, invarianti e decomposizione di matrici 1 / 14

Anno Accademico 2016/2017

Sapienza Università di Roma Corso di laurea in Ingegneria Energetica Geometria A.A ESERCIZI DA CONSEGNARE prof.

Omomorfismi e matrici

INGEGNERIA EDILE ARCHITETTURA ELEMENTI DI ALGEBRA LINEARE E GEOMETRIA 19 GIUGNO 2012

Matematica discreta 1 [145016]

ESERCIZI DI ALGEBRA LINEARE. Vincenzo Di Gennaro

Capitolo IX DIAGONALIZZAZIONE DI MATRICI SIMMETRICHE

AUTOVALORI, AUTOVETTORI, AUTOSPAZI

Corso di Laurea in Fisica. Geometria 1. a.a Gruppo B. Prof. P. Piazza Soluzioni compito a casa del 17/11/06 B =

ESAME DI GEOMETRIA. 6 febbraio 2002 CORREZIONE QUIZ

Appunti del corso di geometria 1. G. Bande

Lezione Determinanti

UNIVERSITÀ DEGLI STUDI ROMA TRE Corso di Laurea in Matematica GE110 - Geometria 1 a.a Seconda prova di esonero TESTO E SOLUZIONI

Complemento ortogonale e proiezioni

Ingegneria Gestionale - Corso di Analisi II e Algebra anno accademico 2008/2009

Transcript:

Lezione 8 8. Applicazioni lineari tra spazi di dimensione finita Siano V e W spazi vettoriali su K = R, C ed f : V! W un applicazione K lineare. Supponiamo che V sia finitamente generato: allora sappiamo che Im(f) èasuavolta finitamente generato per il punto (iii) della Proposizione 7.3. Per questo motivo, qualora il dominio di un applicazione lineare sia finitamente generato, a patto di cambiare opportunamente il codominio si può supporre che anch esso sia finitamente generato. Il seguente risultato afferma che, per descrivere un applicazione lineare definita su uno spazio vettoriale finitamente generato, è sufficiente avere un numero finito di informazioni. Proposizione 8.. Siano V e W spazi vettoriali finitamente generati su K = R, C. Sia B =(v,...,v n ) una base di V. Dati w,...,w n 2 W esiste un unica applicazione K lineare f : V! W tale che f(v i )=w i per i =,...,n. Dimostrazione. Supponiamo che una tale f esista. Essendo f lineare se v 2 V e [v] B =(x,...,x n ) si deve avere X n nx nx f(v) =f x i v i = x i f(v i )= x i w i, (8..) da cui segue immediatamente l unicità Verifichiamo che la formula (8..) definisce un applicazione K lineare f soddisfacente la tesi. Chiaramente [v i ] B = e i 2 K n, dunque f(v i ) = w i, i =,...,n. Se poi 2 K si ha [ v] B =( x,..., x n ),dunque nx X n f( v) = ( x i )w i = x i w i = f(v). Se v,v 2 V e [v ] B =(x,...,x n), [v ] B =(x,...,x n), allora[v + v ] B =(x + x,...,x n + x n) erisulta nx nx nx f(v + v )= (x i + x i )w i = x iw i + x i w i = f(v )+f(v ). Concludiamo che f è un applicazione K lineare. Dalla Proposizione 8. deduciamo che se due applicazioni lineari coincidono sugli elementi di una base del dominio, esse coincidono ovunque, come spiegato nel seguente risultato. 85

O / 86 Corollario 8.2. Siano V e W spazi vettoriali finitamente generati su K = R, C e sia B =(v,...,v n ) una base di V.Allora: (i) se f,g: V! W sono K lineari e tali che f(v i )=g(v i ) per i =,...,n,allora f = g; (ii) se h: V! W è K lineare e tale che h(v i )= W h = V,W. per i =,...,n,allora Diamo ora alcuni esempi di applicazione della Proposizione e del Corollario di cui sopra. Esempio 8.3. In R 3 siano dati v =(,, ), v 2 =(,, ), v 3 =(2,, ). Fissiamo poi w =(, ), w 2 =(, ), w 3 =(, 2) in R 2. Si verifichi che B =(v,v 2,v 3 ) èunabasedir 3 : segue dalla Proposizione 8. che esiste un unica applicazione lineare f : R 3! R 2 tale che f(v i )=w i, i =, 2, 3. Poiché (x, y, z) =yv +( x +3y 2z) v 2 +(x 2y + z) v 3, segue che f(x, y, z) =f(yv +( x +3y 2z)v 2 +(x 2y + z)v 3 ) = yw +( x +3y 2z)w 2 +(x 2y + z)w 3 =(x 2y +2z,2x 3y +2z). Esempio 8.4. In R 3 siano dati v =(,, ), v 2 =(,, ), v 3 =(2,, ), v 4 =(4,, ). Fissiamo poi w =(, ), w 2 =(, ), w 3 =(, 2), w 4 =(, 3) in R 2. È chiaro che v,v 2,v 3,v 4 non possono formare una base di R 3,quindinon possiamo applicare direttamente la Proposizione 8.. Tuttavia, dall esempio precedente, sappiamo che esiste un unica applicazione lineare f : R 3! R 2 tale che f(v i )=w i per i =, 2, 3: sidevestabiliresevaleanche f(v 4 )=w 4.Atalescopo,outilizziamolaformulagiàottenutaperf, oppureosserviamo che v 4 = v + v 2 + v 3 :dunqueaffinchéf(v 4 )=w 4 si deve avere la relazione w 4 = f(v 4 )=f(v + v 2 + v 3 )=f(v )+f(v 2 )+f(v 3 )=w + w 2 + w 3, che è di immediata verifica. Cosa si può affermare se si sostituisce w 4 con w 4 =(, )? Prendiamo adesso in considerazione il caso degli isomorfismi, sempre tra spazi vettoriali di dimensione finita. Proposizione 8.5. Siano V e W spazi vettoriali finitamente generati su un campo K = R, C. AlloraV = W se e solo se dim K (V )=dim K (W ). Dimostrazione. Siano f : V! W un isomorfismo e B =(v,...,v n ) e D =(w,...,w m ) basi di V e W rispettivamente. Consideriamo il seguente diagramma V f / W (8..2) [ ] B K n g K m [ ] D

/ O 87 dove la mappa g èdatadallacomposizione g =[ ] D f [ ] B : Kn! K m. Essendo composizione di applicazioni lineari biettive, g èlineareebiettiva,quindièunisomorfismo. Poiché g = µ A per una qualche A 2 K m,n,comemostratonell Esempio7.4,deduciamochen = m dall Esempio 7.23. Viceversa, supponiamo che dim K (V )=dim K (W ) esianob =(v,...,v n ) e D =(w,...,w n ) basi di V e W rispettivamente. Possiamo considerare il diagramma (8..2) nel caso particolare in cui n = m e g = id K n èl applicazioneidentità;invertendoilsensodellefrecceverticalitroviamo V [ ] B f W [ ] D K n id K n / K n Allora V = W,poichél applicazione f =[ ] D id K n [ ] B : V! W, essendo composizione di isomorfismi, è essa stessa un isomorfismo. Esempio 8.6. Riprendiamo in considerazione i sottospazi TS n (K) (matrici triangolari superiori) e Sim n (K) (matrici simmetriche) di K n,n, K = R, C. Nell Esempio 6.2 abbiamo calcolato che dim K (TS n (K)) = n(n +)/2. Sia A 2 K n,n ;alloraa + t A 2 Sim n (K) ed è definita l applicazione f : TS n (K)! Sim n (K) A 7! A + t A. Più in dettaglio, se A =(a i,j ) 6i,j6n,alloraf(A) =B =(b i,j ) 6i,j6n 2 Sim n (K) dove 8 >< a i,j se i<j, b i,j = 2a i,i se i = j, (8..3) >: se i>j. Chiaramente f è K lineare: in fatti se 2 K e A, A,A 2 TS n (K) risulta a j,i f( A) = A + t ( A) = A + t A = (A + t A)= f(a), f(a + A )=A + A + t (A + A )=A + A + t A + t A = A + t A + A + t A = f(a )+f(a ). Dimostriamo che f èunisomorfismo.datab =(b i,j ) 6i,j6n 2 Sim n (K), risulta B = f(a) con A =(a i,j ) 6i,j6n 2 TS n (K) definita da 8 >< b i,j se i<j, a i,j = b i,i /2 se i = j, >: se i>j,

O O / 88 quindi f èsuriettiva. Inoltre f èiniettiva,cioèker(f) ={ n,n }:sea =(a i,j ) 6i,j6n 2 TS n (K) ètale che f(a) = n,n,dallarelazione(8..3)seguechea i,j ==2a i,i,ovveroa = n,n. La Proposizione 8.5 garantisce dunque che come anticipato nell Esempio 6.3 dim K (Sim n (K)) = dim K (TS n (K)) = n(n+) 2, Similmente si consideri l insieme delle matrici antisimmetriche di K n,n Alt n (K) ={ A 2 K n,n t A = A }. Si verifichi che Alt n (K) èunsottospaziovettorialedik n,n echel applicazione g : STS n (K) A 7! A! Alt n (K) t A èunisomorfismo:inparticolare dim K (Alt n (K)) = dim K (STS n (K)) = n(n ) 2. 8.2 Matrice di un applicazione lineare Siano V e W spazi vettoriali finitamente generati su un campo K = R, C esiano B =(v,...,v n ) e D =(w,...,w m ) basi di V e W rispettivamente. Come abbiamo visto nella dimostrazione della Proposizione 8.5, invece di studiare direttamente una certa applicazione K lineare f : V! W,puòrisultarepiùagevolecomporla con opportuni isomorfismi con spazi vettoriali semplici come K n e K m estudiare al suo posto l applicazione K lineare composta K n! K m utilizzando quanto visto negli Esempi 7.4 e 7.23. Nella dimostrazione della Proposizione 8.5 abbiamo visto che a un applicazione K lineare f : V! W possiamo associare il diagramma (8..2), cioè V [ ] B K n f g / W K m [ ] D dove, per definizione, g èl applicazionek lineare g =[ ] B f [ ] D. Dall Esempio 7.4 segue l esistenza di una matrice A 2 K m,n tale che l applicazione g del diagramma sia della forma µ A,lamoltiplicazioneperA: [ ] B V f / W [ ] D K n µ A / K m (8.2.)

La matrice A dipende sia dall applicazione f che dalle basi B e D. Sinoti che le colonne di A sono µ A (E j, )=([ ] D f [ ] B )(E j,): poiché [ ] B (E j,) =v j, segue che le colonne di A non sono altro che ([ ] D f)(v j )=[f(v j )] D :cioèlaj esima colonna di A èformatadallecomponentirispettoallabasefissatanelcodominiodi f (disposte in colonna!) del j esimo vettore della base fissata nel dominio di f. Definizione 8.7 (Matrice di un applicazione lineare). Siano V e W spazi vettoriali finitamente generati su un campo K = R, C esianob =(v,...,v n ) e D =(w,...,w m ) basi di V e W rispettivamente. Se f : V! W èun applicazionek lineare, definiamo matrice di f rispetto alle basi B e D la matrice MD B (f) avente per colonne le componenti delle immagini dei vettori di B rispetto a D. 89 B Nel caso in cui V = K n e W = K m,lamatricedif non è altro che la matrice di f rispetto alle basi canoniche nel senso della definizione data sopra. In particolare quindi M C C (µ A)=A. Esempio 8.8. Sia W uno spazio vettoriale di dimensione 2 su R, dotato di una base D =(w,w 2 ),esiconsideril applicazione f : R 3! W (x, y, z) 7! xw +(2y + z)w 2. Detta C =(e,e 2,e 3 ) la base canonica di R 3,lamatriceMD C (f) èunamatrice2 3 le cui colonne sono [f(e i )] D.Sihache f(e )=w, f(e 2 )=2w 2, f(e 3 )=w 2, quindi le coordinate di tali vettori sono [f(e )] D =(, ) =, [f(e 2 )] D =(, 2) =, [f(e 2 3 )] D =(, ) = elamatricecercataè M C D(f) =. 2 Esempio 8.9. Si consideri l applicazione Se 2 R e p (x),p 2 (x) 2 R[x],siha f : R[x]! R[x] 2 p(x) 7! xp(x). f( p(x)) = x( p(x)) = (xp(x)) = f(p(x)), f(p (x)+p 2 (x)) = x(p (x)+p 2 (x)) = xp (x)+xp 2 (x) =f(p (x)) + f(p 2 (x)), quindi f è R lineare.

O! > 9 M B D Consideriamo le basi B =(,x) in R[x] e D =(,x,x 2 ) in R[x] 2 edeterminiamo (f). Risulta [f()] D =[x] D =(,, ) = @ A, [f(x)] D =[x 2 ] D =(,, ) = @ A, quindi MD(f) B = @ A. Si noti che [f(a + bx)] D = M B D (f)[a + bx] B. Osservazione 8.. Alla luce della definizione di matrice associata ad un applicazione lineare, la Proposizione 7.3 può essere interpretata dicendo che dati V e W spazi vettoriali su K = R, C e f : V! W un applicazione K lineare, l immagine Im(f) èilsottospaziodiw generato dai vettori le cui componenti sono le colonne della matrice M B D (f), doveb =(v,...,v n ) e D =(w,...,w m ) sono basi di V e W rispettivamente. Osservazione 8.. Una conseguenza diretta della definizione e dell Osservazione 7. è che la matrice associata ad un applicazione lineare si comporta bene rispetto alla composizione di applicazioni: siano infatti U, V, W spazi vettoriali finitamente generati su K = R, C di dimensioni p, n,m rispettivamente, dotati di basi A, B, D rispettivamente. Siano g : U! V, f : V! W due applicazioni K lineari con matrici associate MB A(g) e M D B (f). Alloralamatriceassociataallacomposizione f g : U! W rispetto alle basi A di U e D di W è M A D (f g) =M B D(f)M A B (g), come si può dedurre anche dal seguente diagramma commutativo U [ ] A K p g / µ M A(g) B f g / VO [ ] B [ ] B f K n / µ M B (f) D / W [ ] D K m. µ M A D (f g) Un altra conseguenza immediata è che se f : V! W èinvertibile,allora M D B (f )=(M B D(f)).

9 Tenendo conto che dal diagramma (8.2.) segue che g = ([ ] D f [ ] B ), otteniamo la seguente serie di affermazioni equivalenti: X 2 Ker(g) K n, g(x) = K m, ([ ] D f [ ] B )(X) = K m, [f(v)] D =([ ] D f)(v) = K m, dove v =[ ] B (X),, f(v) =([ ] D [ ] D f)(v) =[ ] D ( K m)= W, v 2 Ker(f) V. In particolare, restringendo [ ] B a Ker(g), otteniamounisomorfismofraker(g) e Ker(f). Similmente,restringendo[ ] B a Im(f) otteniamo un isomorfismo fra Im(f) e Im(g). Posto A = MD B(f), risultag = µ A e, quindi, dalla Proposizione 6.4 segue dim K (Im(f)) = dim K (Im(µ A )) = rk(a), dim K (Ker(f)) = dim K (Ker(µ A )) = n rk(a). In particolare abbiamo immediatamente il seguente risultato, spesso chiamato Teorema della dimensione: esso non è altro che il Teorema di Rouché Capelli, o Proposizione 5.2 Proposizione 8.2 (Teorema della dimensione). Siano V e W spazi vettoriali finitamente generati su K = R, C. Sef : V! W èun applicazionek lineare si ha dim K (V )=dim K (Ker(f)) + dim K (Im(f)). Corollario 8.3. Siano V e W spazi vettoriali finitamente generati su K = R, C esiaf : V! W un applicazione K lineare. (i) Se f èiniettiva,alloradim K (V ) 6 dim K (W ); (ii) se f èsuriettiva,alloradim K (V ) > dim K (W ). Quanto visto sopra ci permette di studiare un applicazione lineare tra spazi vettoriali di dimensione finita in modo più facile, studiandola cioè tramite la sua matrice rispetto a basi fissate (che possiamo scegliere comode ). Esempio 8.4. Il lettore verifichi che l applicazione f : R[x] 2! R 2,2 a + b a+ c a + bx + cx 2 7! b c b c èlineare. Fissiamo le basi B = (,x,x 2 ) e D = (E,,E,2,E 2,,E 2,2 ) in R[x] 2 e R 2,2 rispettivamente. Poiché [f()] D = apple D =(,,, ), [f(x)] D = apple D =(,,, ),

92 [f(x 2 )] D = apple segue che la matrice di A rispetto alle basi B e D è A = B C @ A. Possiamo calcolare D =(,,, ), dim(ker(f)) = dim(ker(µ A )) = 3 rk(a) =, dim(im(f)) = dim(im(µ A )) = rk(a) =2, da cui deduciamo che f non è né iniettiva né suriettiva. Se vogliamo studiare Ker(f) ed Im(f) più in dettaglio, possiamo studiare Ker(µ A ) e Im(µ A ).RisolvendoilsistemaAX = 4, otteniamo quindi Ker(µ A )={ (a, a, a) a 2 R }, Ker(f) ={ p(x) 2 R[x] 2 [p(x)] B 2 Ker(µ A ) } = { a ax ax 2 a 2 R } = L x x 2. In particolare dim R (Ker(f)) =, comegiàvistosopra. Una conseguenza immediata è che 2,2 = f( x x 2 )=f() f(x) f(x 2 ) ovvero f(x 2 )=f() f(x), quindi Im(f) =L f(),f(x),f(x 2 ) = L f(),f(x). Poiché f(x) 62 L(f()), seguechedim R (Im(f)) = 2, comegiàvistosopra. Esempio 8.5. Nell Esempio 7.2 abbiamo verificato che, se ~v 2 V 3 (O) èun vettore fissato, risulta Im( ~v )={ ~w 2 V 3 (O) 9~v 2 V 3 (O) tale che ~w = ~v ~v } ~v? = { ~w 2 V 3 (O) h~w, ~v i =} Se ~v = ~, alloraim( ~v )=L(~); se,invece,~v 6= ~, ancora l Esempio 7.2 ci permette di affermare che dim R (Ker( ~v )) =, dunque la Proposizione 8.2 implica dim R (Im( ~v )) = 2. D altraparte~v? èunsottospaziodiv 3 (O) (il lettore lo verifichi per esercizio) non contenente ~v : poiché dim R (V 3 (O)) = 3 segue che dim R (~v? ) 6 2. Essendo Im( ~v ) ~v? segue allora che deve valere l uguaglianza, come anticipato. Si noti che, fissato un sistema di riferimento ~ı~ı ~ k,risulta~v = a~ı + b~ı + c ~ k. La matrice di ~v rispetto alla stessa base B =(~ı, ~ı, ~ k) fissata nel dominio e codominio è c b A = @ c a A. b a

Esempio 8.6. Si considerino v =(, 2, ), v 2 =(,, ), v 3 =(,, 2) in R 3 e A =, A 2 2 =, A 3 = 3 93 in R 2,2.Poichérisulta 2 2 rk @ A =rk@ A =3, 2 segue che v,v 2,v 3 sono linearmente indipendenti, quindi per la Proposizione 6.7 si ha che B =(v,v 2,v 3 ) èunabasedir 3. Per la Proposizione 8. esiste un unica applicazione lineare f : R 3! R 2,2 tale che f(v i )=A i, i =, 2, 3. Vogliamo studiare tale applicazione: a tale scopo scriviamone la matrice rispetto a basi opportunamente scelte nel dominio e nel codominio. Nel dominio abbiamo varie scelte possibili, ad esempio la base canonica C. Per semplificare al massimo la forma della matrice e, di conseguenza, i calcoli, la scelta migliore è, però, quella di prendere la base B =(v,v 2,v 3 ). Anche nel codominio possiamo fare molte scelte lecite: potremmo ad esempio prendere la base E =(E,,E,2,E 2,,E 2,2 ),mapersemplificarealmassimoiconti una scelta migliore è D =(A,A 2,E,2,E 2, ) (verificare, per esercizio, che D èbase di R 2,2 ). Si ha f(v )=A =A +A 2 +E,2 +E 2, ) [f(v )] D =(,,, ), f(v 2 )=A 2 =A +A 2 +E,2 +E 2, ) [f(v 2 )] D =(,,, ), f(v 3 )=A 3 =A +A 2 +E,2 +E 2, ) [f(v 3 )] D =(,,, ), quindi M = MD(f) B = B C @ A. Èfacilevederedallamatricecheglielementie,e 2 della base canonica di R 4 formano una base di Im(µ M ) R 4.QuindiA =[ ] D (e ), A 2 =[ ] D (e 2), formano una base (A,A 2 ) di Im(f). Inoltre Ker(µ M ) ègeneratodalsingolovettoree =(,, ): dalmomentoche (, 2, ) = v + v 2 v 3 =[ ] (e), seguecheker(f) ègeneratodalvettore(, 2, ). B Per esercizio si calcoli ME C(f): siverifichichem E C(f) 6= M D B (f) echeprocedendo come fatto sopra con la matrice ME C(f) in luogo di M D B (f) si riottengono gli stessi risultati.

94 8.3 Endomorfismi Proposizione 8.7. Siano V e W spazi vettoriali finitamente generati su K = R, C con dim K (V )=dim K (W ). Siaf : V! W un applicazione lineare. Le seguenti affermazioni sono equivalenti: f èiniettiva, f èsuriettiva, f èunisomorfismo. Dimostrazione. Per definizione, se f è un isomorfismo è sia iniettiva che suriettiva. Supponiamo f sia iniettiva, quindi che dim K (Ker(f)) = : per la Proposizione 8.2 e per l ipotesi segue allora che dim K (W )=dim K (V )=dim K (Im(f)), quindiperlaproposizione6.9 Im(f) =W,cioèf èanchesuriettiva,equindièunisomorfismo. Se f èsuriettiva,alloradim K (V )=dim K (W )=dim K (Im(f)), quindidim K (Ker(f)) = per la Proposizione 8.2, cioè f èancheiniettiva,quindièunisomorfismo. Vediamo ora un esempio che illustra l utilità della precedente proposizione. Esempio 8.8. Si consideri l applicazione f : C 3! C[x] 2 (a, b, c) 7! a +(a + b)x +(a + b + c)x 2. Si ha che (a, b, c) 2 Ker(f) se e solo se a +(a + b)x +(a + b + c)x 2 =se e solo se a = a + b = a + b + c =,cioèseesolose(a, b, c) =(,, ): quindif èiniettiva. Grazie alla Proposizione 8.7 possiamo concludere che f è un isomorfismo senza doverne studiare la suriettività. Ad un analogo risultato si poteva arrivare osservando che la matrice di f rispetto alla base canonica di C 3 ed alla base (,x,x 2 ) di C[x] 2 è A = @ A, che è invertibile. Consideriamo adesso un applicazione lineare da uno spazio vettoriale in se stesso. Definizione 8.9 (Endomorfismi). Sia V uno spazio vettoriale su K = R, C. Un endomorfismo di V èun applicazionelinearef : V! V. Chiaramente la Proposizione 8.7 si applica, in particolare, agli endomorfismi di spazi vettoriali finitamente generati. Tuttavia essa non è valida se si lavora con uno spazio non finitamente generato: esistono endomorfismi suriettivi ma non iniettivi, oviceversainiettivimanonsuriettivi,comemostranoiseguentiesempi.

Esempio 8.2. Sia I =]a, b[ R un intervallo aperto non vuoto. Nell Esempio 7.8 abbiamo osservato che l applicazione D : C (I)!C (I) èlineare,quindièun endomorfismo. Tale applicazione non è iniettiva, ma è suriettiva per un ben noto risultato di analisi. Esempio 8.2. Sia K = R, C esiconsideril applicazione f : K[x]! K[x] p(x) 7! xp(x). 95 Si verifichi che f è lineare (e quindi un endomorfismo). Chiaramente f èiniettiva, ma non è suriettiva, perché i polinomi costanti non sono in Im(f). Un caso particolarmente importante di endomorfismo è l identità in uno spazio vettoriale finitamente generato V su K = R, C. Definizione 8.22 (Matrice del cambiamento di base). Siano V uno spazio vettoriale su K = R, C e B =(v,...,v n ) e D =(w,...,w n ) due basi di V. La matrice M B D (id V ) avente per colonne le componenti dei vettori di B rispetto a D èdettamatrice del cambiamento di base da B a D. Osserviamo subito che per ogni vettore v 2 V vale la relazione [v] D = M B D(id V )[v] B. Un modo per ricordarsi la definizione è vedere la relazione sopra come una specie di cancellazione in croce: [v] D = M B D(id V )[v] B. Si noti anche che vale la relazione M B D(id V )=(M D B (id V )). Esempio 8.23. Si consideri lo spazio vettoriale V = R 3,siaC =(e,e 2,e 3 ) la sua base canonica e siano B =(v,v 2,v 3 ) e D =(w,w 2,w 3 ) altre due basi, dove 2 v = @ A, v 2 = @ A, v 3 = @ 2A w = @ A, w 2 = @ 2A, w 3 = @ A. 3 Il lettore verifichi che si tratta in effetti di vettori indipendenti. Le matrici di cambiamento di base più semplici da scrivere sono quelle di passaggio dalle basi B e D aquellacanonica,semplicementeperchéabbiamogiàle componenti dei loro vettori rispetto a C. Sihache 2 MC B (id V )=@ 2 A, MC D (id V )=@ 2 A. 3

96 Per calcolare le matrici di cambiamento di base dalla canonica C alle nuove basi B e D dobbiamo invece fare un po più fatica. Cominciamo da MB C(id V ): possiamo direttamente la definizione e calcolare le componenti [e i ] B esplicitamente, oppure possiamo usare l Osservazione 8. e ricordarci che 3 2 4 MB(id C V )=(MC B (id V )) = @ 2 A. Il lettore verifichi il calcolo dell inversa e trovi la matrice M C D (id V ). Passiamo adesso a calcolare la matrice di cambiamento di base M D B (id V ): di nuovo, grazie alll Osservazione 8. si ha che MB D (id V )=MB(id C V )M D (id C V ) 3 2 4 = @ 2 A @ 2 A = @ 3 7 9 3 3 9 2 A. 2 36 Lasciamo al lettore la verifica che MD(id B V )=MD(id C V )M B (id C V ) =(MC D (id V )) MC B (id V )=@ 3/2 /2 /2 /2 /2 5/2 A. 2 3 B Testi diversi utilizzano notazioni e nomi diversi per la matrice di cambiamento di base, ad esempio A B!D, [T ] BD emoltealtre. Segnaliamoallettorechepurtroppo alcuni testi usano anche la notazione MB D per intendere la matrice di cambio di base da D a B, ovveroesattamentel inversadellanostra.