Lezione 8 8. Applicazioni lineari tra spazi di dimensione finita Siano V e W spazi vettoriali su K = R, C ed f : V! W un applicazione K lineare. Supponiamo che V sia finitamente generato: allora sappiamo che Im(f) èasuavolta finitamente generato per il punto (iii) della Proposizione 7.3. Per questo motivo, qualora il dominio di un applicazione lineare sia finitamente generato, a patto di cambiare opportunamente il codominio si può supporre che anch esso sia finitamente generato. Il seguente risultato afferma che, per descrivere un applicazione lineare definita su uno spazio vettoriale finitamente generato, è sufficiente avere un numero finito di informazioni. Proposizione 8.. Siano V e W spazi vettoriali finitamente generati su K = R, C. Sia B =(v,...,v n ) una base di V. Dati w,...,w n 2 W esiste un unica applicazione K lineare f : V! W tale che f(v i )=w i per i =,...,n. Dimostrazione. Supponiamo che una tale f esista. Essendo f lineare se v 2 V e [v] B =(x,...,x n ) si deve avere X n nx nx f(v) =f x i v i = x i f(v i )= x i w i, (8..) da cui segue immediatamente l unicità Verifichiamo che la formula (8..) definisce un applicazione K lineare f soddisfacente la tesi. Chiaramente [v i ] B = e i 2 K n, dunque f(v i ) = w i, i =,...,n. Se poi 2 K si ha [ v] B =( x,..., x n ),dunque nx X n f( v) = ( x i )w i = x i w i = f(v). Se v,v 2 V e [v ] B =(x,...,x n), [v ] B =(x,...,x n), allora[v + v ] B =(x + x,...,x n + x n) erisulta nx nx nx f(v + v )= (x i + x i )w i = x iw i + x i w i = f(v )+f(v ). Concludiamo che f è un applicazione K lineare. Dalla Proposizione 8. deduciamo che se due applicazioni lineari coincidono sugli elementi di una base del dominio, esse coincidono ovunque, come spiegato nel seguente risultato. 85
O / 86 Corollario 8.2. Siano V e W spazi vettoriali finitamente generati su K = R, C e sia B =(v,...,v n ) una base di V.Allora: (i) se f,g: V! W sono K lineari e tali che f(v i )=g(v i ) per i =,...,n,allora f = g; (ii) se h: V! W è K lineare e tale che h(v i )= W h = V,W. per i =,...,n,allora Diamo ora alcuni esempi di applicazione della Proposizione e del Corollario di cui sopra. Esempio 8.3. In R 3 siano dati v =(,, ), v 2 =(,, ), v 3 =(2,, ). Fissiamo poi w =(, ), w 2 =(, ), w 3 =(, 2) in R 2. Si verifichi che B =(v,v 2,v 3 ) èunabasedir 3 : segue dalla Proposizione 8. che esiste un unica applicazione lineare f : R 3! R 2 tale che f(v i )=w i, i =, 2, 3. Poiché (x, y, z) =yv +( x +3y 2z) v 2 +(x 2y + z) v 3, segue che f(x, y, z) =f(yv +( x +3y 2z)v 2 +(x 2y + z)v 3 ) = yw +( x +3y 2z)w 2 +(x 2y + z)w 3 =(x 2y +2z,2x 3y +2z). Esempio 8.4. In R 3 siano dati v =(,, ), v 2 =(,, ), v 3 =(2,, ), v 4 =(4,, ). Fissiamo poi w =(, ), w 2 =(, ), w 3 =(, 2), w 4 =(, 3) in R 2. È chiaro che v,v 2,v 3,v 4 non possono formare una base di R 3,quindinon possiamo applicare direttamente la Proposizione 8.. Tuttavia, dall esempio precedente, sappiamo che esiste un unica applicazione lineare f : R 3! R 2 tale che f(v i )=w i per i =, 2, 3: sidevestabiliresevaleanche f(v 4 )=w 4.Atalescopo,outilizziamolaformulagiàottenutaperf, oppureosserviamo che v 4 = v + v 2 + v 3 :dunqueaffinchéf(v 4 )=w 4 si deve avere la relazione w 4 = f(v 4 )=f(v + v 2 + v 3 )=f(v )+f(v 2 )+f(v 3 )=w + w 2 + w 3, che è di immediata verifica. Cosa si può affermare se si sostituisce w 4 con w 4 =(, )? Prendiamo adesso in considerazione il caso degli isomorfismi, sempre tra spazi vettoriali di dimensione finita. Proposizione 8.5. Siano V e W spazi vettoriali finitamente generati su un campo K = R, C. AlloraV = W se e solo se dim K (V )=dim K (W ). Dimostrazione. Siano f : V! W un isomorfismo e B =(v,...,v n ) e D =(w,...,w m ) basi di V e W rispettivamente. Consideriamo il seguente diagramma V f / W (8..2) [ ] B K n g K m [ ] D
/ O 87 dove la mappa g èdatadallacomposizione g =[ ] D f [ ] B : Kn! K m. Essendo composizione di applicazioni lineari biettive, g èlineareebiettiva,quindièunisomorfismo. Poiché g = µ A per una qualche A 2 K m,n,comemostratonell Esempio7.4,deduciamochen = m dall Esempio 7.23. Viceversa, supponiamo che dim K (V )=dim K (W ) esianob =(v,...,v n ) e D =(w,...,w n ) basi di V e W rispettivamente. Possiamo considerare il diagramma (8..2) nel caso particolare in cui n = m e g = id K n èl applicazioneidentità;invertendoilsensodellefrecceverticalitroviamo V [ ] B f W [ ] D K n id K n / K n Allora V = W,poichél applicazione f =[ ] D id K n [ ] B : V! W, essendo composizione di isomorfismi, è essa stessa un isomorfismo. Esempio 8.6. Riprendiamo in considerazione i sottospazi TS n (K) (matrici triangolari superiori) e Sim n (K) (matrici simmetriche) di K n,n, K = R, C. Nell Esempio 6.2 abbiamo calcolato che dim K (TS n (K)) = n(n +)/2. Sia A 2 K n,n ;alloraa + t A 2 Sim n (K) ed è definita l applicazione f : TS n (K)! Sim n (K) A 7! A + t A. Più in dettaglio, se A =(a i,j ) 6i,j6n,alloraf(A) =B =(b i,j ) 6i,j6n 2 Sim n (K) dove 8 >< a i,j se i<j, b i,j = 2a i,i se i = j, (8..3) >: se i>j. Chiaramente f è K lineare: in fatti se 2 K e A, A,A 2 TS n (K) risulta a j,i f( A) = A + t ( A) = A + t A = (A + t A)= f(a), f(a + A )=A + A + t (A + A )=A + A + t A + t A = A + t A + A + t A = f(a )+f(a ). Dimostriamo che f èunisomorfismo.datab =(b i,j ) 6i,j6n 2 Sim n (K), risulta B = f(a) con A =(a i,j ) 6i,j6n 2 TS n (K) definita da 8 >< b i,j se i<j, a i,j = b i,i /2 se i = j, >: se i>j,
O O / 88 quindi f èsuriettiva. Inoltre f èiniettiva,cioèker(f) ={ n,n }:sea =(a i,j ) 6i,j6n 2 TS n (K) ètale che f(a) = n,n,dallarelazione(8..3)seguechea i,j ==2a i,i,ovveroa = n,n. La Proposizione 8.5 garantisce dunque che come anticipato nell Esempio 6.3 dim K (Sim n (K)) = dim K (TS n (K)) = n(n+) 2, Similmente si consideri l insieme delle matrici antisimmetriche di K n,n Alt n (K) ={ A 2 K n,n t A = A }. Si verifichi che Alt n (K) èunsottospaziovettorialedik n,n echel applicazione g : STS n (K) A 7! A! Alt n (K) t A èunisomorfismo:inparticolare dim K (Alt n (K)) = dim K (STS n (K)) = n(n ) 2. 8.2 Matrice di un applicazione lineare Siano V e W spazi vettoriali finitamente generati su un campo K = R, C esiano B =(v,...,v n ) e D =(w,...,w m ) basi di V e W rispettivamente. Come abbiamo visto nella dimostrazione della Proposizione 8.5, invece di studiare direttamente una certa applicazione K lineare f : V! W,puòrisultarepiùagevolecomporla con opportuni isomorfismi con spazi vettoriali semplici come K n e K m estudiare al suo posto l applicazione K lineare composta K n! K m utilizzando quanto visto negli Esempi 7.4 e 7.23. Nella dimostrazione della Proposizione 8.5 abbiamo visto che a un applicazione K lineare f : V! W possiamo associare il diagramma (8..2), cioè V [ ] B K n f g / W K m [ ] D dove, per definizione, g èl applicazionek lineare g =[ ] B f [ ] D. Dall Esempio 7.4 segue l esistenza di una matrice A 2 K m,n tale che l applicazione g del diagramma sia della forma µ A,lamoltiplicazioneperA: [ ] B V f / W [ ] D K n µ A / K m (8.2.)
La matrice A dipende sia dall applicazione f che dalle basi B e D. Sinoti che le colonne di A sono µ A (E j, )=([ ] D f [ ] B )(E j,): poiché [ ] B (E j,) =v j, segue che le colonne di A non sono altro che ([ ] D f)(v j )=[f(v j )] D :cioèlaj esima colonna di A èformatadallecomponentirispettoallabasefissatanelcodominiodi f (disposte in colonna!) del j esimo vettore della base fissata nel dominio di f. Definizione 8.7 (Matrice di un applicazione lineare). Siano V e W spazi vettoriali finitamente generati su un campo K = R, C esianob =(v,...,v n ) e D =(w,...,w m ) basi di V e W rispettivamente. Se f : V! W èun applicazionek lineare, definiamo matrice di f rispetto alle basi B e D la matrice MD B (f) avente per colonne le componenti delle immagini dei vettori di B rispetto a D. 89 B Nel caso in cui V = K n e W = K m,lamatricedif non è altro che la matrice di f rispetto alle basi canoniche nel senso della definizione data sopra. In particolare quindi M C C (µ A)=A. Esempio 8.8. Sia W uno spazio vettoriale di dimensione 2 su R, dotato di una base D =(w,w 2 ),esiconsideril applicazione f : R 3! W (x, y, z) 7! xw +(2y + z)w 2. Detta C =(e,e 2,e 3 ) la base canonica di R 3,lamatriceMD C (f) èunamatrice2 3 le cui colonne sono [f(e i )] D.Sihache f(e )=w, f(e 2 )=2w 2, f(e 3 )=w 2, quindi le coordinate di tali vettori sono [f(e )] D =(, ) =, [f(e 2 )] D =(, 2) =, [f(e 2 3 )] D =(, ) = elamatricecercataè M C D(f) =. 2 Esempio 8.9. Si consideri l applicazione Se 2 R e p (x),p 2 (x) 2 R[x],siha f : R[x]! R[x] 2 p(x) 7! xp(x). f( p(x)) = x( p(x)) = (xp(x)) = f(p(x)), f(p (x)+p 2 (x)) = x(p (x)+p 2 (x)) = xp (x)+xp 2 (x) =f(p (x)) + f(p 2 (x)), quindi f è R lineare.
O! > 9 M B D Consideriamo le basi B =(,x) in R[x] e D =(,x,x 2 ) in R[x] 2 edeterminiamo (f). Risulta [f()] D =[x] D =(,, ) = @ A, [f(x)] D =[x 2 ] D =(,, ) = @ A, quindi MD(f) B = @ A. Si noti che [f(a + bx)] D = M B D (f)[a + bx] B. Osservazione 8.. Alla luce della definizione di matrice associata ad un applicazione lineare, la Proposizione 7.3 può essere interpretata dicendo che dati V e W spazi vettoriali su K = R, C e f : V! W un applicazione K lineare, l immagine Im(f) èilsottospaziodiw generato dai vettori le cui componenti sono le colonne della matrice M B D (f), doveb =(v,...,v n ) e D =(w,...,w m ) sono basi di V e W rispettivamente. Osservazione 8.. Una conseguenza diretta della definizione e dell Osservazione 7. è che la matrice associata ad un applicazione lineare si comporta bene rispetto alla composizione di applicazioni: siano infatti U, V, W spazi vettoriali finitamente generati su K = R, C di dimensioni p, n,m rispettivamente, dotati di basi A, B, D rispettivamente. Siano g : U! V, f : V! W due applicazioni K lineari con matrici associate MB A(g) e M D B (f). Alloralamatriceassociataallacomposizione f g : U! W rispetto alle basi A di U e D di W è M A D (f g) =M B D(f)M A B (g), come si può dedurre anche dal seguente diagramma commutativo U [ ] A K p g / µ M A(g) B f g / VO [ ] B [ ] B f K n / µ M B (f) D / W [ ] D K m. µ M A D (f g) Un altra conseguenza immediata è che se f : V! W èinvertibile,allora M D B (f )=(M B D(f)).
9 Tenendo conto che dal diagramma (8.2.) segue che g = ([ ] D f [ ] B ), otteniamo la seguente serie di affermazioni equivalenti: X 2 Ker(g) K n, g(x) = K m, ([ ] D f [ ] B )(X) = K m, [f(v)] D =([ ] D f)(v) = K m, dove v =[ ] B (X),, f(v) =([ ] D [ ] D f)(v) =[ ] D ( K m)= W, v 2 Ker(f) V. In particolare, restringendo [ ] B a Ker(g), otteniamounisomorfismofraker(g) e Ker(f). Similmente,restringendo[ ] B a Im(f) otteniamo un isomorfismo fra Im(f) e Im(g). Posto A = MD B(f), risultag = µ A e, quindi, dalla Proposizione 6.4 segue dim K (Im(f)) = dim K (Im(µ A )) = rk(a), dim K (Ker(f)) = dim K (Ker(µ A )) = n rk(a). In particolare abbiamo immediatamente il seguente risultato, spesso chiamato Teorema della dimensione: esso non è altro che il Teorema di Rouché Capelli, o Proposizione 5.2 Proposizione 8.2 (Teorema della dimensione). Siano V e W spazi vettoriali finitamente generati su K = R, C. Sef : V! W èun applicazionek lineare si ha dim K (V )=dim K (Ker(f)) + dim K (Im(f)). Corollario 8.3. Siano V e W spazi vettoriali finitamente generati su K = R, C esiaf : V! W un applicazione K lineare. (i) Se f èiniettiva,alloradim K (V ) 6 dim K (W ); (ii) se f èsuriettiva,alloradim K (V ) > dim K (W ). Quanto visto sopra ci permette di studiare un applicazione lineare tra spazi vettoriali di dimensione finita in modo più facile, studiandola cioè tramite la sua matrice rispetto a basi fissate (che possiamo scegliere comode ). Esempio 8.4. Il lettore verifichi che l applicazione f : R[x] 2! R 2,2 a + b a+ c a + bx + cx 2 7! b c b c èlineare. Fissiamo le basi B = (,x,x 2 ) e D = (E,,E,2,E 2,,E 2,2 ) in R[x] 2 e R 2,2 rispettivamente. Poiché [f()] D = apple D =(,,, ), [f(x)] D = apple D =(,,, ),
92 [f(x 2 )] D = apple segue che la matrice di A rispetto alle basi B e D è A = B C @ A. Possiamo calcolare D =(,,, ), dim(ker(f)) = dim(ker(µ A )) = 3 rk(a) =, dim(im(f)) = dim(im(µ A )) = rk(a) =2, da cui deduciamo che f non è né iniettiva né suriettiva. Se vogliamo studiare Ker(f) ed Im(f) più in dettaglio, possiamo studiare Ker(µ A ) e Im(µ A ).RisolvendoilsistemaAX = 4, otteniamo quindi Ker(µ A )={ (a, a, a) a 2 R }, Ker(f) ={ p(x) 2 R[x] 2 [p(x)] B 2 Ker(µ A ) } = { a ax ax 2 a 2 R } = L x x 2. In particolare dim R (Ker(f)) =, comegiàvistosopra. Una conseguenza immediata è che 2,2 = f( x x 2 )=f() f(x) f(x 2 ) ovvero f(x 2 )=f() f(x), quindi Im(f) =L f(),f(x),f(x 2 ) = L f(),f(x). Poiché f(x) 62 L(f()), seguechedim R (Im(f)) = 2, comegiàvistosopra. Esempio 8.5. Nell Esempio 7.2 abbiamo verificato che, se ~v 2 V 3 (O) èun vettore fissato, risulta Im( ~v )={ ~w 2 V 3 (O) 9~v 2 V 3 (O) tale che ~w = ~v ~v } ~v? = { ~w 2 V 3 (O) h~w, ~v i =} Se ~v = ~, alloraim( ~v )=L(~); se,invece,~v 6= ~, ancora l Esempio 7.2 ci permette di affermare che dim R (Ker( ~v )) =, dunque la Proposizione 8.2 implica dim R (Im( ~v )) = 2. D altraparte~v? èunsottospaziodiv 3 (O) (il lettore lo verifichi per esercizio) non contenente ~v : poiché dim R (V 3 (O)) = 3 segue che dim R (~v? ) 6 2. Essendo Im( ~v ) ~v? segue allora che deve valere l uguaglianza, come anticipato. Si noti che, fissato un sistema di riferimento ~ı~ı ~ k,risulta~v = a~ı + b~ı + c ~ k. La matrice di ~v rispetto alla stessa base B =(~ı, ~ı, ~ k) fissata nel dominio e codominio è c b A = @ c a A. b a
Esempio 8.6. Si considerino v =(, 2, ), v 2 =(,, ), v 3 =(,, 2) in R 3 e A =, A 2 2 =, A 3 = 3 93 in R 2,2.Poichérisulta 2 2 rk @ A =rk@ A =3, 2 segue che v,v 2,v 3 sono linearmente indipendenti, quindi per la Proposizione 6.7 si ha che B =(v,v 2,v 3 ) èunabasedir 3. Per la Proposizione 8. esiste un unica applicazione lineare f : R 3! R 2,2 tale che f(v i )=A i, i =, 2, 3. Vogliamo studiare tale applicazione: a tale scopo scriviamone la matrice rispetto a basi opportunamente scelte nel dominio e nel codominio. Nel dominio abbiamo varie scelte possibili, ad esempio la base canonica C. Per semplificare al massimo la forma della matrice e, di conseguenza, i calcoli, la scelta migliore è, però, quella di prendere la base B =(v,v 2,v 3 ). Anche nel codominio possiamo fare molte scelte lecite: potremmo ad esempio prendere la base E =(E,,E,2,E 2,,E 2,2 ),mapersemplificarealmassimoiconti una scelta migliore è D =(A,A 2,E,2,E 2, ) (verificare, per esercizio, che D èbase di R 2,2 ). Si ha f(v )=A =A +A 2 +E,2 +E 2, ) [f(v )] D =(,,, ), f(v 2 )=A 2 =A +A 2 +E,2 +E 2, ) [f(v 2 )] D =(,,, ), f(v 3 )=A 3 =A +A 2 +E,2 +E 2, ) [f(v 3 )] D =(,,, ), quindi M = MD(f) B = B C @ A. Èfacilevederedallamatricecheglielementie,e 2 della base canonica di R 4 formano una base di Im(µ M ) R 4.QuindiA =[ ] D (e ), A 2 =[ ] D (e 2), formano una base (A,A 2 ) di Im(f). Inoltre Ker(µ M ) ègeneratodalsingolovettoree =(,, ): dalmomentoche (, 2, ) = v + v 2 v 3 =[ ] (e), seguecheker(f) ègeneratodalvettore(, 2, ). B Per esercizio si calcoli ME C(f): siverifichichem E C(f) 6= M D B (f) echeprocedendo come fatto sopra con la matrice ME C(f) in luogo di M D B (f) si riottengono gli stessi risultati.
94 8.3 Endomorfismi Proposizione 8.7. Siano V e W spazi vettoriali finitamente generati su K = R, C con dim K (V )=dim K (W ). Siaf : V! W un applicazione lineare. Le seguenti affermazioni sono equivalenti: f èiniettiva, f èsuriettiva, f èunisomorfismo. Dimostrazione. Per definizione, se f è un isomorfismo è sia iniettiva che suriettiva. Supponiamo f sia iniettiva, quindi che dim K (Ker(f)) = : per la Proposizione 8.2 e per l ipotesi segue allora che dim K (W )=dim K (V )=dim K (Im(f)), quindiperlaproposizione6.9 Im(f) =W,cioèf èanchesuriettiva,equindièunisomorfismo. Se f èsuriettiva,alloradim K (V )=dim K (W )=dim K (Im(f)), quindidim K (Ker(f)) = per la Proposizione 8.2, cioè f èancheiniettiva,quindièunisomorfismo. Vediamo ora un esempio che illustra l utilità della precedente proposizione. Esempio 8.8. Si consideri l applicazione f : C 3! C[x] 2 (a, b, c) 7! a +(a + b)x +(a + b + c)x 2. Si ha che (a, b, c) 2 Ker(f) se e solo se a +(a + b)x +(a + b + c)x 2 =se e solo se a = a + b = a + b + c =,cioèseesolose(a, b, c) =(,, ): quindif èiniettiva. Grazie alla Proposizione 8.7 possiamo concludere che f è un isomorfismo senza doverne studiare la suriettività. Ad un analogo risultato si poteva arrivare osservando che la matrice di f rispetto alla base canonica di C 3 ed alla base (,x,x 2 ) di C[x] 2 è A = @ A, che è invertibile. Consideriamo adesso un applicazione lineare da uno spazio vettoriale in se stesso. Definizione 8.9 (Endomorfismi). Sia V uno spazio vettoriale su K = R, C. Un endomorfismo di V èun applicazionelinearef : V! V. Chiaramente la Proposizione 8.7 si applica, in particolare, agli endomorfismi di spazi vettoriali finitamente generati. Tuttavia essa non è valida se si lavora con uno spazio non finitamente generato: esistono endomorfismi suriettivi ma non iniettivi, oviceversainiettivimanonsuriettivi,comemostranoiseguentiesempi.
Esempio 8.2. Sia I =]a, b[ R un intervallo aperto non vuoto. Nell Esempio 7.8 abbiamo osservato che l applicazione D : C (I)!C (I) èlineare,quindièun endomorfismo. Tale applicazione non è iniettiva, ma è suriettiva per un ben noto risultato di analisi. Esempio 8.2. Sia K = R, C esiconsideril applicazione f : K[x]! K[x] p(x) 7! xp(x). 95 Si verifichi che f è lineare (e quindi un endomorfismo). Chiaramente f èiniettiva, ma non è suriettiva, perché i polinomi costanti non sono in Im(f). Un caso particolarmente importante di endomorfismo è l identità in uno spazio vettoriale finitamente generato V su K = R, C. Definizione 8.22 (Matrice del cambiamento di base). Siano V uno spazio vettoriale su K = R, C e B =(v,...,v n ) e D =(w,...,w n ) due basi di V. La matrice M B D (id V ) avente per colonne le componenti dei vettori di B rispetto a D èdettamatrice del cambiamento di base da B a D. Osserviamo subito che per ogni vettore v 2 V vale la relazione [v] D = M B D(id V )[v] B. Un modo per ricordarsi la definizione è vedere la relazione sopra come una specie di cancellazione in croce: [v] D = M B D(id V )[v] B. Si noti anche che vale la relazione M B D(id V )=(M D B (id V )). Esempio 8.23. Si consideri lo spazio vettoriale V = R 3,siaC =(e,e 2,e 3 ) la sua base canonica e siano B =(v,v 2,v 3 ) e D =(w,w 2,w 3 ) altre due basi, dove 2 v = @ A, v 2 = @ A, v 3 = @ 2A w = @ A, w 2 = @ 2A, w 3 = @ A. 3 Il lettore verifichi che si tratta in effetti di vettori indipendenti. Le matrici di cambiamento di base più semplici da scrivere sono quelle di passaggio dalle basi B e D aquellacanonica,semplicementeperchéabbiamogiàle componenti dei loro vettori rispetto a C. Sihache 2 MC B (id V )=@ 2 A, MC D (id V )=@ 2 A. 3
96 Per calcolare le matrici di cambiamento di base dalla canonica C alle nuove basi B e D dobbiamo invece fare un po più fatica. Cominciamo da MB C(id V ): possiamo direttamente la definizione e calcolare le componenti [e i ] B esplicitamente, oppure possiamo usare l Osservazione 8. e ricordarci che 3 2 4 MB(id C V )=(MC B (id V )) = @ 2 A. Il lettore verifichi il calcolo dell inversa e trovi la matrice M C D (id V ). Passiamo adesso a calcolare la matrice di cambiamento di base M D B (id V ): di nuovo, grazie alll Osservazione 8. si ha che MB D (id V )=MB(id C V )M D (id C V ) 3 2 4 = @ 2 A @ 2 A = @ 3 7 9 3 3 9 2 A. 2 36 Lasciamo al lettore la verifica che MD(id B V )=MD(id C V )M B (id C V ) =(MC D (id V )) MC B (id V )=@ 3/2 /2 /2 /2 /2 5/2 A. 2 3 B Testi diversi utilizzano notazioni e nomi diversi per la matrice di cambiamento di base, ad esempio A B!D, [T ] BD emoltealtre. Segnaliamoallettorechepurtroppo alcuni testi usano anche la notazione MB D per intendere la matrice di cambio di base da D a B, ovveroesattamentel inversadellanostra.