CAPITOLO IV RISOLUZIONE DEI SISTEMI LINEARI COL METODO DEI DETERMINANTI 1. REGOLA DI CRAMER Sia S un sistema lineare di n ( 2) equazioni in n incognite su un campo K : a 11 x 1 + a 12 x 2 + + a 1n x n = b # 1 " # a n1 x 1 + a n2 x 2 + + a nn x n = b n e sia A la matrice dei coefficienti delle incognite del sistema S. Proviamo che Proposizione 1.1. Se A 0, (y 1, y 2,, y n ), dove il sistema S ammette un'unica soluzione y i = A i A, essendo A i la matrice ottenuta da A sostituendo la i-esima colonna con la colonna dei termini noti. Dimostrazione. Per la Proposizione 4.1 del Capitolo III, A è invertibile. Con le notazioni usate nel Paragrafo 4 del Capitolo I, scriviamo il sistema nella forma AX = B e osserviamo che : (y 1, y 2,..., y n ) K n è soluzione di S AY = B A -1 (AY) = A -1 B (A -1 A)Y = A -1 B Y = A -1 B. Abbiamo così provato che esiste una e una sola n-upla (y 1, y 2,..., y n ) soluzione di S e che in essa l elemento y i è 74
1 A (A b + A b +... + A b 1i 1 2i 2 ni n ) (cfr. Proposizione 4.1 del Capitolo III). L asserto è così provato. Nell'ipotesi della Proposizione 1.1, il sistema S è detto sistema di Cramer e la regola indicata per determinarne l'unica soluzione è detta regola di Cramer. Osserviamo esplicitamente che dalla Proposizione 5.1 segue immediatamente il seguente Corollario 1.2. Se il sistema S è indeterminato o incompatibile, allora A = 0. ESEMPI 1.1. Determiniamo l'unica soluzione del seguente sistema di Cramer sul campo 2x 1 - x 2 + x 3 = 3 # reale: S = " x 1 + x 2 = 0. # x 2 - x 3 = 1 Si ha : A = 2-1 1 1 1 0 0 1-1 = -2, A 1 = 3-1 1 0 1 0 1 1-1 = -4, A 2 = 2 3 1 1 0 0 0 1-1 = 4 e A 3 = (2, -2, -3). 2-1 3 1 1 0 0 1 1 = 6. L'unica soluzione del sistema S è allora (y 1, y 2, y 3 ) = 75
2. COMPATIBILITA DI UN SISTEMA LINEARE Sia S un sistema lineare di m equazioni in n incognite su un campo K : " a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 #. % a m1 x 1 + a m2 x 2 + + a mn x n = b m Indicate con A ed A rispettivamente la matrice incompleta e quella completa di S, proviamo che: Proposizione 2.1. Si ha : (i) S è compatibile se, e solo se, r(a) = r(a ) ( Teorema di Rouché - Capelli); (ii) S è determinato se, e solo se, r(a) = r(a ) = n; (iii) S è indeterminato se, e solo se, r(a) = r(a ) < n. Dimostrazione. Per quanto detto nel Capitolo I esiste un sistema a gradini S senza equazioni identiche equivalente ad S e, per la (3.3) del Capitolo III, r(a) = numero p dei pivot della matrice incompleta di S e r(a ) = numero p dei pivot della matrice completa di S. L asserto segue allora dalla (4.7) del Capitolo I. Vogliamo ora dare un altra dimostrazione del Teorema di Rouché-Capelli, basata sul metodo dei determinanti. Indicata con b la colonna dei termini noti del sistema S, cominciamo col provare la seguente 76
Proposizione 2.2. S è compatibile se, e soltanto se, b dipende da a 1, a 2,..., a n. Dimostrazione. S è compatibile S ammette almeno una soluzione (h 1, h 2,..., h n ) K n : " a 11 h 1 + a 12 h 2 + + a 1n h n = b 1 # % a m1 h 1 + a m2 h 2 + + a mn h n = b m (h 1, h 2,..., h n ) K n : h 1 a 1 + h 2 a 2 +... + h n a n = b b dipende da a 1, a 2,..., a n. Teorema 2.3 (di Rouché - Capelli). S è compatibile se, e soltanto se, le matrici A e A hanno lo stesso rango. Dimostrazione. Ricordiamo che il rango di una matrice è anche la dimensione del sottospazio generato dalle sue colonne (cfr. Capitolo III, Paragrafo 3). Si ha allora : S è compatibile (per la Proposizione 2.2) b dipende da a 1, a 2,..., a n (per quanto visto nel corso della dimostrazione della Proposizione 5.1 del Capitolo II) L (a 1, a 2,..., a n, b) = L (a 1, a 2,..., a n ) dim L(a 1, a 2,..., a n, b) = dim L (a 1, a 2,..., a n ) r(a) = r(a ). 3. DETERMINAZIONE DELLE SOLUZIONI DI UN SISTEMA LINEARE COL METODO DEI DETERMINANTI Sia S un sistema lineare di m equazioni in n incognite su un campo K. Indicate con A ed A' rispettivamente la matrice incompleta e quella completa di S, poniamo r(a) = p e r(a') = p' e supponiamo che sia p = p', ovvero che il sistema sia compatibile (cfr. Proposizione 2.1 (i)). Osserviamo che, essendo p = p', ogni minore fondamentale di A lo è anche di A'. Consideriamo un tale minore; senza ledere la generalità, supponiamo che esso sia il minore individuato dalle prime p righe e dalle prime p colonne di A. Essendo A (1,...,p;1,...,p) un minore 77
fondamentale anche di A', dal Teorema degli orlati (Paragrafo 3 del Capitolo III) segue che le righe a' p+1,..., a' m di A' dipendono dalle righe a' 1,..., a' p. D altra parte è immediato verificare che, se in un sistema S un equazione dipende dalle rimanenti (nel senso che la corrispondente riga della matrice completa di S dipende dalle rimanenti righe), allora il sistema S è equivalente al sistema ottenuto da esso cancellando l equazione che dipende dalle altre. In definitiva, si ha che S è equivalente al sistema S' formato dalle sole prime p equazioni di S (corrispondenti alle righe della matrice completa di S che contribuiscono a formare il minore fondamentale considerato). Distinguiamo i due casi p = p' = n e p = p' < n. - Sia p = p' = n. Il sistema S' è un sistema di Cramer e dunque esso ammette una e una sola soluzione che si può determinare con la regola di Cramer. - Sia p = p' < n. Scriviamo il sistema S' portando a secondo membro i termini i cui coefficienti non sono intervenuti a formare il minore fondamentale considerato: " a 11 x 1 +...... + a 1p x p = b 1 - a 1 p+1 x p+1 - - a 1 n x n #. a p-1 1 x 1 +... + a p-1 p-1 x p-1 + a p-1 p x p = b p-1 - a p-1 p+1 x p+1 - - a p-1 n x n % a p1 x 1 +...... + a p p x p = b p - a p p+1 x p+1 - - a p n x n Comunque si scelgano n-p elementi h p+1,, h n in K, per il caso precedente esiste una ed una sola soluzione del sistema in cui le incognite x p+1,, x n assumono rispettivamente i valori h p+1,, h n e tale soluzione si può determinare con la regola di Cramer. Al variare di h p+1,, h n in K otteniamo in tal modo tutte le soluzioni di S' e dunque di S. 78
ESEMPI Studiamo i seguenti sistemi lineari sul campo reale mantenendo le notazioni fin qui usate : " x 1 + x 2-2x 3 - x 4 = 5 2x 1 + x 3-2x 4 = -1 3.1. S = #-x 1 + x 2-3x 3 + x 4 = 6 2x 2 + 3x 4 = 9 % x 1 - x 2-2x 3 = 0 1 1-2 -1 2 0 1-2 Un minore fondamentale di entrambe le matrici di S è. Ne segue 0 2 0 3 1-1 - 2 0 che r(a) = r(a') = 4 = n. Il sistema è dunque compatibile e determinato. Poiché le righe che sono intervenute a formare il minore fondamentale considerato sono la prima, seconda, quarta e quinta, allora S è equivalente al sistema " x 1 + x 2-2x 3 - x 4 = 5 2x 1 + x 3-2x 4 = -1 S' = # ottenuto da esso cancellando la terza equazione. Il 2x 2 + 3x 4 = 9 % x 1 - x 2-2x 3 = 0 sistema S' è di Cramer e l unica sua soluzione è (1, 3, -1, 1). "-x 1 - x 2 + 3x 3 +2x 4 + x 5 = 1 3.2. S = # x 1 + x 2 - x 4 = 0 % x 1 + x 2 +2x 3 + 2x 4 + 3x 5 = 0 79
Un minore fondamentale di entrambe le matrici di S è -1 3 2 1 0-1 1 2 2. Ne segue che r(a) = r(a') = 3 < n = 5. Il sistema è dunque compatibile ma non determinato e le sue soluzioni dipendono da due parametri reali. Poiché le colonne che sono intervenute a formare il minore fondamentale considerato sono la prima, terza e quarta, allora le incognite cui si può attribuire valore arbitrario sono la seconda e la "-x 1 + 3x 3 +2x 4 = 1 + x 2 - x 5 quinta. Scriviamo dunque il sistema nella forma # x 1 - x 4 = - x 2 % x 1 +2x 3 + 2x 4 = - x 2-3x 5 ottenuta portando a secondo membro i termini contenenti la x 2 e la x 5. Considerati due numeri reali h 2 e h 5, esiste un unica soluzione di S in cui le incognite x 2 e x 5 assumono i valori h 2 e h 5 ; i valori che assumono le rimanenti incognite in tale soluzione si ottengono risolvendo il sistema di Cramer "-x 1 + 3x 3 +2x 4 = 1 + h 2 - h 5 # x 1 - x 4 = - h 2 % x 1 +2x 3 + 2x 4 = - h 2-3h 5 soluzioni del sistema S risulta essere { " - 2 + 7h + 7h 2 5 # 7, h 2, 3 7, - 2 + 7h 5 7 nelle 3 incognite x 1, x 3 e x 4. L insieme delle %, h 5 ', h 2, h 5 R }. & 3.3. Consideriamo il seguente sistema parametrico S = con t parametro reale. " x 1 +tx 2 - x 3 = t # x 1 - tx 4 = 0 % 2x 2 - x 3 + tx 4 = 0 80
" 1 t -1 0 t % ' La matrice completa del sistema è A' = 1 0 0 - t 0. Il minore A (1,3;1,3) = ' # 0 2-1 t 0& 1-1 0-1 è diverso da zero ed il suo orlato mediante la seconda riga e la seconda colonna è A (1,2,3;1,2,3) = 1 t -1 1 0 0 0 2-1 t = 2. Esaminiamo i due casi t 2 e t = 2. = t-2 che è uguale a zero se, e solo se, Sia t 2. L orlato A (1,2,3;1,2,3) è un minore fondamentale sia della prima che della seconda matrice di S e dunque in tal caso risulta r(a) = r(a') = 3 < n = 4. Il sistema è dunque compatibile ed ammette infinite soluzioni che dipendono da un unico parametro reale. Poiché le colonne che sono intervenute a formare il minore fondamentale considerato sono la prima, seconda e terza, allora l incognita cui si può attribuire valore arbitrario è la x 4. Scriviamo allora il sistema nella forma " x 1 +tx 2 - x 3 = t # x 1 = t x 4. Per ogni numero reale h 4 esiste un unica soluzione di S in cui % 2x 2 - x 3 = - t x 4 l incognita x 4 assume il valore h 4 ; i valori che assumono le rimanenti incognite in tale soluzione si ottengono risolvendo il sistema di Cramer " x 1 +tx 2 - x 3 = t # x 1 = t h 4 % 2x 2 - x 3 = - t h 4 nelle 3 incognite x 1, x 2 e x 3. Per ogni t 2, l insieme delle soluzioni del sistema S risulta essere )" * t h 4, + # t t - 2, t 2 h 4 + 2t(1- h 4 ) %,, h 4 ', h 4 ( R - t - 2 &.. 81
" x 1 +2x 2 - x 3 = 2 Esaminiamo ora il caso t = 2. Il sistema diventa # x 1-2x 4 = 0 e la sua % 2x 2 - x 3 + 2x 4 = 0 " 1 2-1 0 2% ' matrice completa è A' = 1 0 0-2 0. Poichè gli orlati del minore non nullo 0 2-1 2 0 ' # & A (1,2;1,2) mediante la terza riga e rispettivamente la terza e la quarta colonna sono entrambi uguali a zero, allora A (1,2;1,2) è un minore fondamentale della matrice incompleta A e dunque r(a) = 2. Poiché invece in A' l orlato di A (1,2;1,2) mediante la seconda riga e la quinta colonna è diverso de zero, allora r(a') = 3. Ne segue che per t = 2 il sistema è incompatibile. 3.4. Consideriamo il seguente sistema parametrico S = con t ed s parametri reali. " x 1 - x 2 +tx 3 - sx 4 = 0 # x 2 +tx 3 = 0 % x 1 + x 2 +tx 3 + sx 4 = 0 Osserviamo che, poiché il sistema è omogeneo per ogni t ed s, esso è sempre " 1-1 t - s % ' compatibile. La matrice incompleta del sistema è A = 0 1 t 0. Il minore ' # 1 1 t s & A (1,2;1,2) = 1-1 è diverso da zero ed il suo orlato mediante la terza riga e la 0 1 1-1 t terza colonna è A (1,2,3;1,2,3) = 0 1 t = -2t che è uguale a zero se, e solo se, 1 1 t t = 0. Esaminiamo i due casi t 0 e t = 0. Sia t 0. L orlato A (1,2,3;1,2,3) è un minore fondamentale sia della prima che della seconda matrice di S e dunque r(a) = r(a') = 3 < n = 4. Per ogni t 0 e per 82
ogni s il sistema ammette infinite soluzioni che dipendono da un unico parametro reale. Poiché le colonne che sono intervenute a formare il minore fondamentale considerato sono la prima, seconda e terza, allora l incognita cui si può attribuire valore arbitrario h 4 è la x 4. " x 1 - x 2 - sx 4 = 0 Sia ora t = 0. Il sistema diventa # x 2 = 0 con il solo parametro s. La % x 1 + x 2 + sx 4 = 0 matrice incompleta del sistema è A = " 1-1 0 - s % ' 0 1 0 0. Il minore A (1,2;1,2) = ' # 1 1 0 s & 1-1 è diverso da zero ed il suo orlato mediante la terza riga e la quarta colonna 0 1 è 2s. Ne segue che per s 0 è r(a) = 3 < n = 4 e dunque il sistema ammette infinite soluzioni che si possono ottenere attribuendo all incognita x 3 valore arbitrario. Se invece s = 0, il minore A (1,2;1,2) è fondamentale e il sistema è equivalente al sistema che si ottiene da esso cancellando l ultima equazione e le sue soluzioni dipendono da due parametri reali (le incognite cui si possono attribuire valori arbitrari sono la x 3 e la x 4 ). 83
CAPITOLO V APPLICAZIONI LINEARI 1. DEFINIZIONE E PRIME PROPRIETA' Nel presente capitolo gli spazi vettoriali considerati saranno da intendersi tutti come spazi vettoriali su uno stesso campo K. Siano V e V' due spazi vettoriali. Un'applicazione f : V V' si dice lineare se sono verificate le seguenti due proprietà: (1.1) v, w V, f(v + w) = f(v) + f(w); (1.2) h K e v V, f(hv) = h f(v). ESEMPI 1.1. Proviamo che l'applicazione f : (x, y) R 2 (x, x + y, y) R 3 è lineare. Siano v = (x, y) e w = (x', y') due vettori di R 2. E' v + w = (x+x', y+y') e quindi si ha: f(v + w) = f(x+x', y+y') = (x+x', x+x'+y+y', y+y'). Poiché f(v) + f(w) = f(x, y) + f(x', y') = (x, x+y, y) + (x', x'+ y', y') = (x+x', x+y+x'+y', y+y'), allora f(v + w) = f(v) + f(w) e la (1.1) è così verificata. Sia ora h un numero reale e sia v = (x, y) un elemento di R 2. E' hv = h(x, y) = (hx, hy) e quindi si ha: f(hv) = f(hx, hy) = (hx, hx+hy, hy). Poiché hf(v) = h(x, x+y, y) = (hx, h(x+y), hy) = (hx, hx+hy, hy), allora f(hv) = h f(v) e la (1.2) è anch'essa verificata. L'applicazione f è dunque lineare. 1.2. Proviamo che l'applicazione f : (x, y) R 2 (x, 0) R 2 è lineare. 84
Siano v = (x, y) e w = (x', y') due vettori di R 2. E' v + w = (x+x', y+y') e quindi si ha: f(v + w) = f(x+x', y+y') = (x +x', 0). Poiché f(v) + f(w) = (x, 0) + (x', 0) = (x + x', 0), allora la (1.1) è verificata. Sia ora h un numero reale e sia v = (x, y) un elemento di R 2. E' hv = h(x, y) = (hx, hy) e quindi si ha: f( hv ) = (hx, 0). Poiché h f(v) = h(x, 0) = (hx, 0), anche la (1.2) è verificata. L'applicazione f è dunque lineare. 1.3. Proviamo che l'applicazione f : (x, y, z) R 3 (2x -1, x-3z ) R 2 non è lineare. Siano v = (x, y, z) e w = (x', y', z') due vettori di R 3. E' v + w = (x+x', y+y', z+z') e quindi si ha: f(v + w) = (2(x+x') - 1, x+x' - 3(z+z')) = (2x+2x'-1, x+x'-3z-3z'). Risulta f(v) + f(w) = (2x-1, x-3z) + (2x'-1, x'-3z') = (2x+2x'-2, x-3z+x'-3z'). Si ha quindi f(v + w) f(v) + f(w), per cui la (1.1) non è verificata. L'applicazione f non è dunque lineare. 1.4. Indichiamo con id V l'applicazione identica di V, ovvero l'applicazione di V in sé che associa ad ogni vettore di V se stesso: id V : v V v V. Si verifica immmediatamente che id V è lineare. 1.5. Si dice applicazione nulla di V in V' l'applicazione f che associa ad ogni vettore di V il vettore nullo di V': f : v V 0 V' V'. Si verifica immmediatamente che f è lineare. 85
1.6. Siano V, V' e V'' tre spazi vettoriali su K e siano f : V V' e g : V' V'' due applicazioni lineari. Si verifica immediatamente che l applicazione composta g o f : v V g(f(v)) V'' è lineare. 1.7. Sia A K m,n. Identificando, per ogni n, il vettore numerico (x 1, x 2,, x n ) K n con la matrice colonna X = x 1 # & # x 2 & # & #. & K n,1, consideriamo l'applicazione # &. # & " % x n F A : X K n AX K m. Usando le proprietà del prodotto righe per colonne tra matrici (cfr. Capitolo I, Paragrafo 3) si ha che : X, Y K n, A(X + Y) = AX + AY e quindi F A è lineare. e h K e X K n, A(hX) = h(ax) Osserviamo esplicitamente che F A si può scrivere nel seguente modo : F A : (x 1, x 2,, x n ) K n (a 11 x 1 + a 12 x 2 +... + a 1n x n, a 21 x 1 + a 22 x 2 +... + a 2n x n,..., a m1 x 1 + a m2 x 2 +... + a mn x n ) K m. 1.8. Si prova facilmente che le seguenti applicazioni sono lineari: 2x y + z f : (x, y, z) R 3 # & R 2,2 ; " x - z y % g : ax 2 + bx + c R 2 [x] 2ax + b R 1[x] ; h : ( x, y, z) R 3 (2x +y-5z, x-3z, x-y) R 3, mentre le seguenti altre non lo sono: p : (x, y) R 2 ( x 2, x - y, 0) R 3 ; a b a a + b q : # & R 2,2 # & R " c d% " 2 c 2,2. % 86
Un'applicazione lineare è detta anche trasformazione (o funzione) lineare oppure omomorfismo. Proposizione 1.1. Sia f : V V' un'applicazione lineare. Si ha: (i) h, k K e v, w V, f( hv + kw ) = h f(v) + k f(w); (ii) f ( 0 V ) = 0 V'. Dimostrazione. Si ha: f(hv + kw) = ( per la (1.1)) f(hv) + f(kw) = ( per la (1.2)) h f(v) + k f(w). E' così provata la (i). Poiché 0 V = 0 0 V, dalla (1.2) segue che f (0 V ) = f (0 0 V ) = 0 f(0 V ) = 0 V'. Si ha così la (ii). La (i) della Proposizione 1.1 si estende ad una qualunque combinazione lineare di vettori di V. Si ha cioè : (1.3) h 1, h 2,, h t K e v 1, v 2,, v t V, f(h 1 v 1 + h 2 v 2 + + h t v t ) = h 1 f(v 1 ) + h 2 f(v 2 ) + + h t f(v t ). Proposizione 1.2. Sia f : V V' un'applicazione linearee sia S = { v 1,, v t } un sistema di vettori di V. Si ha: (i) Se S è linearmente dipendente, allora il sistema f(s) = { f(v 1 ),, f(v t ) } V' è linearmente dipendente (f conserva la dipendenza lineare) ; (ii) se v L(S), allora f(v) L(f(S)). Dimostrazione. (i) Per ipotesi esistono t scalari h 1, h 2,, h t non tutti nulli tali che h 1 v 1 + h 2 v 2 + + h t v t = 0 V. Applicando la f ad entrambi i membri si ottiene : f(h 1 v 1 + h 2 v 2 + + h t v t ) = f(0 V ) = (per la (ii) della Proposizione 1.1) 0 V'. Ne segue, per la (1.3), che h 1 f(v 1 ) + h 2 f(v 2 ) + + h t f(v t ) = 0 V'. Poiché gli scalari h 1, h 2,, h t non sono tutti nulli, i vettori f(v 1 ),, f(v t ) sono dipendenti. 87
(ii) Segue immediatamente dalla (1.3). D'ora in avanti indicheremo con 0 sia il vettore nullo di V che quello di V'; il lettore capirà dal contesto a quale dei due vettori nulli ci si riferisce. Proposizione 1.3. Sia f : V V' un'applicazione lineare. Per ogni sottospazio W di V, f(w) è un sottospazio di V'. Inoltre, se W = L(v 1, v 2,, v t ), risulta f(w) = L (f(v 1 ), f(v 2 ),, f(v t )). Dimostrazione. Essendo W, è f(w). Cominciamo a provare che f(w) è stabile rispetto alle operazioni di V'. Siano v', w' f(w). Esistono allora v, w W tali che v' = f(v) e w' = f(w). Poiché f è lineare, v' + w' = f(v) + f(w) = f(v + w); inoltre, essendo W un sottospazio di V, v + w W. Il vettore v' + w' è dunque immagine mediante f di un vettore di W; da ciò v' + w' f(w). Sia ora h K e v' f(w). Diciamo v un vettore di W tale che f(v) = v'. Essendo f lineare, hv' = hf(v) = f(hv); essendo W un sottospazio di V, hv W. Ne segue che hv' f(w). Il sottoinsieme f(w) di V' è dunque stabile rispetto alle operazioni di V' e quindi è un sottospazio di V'. Sia ora W generato da v 1, v 2,, v t. I vettori f(v 1 ),, f(v t ) sono in f(w) e quindi anche tutte le loro combinazioni lineari sono in f(w) (cfr. Osservazione 2.1 del Cap. II). E' dunque L(f(v 1 ),, f(v t )) f(w). Per ogni vettore v' f(w), esiste un vettore v W tale che v' = f(v). Poiché v W = L(v 1, v 2,, v t ), dalla (ii) della Proposizione 1.2 segue che v' L(f(v 1 ),, f(v t )). Si ha così che f(w) L(f(v 1 ),, f(v t )). Dalla doppia inclusione segue f(w) = L(f(v 1 ),, f(v t )). L asserto è così completamente provato. Chiudiamo il presente paragrafo provando il seguente teorema che fornisce un metodo per costruire applicazioni lineari. 88
Teorema 1.4 (di esistenza e unicità di un applicazione lineare). Sia V di dimensione finita n e sia B = {e 1, e 2,..., e n } una sua base. Fissati arbitrariamente n vettori w 1, w 2,..., w n in V', esiste una ed una sola applicazione lineare f di V in V' tale che f(e i ) = w i, per ogni i = 1,..., n. Dimostrazione. Poiché B è una base di V, ogni vettore v V si può scrivere in unico modo come combinazione lineare dei vettori di B. Si può allora considerare l applicazione f : v = x 1 e 1 + x 2 e 2 +...+ x n e n V x 1 w 1 + x 2 w 2 +...+ x n w n V'. Si verifica subito che f è lineare. Poiché inoltre e i = 0e 1 +... + 1e i +... + 0e n, allora f(e i ) = w i, per ogni i = 1,..., n. Sia ora g un applicazione lineare di V in V' tale che g(e i ) = w i, per ogni i. Proviamo che f = g cioè che, v V, f(v) = g(v). Sia v = x 1 e 1 + x 2 e 2 +...+ x n e n V. Poiché g è lineare, g(v) = x 1 g(e 1 ) +x 2 g(e 2 ) +...+ x n g(e n ) = x 1 w 1 + x 2 w 2 +... + x n w n = f(v). Osserviamo esplicitamente che dal Teorema 1.4 segue in particolare che Corollario 1.5. Sia f : V V' un'applicazione lineare. Se V ha dimensione finita e sono noti i corrispondenti in f dei vettori di una base di V, allora è possibile determinare il corrispondente in f di ogni vettore di V. ESEMPI 1.9. Determiniamo l unica applicazione lineare f di R 3 in R 2,2 che muta i vettori del riferimento R = ((1, 1, 0), (0, 1, 1), (0, 0, -2)) di R 3 ordinatamente nei vettori " 1 2% " ', 4 5 % " ' e 2 0 % ' di R 2,2. # 0 3& # 7 1& # 0 0& 89
Sia (x, y, z) R 3. Poiché (x, y, z) = x (1, 1, 0) + (-x+y) (0, 1, 1) + -x + y - z 2 (0, 0, -2), allora f(x, y, z) = " x 1 2 % ' + (-x+y) # 0 3& " 4 5% ' + # 7 1& -x + y - z 2 " 2 0% ' = # 0 0& "-4x +5y - z - 3x +5y% '. #-7x + 7y 2x + y & 2. NUCLEO E IMMAGINE Sia f : V V' un'applicazione lineare. Poniamo: Ker f = {v V : f(v) = 0} e Im f = f(v) = { f(v) : v V }. Evidentemente è Ker f V e Im f V'. Proviamo che : Proposizione 2.1. Ker f è un sottospazio di V e Im f è un sottospazio di V'. Dimostrazione. Per la Proposizione 1.3, Im f è un sottospazio di V'. Per provare che Ker f è un sottospazio di V, cominciamo con l'osservare che, per la Proposizione 1.1, 0 Ker f e quindi Ker f. Siano v, w Ker f. Proviamo che v + w Ker f. Poiché f è lineare, f(v + w) = f(v) + f(w). Essendo d'altra parte f(v) = f(w) = 0, allora f(v + w) = 0 e dunque v + w Ker f. Siano ora h K e v Ker f. Poiché f è lineare e f(v) = 0, si ha che f(hv) = hf(v) = h0 = 0. E' dunque hv Ker f. Si è così provato che Ker f è un sottospazio di V. I sottospazi Ker f e Im f sono detti rispettivamente nucleo e immagine dell'applicazione f. 90
Proposizione 2.2. Se V è finitamente generabile e B = { e 1, e 2,, e n } è una base di V, allora Im f = L(f(e 1 ), f(e 2 ),, f(e n )). Dimostrazione. Poiché per ipotesi è V = L(e 1, e 2,, e n ), l asserto segue subito dalla Proposizione 1.3. ESEMPI 2.1. Determiniamo nucleo e immagine dell'applicazione lineare dell'esempio 1.1. Ker f = {(x,y) R 2 : (x, x+y, y) = (0, 0, 0)} = {(x, y) R 2 : x = 0, x+y = 0, y = 0} = {(x, y) R 2 : x = 0, y = 0} = {(0, 0)} = {0}. Per la Proposizione 2.2, Im f = L(f(1, 0), f(0, 1)) = L((1, 1, 0), (0, 1, 1)). 2.2. Determiniamo nucleo e immagine dell'applicazione lineare dell'esempio 1.2. Ker f = {(x, y) R 2 : (x, 0) = (0,0)} = {(x, y) R 2 : x = 0 } = {(0, y), con y R } = L((0, 1)). Per la Proposizione 2.2, Im f = L(f(1, 0), f(0, 1)) = L((1, 0), (0, 0)) = L((1, 0)). 2.3. Determiniamo nucleo e immagine dell'applicazione lineare dell'esempio 1.4. Ker id V = {v V : v = 0} = {0}. Evidentemente, Im id V = V. 2.4. Determiniamo nucleo e immagine dell'applicazione lineare dell'esempio 1.5. E' facile rendersi conto che Ker f = V ed Im f = {0}. 2.5. Determiniamo nucleo e immagine dell'applicazione lineare dell'esempio 1.7. Ker F A = { X K n : AX = 0 } (qui 0 indica la matrice nulla di tipo [m, 1] ). Ker F A è dunque il sottospazio di K n costituito dalle soluzioni del sistema omogeneo in n incognite AX = 0. 91
Poniamo ora : X 1 = 1 # & # 0& # & #. &, X 2 = #. & # & " 0% 0 0 # & # & # 1& # 0& # & # & #. &,, X n = #. &. Per la Proposizione 2.2, Im F A = #. & #. & # & # & " 0% " 1% L(F A (X 1 ), F A (X 2 ),, F A (X n )). Poiché F A (X 1 ) coincide con la prima colonna della matrice A, F A (X 2 ) coincide con la seconda colonna di A, e così via fino ad F A (X n ) che coincide con l'n-ma colonna di A, allora Im F A è il sottospazio di K m generato dalle colonne di A. Proposizione 2.3. Si ha : (i) f è suriettiva Im f = V' ; (ii) f è iniettiva Ker f = {0}. Dimostrazione. La (i) non è altro che la definizione di suriettività. Proviamo allora la (ii). Sia dunque f iniettiva. Se v 0 è un vettore di V, allora f(v) f(0) = 0 e quindi v Ker f. Ne segue che Ker f = {0}. Viceversa, supponiamo Ker f = {0}. Se v e w sono due vettori distinti di V, proviamo che f(v) f(w). Supponiamo, per assurdo, f(v) = f(w). Si ha f(v) - f(w) = 0 da cui, per la linearità di f, f(v - w) = 0. Il vettore v w appartiene dunque a Ker f. Essendo Ker f = {0}, è v w = 0, cioè v = w, un assurdo essendo v w. L'asserto è così completamente provato. Proposizione 2.4. Sia f : V V' un'applicazione lineare iniettiva. Se S = {v 1,, v t } V è un sistema indipendente, allora il sistema f(s) = { f(v 1 ),, f(v t ) } V' è indipendente (f conserva l'indipendenza lineare). Dimostrazione. Sia h 1 f(v 1 ) + h 2 f(v 2 ) + + h t f(v t ) = 0. Proviamo che tutti gli scalari sono uguali a zero. Poiché f è lineare, h 1 f(v 1 ) + h 2 f(v 2 ) + + h t f(v t ) = 92
f(h 1 v 1 + h 2 v 2 + + h t v t ) = 0 = f(0). Ne segue, essendo f iniettiva, che h 1 v 1 + h 2 v 2 + + h t v t = 0. Poiché v 1,, v t sono indipendenti, allora h 1 =. = h t = 0. Osserviamo che, se V ha dimensione finita, allora hanno dimensione finita sia Ker f (in quanto sottospazio di uno spazio vettoriale di dimansione finita) che Im f ( per la Proposizione 2.2). Concludiamo il presente paragrafo provando il seguente Teorema 2.5. Se V ha dimensione finita n, si ha : dim Ker f + dim Im f = n. Dimostrazione. Se Ker f = V n, allora evidentemente Im f = {0} e l asserto è vero. Se Ker f = {0}, per la Proposizione 2.3 f è iniettiva. Dalle Proposizioni 2.2 e 2.4 segue allora che ogni base di V n si trasforma mediante f in un sistema indipendente di generatori di Im f, cioè in una base di Im f. Ne segue che dim Im f = n, cioè l asserto. Sia ora Ker f V n e Ker f {0}. Detta B ker = {v 1,, v t } una base di Ker f, completiamo B ker in una base B = {v 1,, v t, v t+1,, v n } di V n. Per la Proposizione 2.2, Im f = L(f(v 1 ),, f(v t ), f(v t+1 ),, f(v n ) ) = L ( f(v t+1 ),, f(v n ) ), essendo f(v 1 ) = = f(v t ) = 0. Proviamo ora che i vettori f(v t+1 ),, f(v n ), che generano Im f, sono indipendenti. Sia h t+1 f(v t+1 ) + + h n f(v n ) = 0. Dalla linearità di f segue che f(h t+1 v t+1 + + h n v n ) = 0. Il vettore h t+1 v t+1 + + h n v n appartiene quindi a Ker f; esso è allora combinazione lineare dei vettori di B ker. Si ha pertanto h t+1 v t+1 + + h n v n = k 1 v 1 + + k t v t per opportuni scalari k 1,, k t, da cui h t+1 v t+1 + + h n v n k 1 v 1 k t v t = 0. Essendo v 1,, v t, v t+1,, v n indipendenti, tutti gli scalari sono nulli; in particolare è h t+1 = = h n = 0, per cui 93
il sistema {f(v t+1 ),, f(v n )} è indipendente e dunque è una base di Im f. Ne segue che dim Im f = n t = n dim Ker f, cioè l asserto. Dal Teorema 2.5 segue facilmente il seguente Corollario 2.6. Se dim V = dim V', allora f è iniettiva f è suriettiva. 3. ISOMORFISMI Un'applicazione lineare f : V V' è detta isomorfismo se essa è biettiva (ovvero iniettiva e suriettiva). E' facile provare che, se f : V V' è un isomorfismo, anche l'applicazione inversa f -1 : V' V è un isomorfismo e che l applicazione composta di due isomorfismi è ancora un isomorfismo. Due spazi vettoriali si dicono isomorfi se esiste un isomorfismo tra essi. ESEMPI 3.1. Sia V uno spazio vettoriale. L'applicazione identica id V di V è lineare, iniettiva e suriettiva. Essa è dunque un isomorfismo. 3.2. Consideriamo l'applicazione f : a b # & K " c d 2,2 (a, b, c, d) K 4. E' facile % verificare che f è lineare. Determiniamo ora il nucleo e l'immagine di f. Si ha : Ker f = { a b # & K " c d 2,2 : (a, b, c, d) = (0, 0, 0, 0) } = { 0 0 # & } = {0}. Per la % " 0 0% Proposizione 2.3, f è iniettiva e quindi, essendo dim K 2,2 = 4 = dim K 4, per il Corollario 2.6 f è anche suriettiva. L'applicazione f è allora un isomorfismo. 94
3.3. Consideriamo l omomorfismo f : (x, y, z) R 3 (2x+y-z, y+z, 3z) R 3. Per la Proposizione 2.2, Im f = L(f(1, 0, 0), f(0, 1, 0), f(0, 0, 1)) = L((2, 0, 0), (1, 1, 0), (-1, 1, 3)). Poiché i tre vettori che generano Im f sono indipendenti, si ha che dim Im f = 3 = dim R 3 ; da ciò segue che Im f = R 3 e quindi f è suriettiva. Dal Corollario 2.6 segue allora che f è un isomorfismo. 3.4. Isomorfismo coordinato associato ad un riferimento. Sia V n uno spazio vettoriale ed R = (e 1, e 2,, e n ) un suo riferimento. Consideriamo l'applicazione c R di V n in K n che ad ogni vettore v V n associa la n-pla ordinata delle sue componenti in R : c R : v = h 1 e 1 + h 2 e 2 + + h n e n V n (h 1, h 2,, h n ) K n. Si prova immmediatamente che l'applicazione c R è lineare. Determiniamo il nucleo e l'immagine di c R. Si ha : Ker c R = { v V n : c R (v) = (0, 0,, 0)} = {0}; Im c R = L(c R (e 1 ), c R (e 2 ),, c R (e n )) = L((1, 0,,0), (0, 1,,0),,(0, 0,, 1)) = K n. Da ciò segue che l'applicazione c R è sia iniettiva che suriettiva e quindi che essa è un isomorfismo tra V n ed K n. Tale isomorfismo è detto isomorfismo coordinato associato al riferimento R (o anche coordinazione di V n associata ad R). Dall'Esempio 3.4 segue che : Osservazione 3.1. Ogni spazio vettoriale di dimensione n sul campo K è isomorfo allo spazio vettoriale numerico K n. Proviamo che : 95
Proposizione 3.1 (Proprietà degli isomorfismi). Sia f : V n V m ' un isomorfismo. Si ha : (i) f conserva la dipendenza e l indipendenza lineare; (ii) per ogni sistema S W di generatori di un sottospazio W di V n, f(s W ) è un sistema di generatori del sottospazio f(w) di V m '; (iii) per ogni base B W di un sottospazio W di V n, f(b W ) è una base del sottospazio f(w) di V m '; (iv) per ogni sottospazio W di V n, dim W = dim f(w); (v) per ogni base B di V n, f(b) è una base di V m ' e dim V n = dim V m '. Dimostrazione. La (i) segue immediatamente dalle Proposizioni 1.2 e 2.4, essendo f una applicazione lineare iniettiva. La (ii) è vera per la Proposizione 1.3. Per provare la (iii), consideriamo una base B W = {v 1,, v t } di W. Per la (ii), f(b W ) = {f(v 1 ), f(v 2 ),, f(v t )} genera f(w); inoltre, per la (i), i vettori f(v 1 ), f(v 2 ),, f(v t ) sono indipendenti. Si ha allora che f(b W ) è una base di f(w). Le (iv) e (v) seguono immediatamente dalla (iii). Poiché, per ogni isomorfismo f, anche f 1 è un isomorfismo, dalla Proposizione 3.1 segue che lo studio di uno spazio vettoriale (dipendenza e indipendenza lineare, sottospazi e loro dimensione, basi) può essere fatto utilizzando uno spazio vettoriale ad esso isomorfo. In particolare, poiché ogni spazio vettoriale di dimensione n su K è isomorfo a K n (cfr. Osservazione 3.1), allora K n costituisce un modello (comodo da utilizzare) di ogni spazio vettoriale V n (K). Proviamo ora che 96
Proposizione 3.2. Siano V e V' di dimensione finita rispettivamente n ed m. Gli spazi V e V' sono isomorfi se, e solo se, n = m. Dimostrazione. Se V e V' sono isomorfi, allora n = m per la (v) della Proposizione 3.1. Sia ora n = m. Detti R = (e 1, e 2,, e n ) un riferimento di V ed R' = (e 1 ', e 2 ',, e n ') un riferimento di V', consideriamo gli isomorfismi coordinati c R : V n K n e c R : V n ' K n associati rispettivamente ad R ed R'. Poiché l applicazione inversa di un isomorfismo è un isomorfismo e l applicazione composta di due isomorfismi è un isomorfismo, allora l applicazione c -1 R o c R (che associa al vettore v = x 1 e 1 + x 2 e 2 +...+ x n e n V il vettore v' = x 1 e 1 '+ x 2 e 2 '+...+ x n e n ' V') è un isomorfismo di V in V'. L asserto è così provato. ESEMPI 3.5. Nello spazio vettoriale R 3[x] sia H = L(x 3 +2x, x-1, 2x 3 +3x+1, x 2 +3x-2). Determiniamo una base e la dimensione del sottospazio H. Consideriamo il riferimento R = (x 3, x 2, x, 1) di R 3[x] e la coordinazione ad esso associata: c R : ax 3 + bx 2 + cx + d R 3[x] (a, b, c, d) R 4. L'immagine di H mediante l'isomorfismo c R è il sottospazio H' = L((1, 0, 2, 0), (0, 0, 1, -1), (2, 0, 3, 1), (0, 1, 3, -2)) di R 4. Ricordando che l'applicazione inversa di c R è anch'essa un isomorfismo, per determinare una base di H basterà determinare una base di H' ( cfr. Proposizione 3.1 ). Scriviamo allora i vettori che generano H' come righe di una matrice, ottenendo così la matrice 1 0 2 0 # & # 0 0 1-1& A= # & ; osserviamo poi che un minore fondamentale di A 2 0 3 1 # " 0 1 3-2 & % 97
è 0 1-1 0 3 1 1 3-2. Per il Teorema degli orlati (Teorema 3.3 del Capitolo III) i vettori (0, 0, 1, -1), (2, 0, 3, 1) e (0, 1, 3, -2) costituiscono una base di H'. Ne segue che i polinomi c R -1 (0, 0, 1, -1) = x - 1, c R -1 (2, 0, 3, 1) = 2x 3 +3x+1 e c R -1 (0, 1, 3, -2) = x 2 +3x-2 costituiscono una base di H che ha quindi dimensione 3. 3.6. Nello spazio vettoriale R 2,2 consideriamo il sistema di vettori S = { 2 1 # &, 0 1 # &, " 0 1% " 1 3% 4 1 # & }. Determiniamo la dimensione del sottospazio L(S). "-1-1% Considerato il riferimento naturale R di R 2,2, sia c R l'isomorfismo coordinato ad esso associato: c R : a b # & R 2,2 ( a, b, c, d) R 4. " c d% L'isomorfismo c R trasforma il sottospazio L(S) di R 2,2 nel sottospazio W = L( (2, 1, 0, 1), (0, 1, 1, 3), (4, 1, -1, -1) ) di R 4 e quindi diml(s) = dimw (cfr. Proposizione 3.1). Poiché, come è facile verificare, dimw = 2, allora diml( S) = 2. 4. MATRICI E APPLICAZIONI LINEARI Sia f : V n V m ' un'applicazione lineare e siano R = (e 1, e 2,, e n ) ed R' = (e 1 ', e 2 ',, e m ') due riferimenti rispettivamente di V n e V m '. Sia inoltre f(e 1 ) = a 11 e 1 ' + a 21 e 2 ' + + a m1 e m ', f(e 2 ) = a 12 e 1 ' + a 22 e 2 ' + + a m2 e m ',, f(e n ) = a 1n e 1 ' + a 2n e 2 ' + + a mn e m '. Per il Corollario 1.5, il corrispondente f(v) di un vettore v di V n è noto non appena si conoscono i corrispondenti in f dei vettori e 1, 98
e 2,, e n. Ne segue che per conoscere f(v) basta conoscere gli scalari a ij ( i = 1,,m ; j = 1,,n). Costruiamo con tali scalari una matrice A ponendo nella prima colonna le componenti in R' di f(e 1 ), nella seconda quelle di f(e 2 ), e così via fino alla colonna n-esima in cui poniamo le componenti in R' di f(e n ). E' dunque " a 11 a 12 a 1n % ' a 21 a 22 a 2n A = '. ' ' # a m1 a m2 a mn & La matrice A di tipo [m, n] così costruita è detta matrice associata ad f nei riferimenti R ed R'. Essa sarà talvolta denotata con M R,R' (f). Per quanto appena detto, la conoscenza della matrice associata ad f in una coppia di riferimenti permette di determinare completamente la f. In particolare, per la Proposizione 2.2, è possibile determinare Imf a partire dalla matrice A. Si ha di più : Proposizione 4.1. Se A è la matrice associata ad f nei due riferimenti R ed R', allora r(a) = dim Imf. Dimostrazione. Per la Proposizione 2.2. è Im f = L(f(e 1 ), f(e 2 ),, f(e n )). D altra parte, per la Proposizione 3.1, la dimensione di L(f(e 1 ), f(e 2 ),, f(e n )) coincide con la dimensione del sottospazio c R (L(f(e 1 ), f(e 2 ),, f(e n )) = L(a 1, a 2,..., a n ) generato dalle colonne di A. Essendo dim L (a 1, a 2,..., a n ) = r(a), allora r(a) = dim Imf. Se V m ' = V n, l'applicazione lineare f di V n in sé è detta endomorfismo di V n. In tal caso, se è anche R' = R, parleremo semplicemente di matrice associata ad f nel riferimento R e scriveremo M R (f). 99
ESEMPI 4.1. Consideriamo l omomorfismo f : (x, y) R 2 (2x - 3y, -x + y, 0) R 3. Considerato il riferimento R = ((1, 1), (2, -1)) di R 2 e il riferimento R' = ((0, 1, 1), (1, 0, 1), (0, 0, 1)) di R 3, determiniamo la matrice A associata ad f nei riferimenti R ed R'. Si ha : f(1, 1) = (-1, 0, 0) = 0(0, 1, 1) -1(1, 0, 1) + 1(0, 0, 1), f(2, -1) = (7, -3, 0) = -3(0, 1, 1) + 7(1, 0, 1) - 4(0, 0, 1). 0-3 # & Ne segue che A = #-1 7& # &. " 1-4% 4.2. Consideriamo l'applicazione lineare dell'esempio 4.1. Fissato il riferimento naturale sia in R 2 che in R 3, determiniamo la matrice B associata ad f in tali riferimenti. Si ha : f(1, 0) = (2, -1, 0) = 2(1, 0, 0) - 1(0, 1, 0) + 0(0, 0, 1), f(0, 1) = (-3, 1,0) = -3(1, 0,0) + 1(0, 1, 0) + 0(0, 0, 1), 2-3 # & Ne segue che B = #-1 1& # &. " 0 0% 4.3. Sia f : R 3 R 2 l'applicazione lineare rappresentata nei riferimenti R = 1 2 0 ((1, 0, 0), (1, 1, 0), (1, 1, 1)) ed R' = ((0, 2), (-1, 1)) dalla matrice A = # &. " 3 1 1% Determiniamo f(1, 0, -1). Dalla definizione di matrice associata ad f in R ed R' segue che: f(1, 0, 0) = 1(0, 2) + 3(-1, 1) = (-3, 5), f(1, 1, 0) = 2(0, 2) + 1(-1, 1) = (-1, 5), 100
f(1, 1, 1) = 0(0, 2) + 1(-1, 1) = (-1, 1). Poiché inoltre è (1, 0, -1) = 1(1, 0, 0) +1(1, 1, 0) - 1(1, 1, 1), allora si ha: f(1, 0, -1) = 1f(1, 0, 0) +1f(1, 1, 0) - 1f(1, 1, 1) = 1(-3, 5) + 1(-1, 5) -1(-1, 1) = (-3, 9). Determiniamo ora f(2, -1, -2). Poiché risulta (2, -1, -2) = 3(1, 0, 0) +1(1, 1, 0) - 2(1, 1, 1), allora si ha: f(2, -1, -2) = 3f(1, 0, 0) +1f(1, 1, 0) - 2f(1, 1, 1) = 3(-3, 5) + 1(-1, 5) -2(-1, 1) = (-8, 18). Determiniamo infine f(x, y, z), per ogni (x, y, z) R 3. Poiché (x, y, z) = (x-y) (1, 0, 0) + (y-z) (1, 1, 0) + z (1, 1, 1), si ha: f(x, y, z) = (x-y) (-3,5) + (y-z) (-1,5) + z (-1,1) = (-3x + 2y, 5x - 4z). 4.4. Sia f : R 2 R 2 l endomorfismo di R 2 rappresentato nel riferimento R = ((0, 1), (1, 1)) dalla matrice A = 1 2 # &. Determiniamo Imf. " 3 1% Dalla definizione di matrice associata ad f in R segue che f(0, 1) = 1(0, 1) + 3(1, 1) = (3, 4); f(1, 1) = 2(0, 1) + 1(1, 1) = (1, 3). Per la Proposizione 2.2 è allora Imf = L((3, 4), (1, 3)) = R 2. D'ora in avanti, quando sarà utile, identificheremo il vettore numerico x 1 # & # x 2 & # & (x 1, x 2,, x n ) K n con la matrice colonna X = #. & K n,1 così come è stato fatto # &. # & " % nell'esempio 1.7. x n 101
Osservazione 4.1. Sia A K m,n. Consideriamo l'applicazione lineare F A : X K n AX K m. E' facile verificare che la matrice associata ad F A nei riferimenti naturali di K n ed K m è proprio A. Proviamo ora che : Proposizione 4.2. Sia f : V n V m ' un'applicazione lineare e siano R un riferimento di V n ed R' un riferimento di V m '. Detta X la matrice colonna delle componenti in R di un vettore v V n ed X' la matrice colonna delle componenti di f(v) in R', si ha: (i) se A K m,n è la matrice associata ad f nei riferimenti R ed R', allora X' = AX, v V n ; (ii) se A K m,n è una matrice tale che, v V n, X' = AX, allora A è la matrice associata ad f nei riferimenti R ed R'. Dimostrazione. Sia R = (e 1, e 2,, e n ) ed R' = (e 1 ', e 2 ',, e m '). Indichiamo con x 1, x 2,..., x n le componenti di v in R, con x 1 ', x 2 ',..., x m ' le componenti di f(v) in R' e con a ij il generico elemento di A. (i) Da v = x 1 e 1 + x 2 e 2 +... + x n e n segue (per la (1.3)) f(v) = x 1 f(e 1 ) + x 2 f(e 2 ) +... + x n f(e n ) = (per la definizione di matrice associata ad f in R ed R') x 1 (a 11 e 1 ' + a 21 e 2 ' + + a m1 e m ') + x 2 (a 12 e 1 ' + a 22 e 2 ' + + a m2 e m ') +... + x n (a 1n e 1 ' + a 2n e 2 ' + + a mn e m ') = (a 11 x 1 + a 12 x 2 +... + a 1n x n ) e 1 ' + (a 21 x 1 + a 22 x 2 +... + a 2n x n ) e 2 ' +... + (a m1 x 1 + a m2 x 2 +... + a mn x n ) e m '. Le componenti di f(v) in R' sono dunque " x 1 '= a 11 x 1 +a 12 x 2 +... +a 1n x n x 2 '= a 21 x 1 +a 22 x 2 +... +a 2n x n #, cioè l asserto....... % x m '= a m1 x 1 +a m2 x 2 +... +a mn x n 102
(ii) Le componenti di e 1 in R sono 1, 0,..., 0; moltiplicando allora la matrice A per il vettore colonna A " 1% ' 0 '. ' '. ' # 0& " =.. # l asserto. a 11 a 21 a m1 " 1% ' 0 '. ' otteniamo le componenti in R' del vettore f(e 1 ). D altra parte '. ' # 0& % ' ' ' e dunque la n-pla delle componenti di f(e 1 ) in R' coincide con la ' ' & prima colonna della matrice A. Un discorso analogo vale per e 2,, e n, da cui Proposizione 4.3. Le applicazioni lineari di K n in K m sono tutte e sole le applicazioni del tipo F A, con A K mn. Dimostrazione. Abbiamo già osservato (cfr. Esempio 1.7) che, per ogni A K mn, l applicazione F A : X K n AX K m è lineare. Viceversa, sia f : K n K m un applicazione lineare. Detta A la matrice associata ad f nei riferimenti naturali di K n e K m, dalla (i) della Proposizione 4.2 segue che f = F A. L asserto è così provato. Osservazione 4.2. Sia f : V n V m ' un'applicazione lineare. Fissato un riferimento R in V n e un riferimento R' in V m ', diciamo A la matrice associata ad f nei riferimenti R ed R'. Dalla Proposizione 4.2 segue che : v Ker f AX = 0, avendo indicato con X la matrice colonna delle componenti di v in R. 103
Osservazione 4.3. Sia AX = 0 un sistema omogeneo di m equazioni in n incognite su K. Per l Osservazione 4.1, A è la matrice associata ad F A nei riferimenti naturali di K n ed K m. Ne segue, per l Osservazione 4.2, che lo spazio H delle soluzioni del sistema coincide con il nucleo di F A. Poiché, per la Proposizione 4.1, dim Im F A = r(a), allora dal Teorema 2.5 segue che dim H = n r(a) = (per la (3.3) del Capitolo III) = n p, essendo p il numero dei pivot di una matrice a gradini equivalente ad A. Abbiamo così anche ottenuto una nuova dimostrazione della Proposizione 6.1 del Capitolo II. ESEMPI 4.5. Sia f : R 3 R 2 l applicazione lineare rappresentata nei riferimenti R = ((1, 0, 1), (1, 1, 0), (0, 1, 1)) ed R' = ((0, 5), (-1, 1)) dalla matrice A = 1 2 4 # &. Determiniamo Ker f. " 2 3 1% Per l Osservazione 4.2, cominciamo col risolvere il sistema omogeneo S = x + 2y + 4z = 0 " # 2x + 3y + z = 0 gradini ad esso equivalente è il sistema avente A come matrice dei coefficienti. Un sistema a x + 2y + 4z = 0 " # - y - 7z = 0 il cui insieme delle soluzioni è {(10z, -7z, z), z R} = L (( 10, -7, 1)). Poiché le soluzioni del sistema S sono tutte e sole le componenti in R dei vettori del nucleo di f, allora Ker f = {10z (1, 0, 1) 7z (1, 1, 0) + z (0, 1, 1), z R } = {(3z, -6z, 11z), z R } = L ((3, -6, 11)). Osserviamo che avremmo potuto ottenere la base {(3, -6, 11)} di Ker f a partire dalla base {(10, -7, 1)} dello spazio delle soluzioni del sistema S utilizzando l isomorfismo coordinato di R 3 associato al riferimento R. Si ha infatti (3, -6, 11) = 10(1, 0, 1) 7(1, 1, 0) + (0, 1, 1). 104
4.6. Sia f : R 2 R 2 l applicazione lineare rappresentata nel riferimento naturale 3-12 R =((1, 0), (0, 1)) dalla matrice A = # &. Determiniamo Ker f. " 6-24% 3x - 12y = 0 Risolviamo il sistema omogeneo S = " avente A come matrice dei # 6x - 24y = 0 coefficienti delle incognite. Tale sistema è ovviamente equivalente all unica equazione 3x 12y = 0 il cui insieme delle soluzioni è {(4y, y), y R } = L (( 4,1)). Le soluzioni del sistema S sono tutte e sole le componenti in R dei vettori del nucleo di f. Poiché una base dello spazio delle soluzioni di S è {(4, 1)}, allora una base di Ker f è 4 (1, 0) + 1 (0, 1) = (4, 1). Ne segue che Ker f = L (( 4,1)). Proposizione 4.4. Siano f : V n V m ' e g : V m ' V s '' due applicazioni lineari e siano R, R' ed R'' riferimenti fissati, rispettivamente in V n, V m ' e V s ''. Posto A = M R,R' (f) e B = M R'R'' (g), è M R,R (g o f) = B A. Dimostrazione. Sia v V n e sia X il vettore colonna delle componenti di v in R. Applicando due volte la (i) della Proposizione 4.2, si ha che AX è il vettore colonna delle componenti di f(v) in R' e B(AX) = (BA)X è il vettore colonna delle componenti di g(f(v)) in R''. L asserto segue allora dalla (ii) della Proposizione 4.2. Un isomorfismo di uno spazio vettoriale in sé è detto automorfismo. Osserviamo che, se f è un automorfismo di uno spazio V di dimensione finita n ed R è un riferimento di V, allora, detta A la matrice che rappresenta f in R, dalla Proposizione 4.1 segue che r(a) = n, cioè che A è invertibile (e quindi A GL(n, K) (cfr. Capitolo III, Paragrafo 4). Inoltre, utilizzando la Proposizione 4.2, si ha subito che, se f -1 è l applicazione inversa di f, allora M R (f -1 ) = A -1. 105
Indichiamo con Aut(V) l insieme degli automorfismi dello spazio vettoriale V. E immediato verificare che Aut(V) è un gruppo rispetto alla composizione tra applicazioni di cui l identità id V è l elemento neutro. Un isomorfismo tra due gruppi G( ) e G' ( ) è un applicazione biettiva f di G in G' tale che, per ogni x, y G, f(x y ) = f(x) f(y). Si può provare che, se V ha dimensione finita n ed R è un riferimento di V, allora l applicazione φ R : f Aut(V n ) M R (f) GL(n, K) è un isomorfismo tra il gruppo Aut(Vn) e il gruppo lineare generale GL(n, K) (cfr. Capitolo III, Paragrafo 4). Sia ora f un endomorfismo di V n e sia n 1. Detti R = (e 1, e 2,, e n ) ed R' = (e' 1, e' 2,, e' n ) due riferimenti di V n, vogliamo determinare la relazione che sussiste tra le matrici A ed A' associate ad f rispettivamente in R e in R'. A tale scopo, premettiamo la seguente Proposizione 4.5. La matrice B di passaggio da R ad R' è invertibile. Dimostrazione. Ricordiamo (cfr. Capitolo II, Paragrafo 8) che le colonne di B sono i vettori numerici delle componenti in R' dei vettori e 1, e 2,, e n. Poiché e 1, e 2,, e n sono indipendenti, per l'isomorfismo coordinato associato ad R' le colonne di B sono indipendenti. Ne segue, per la Proposizione 3.5 del Capitolo III, che B 0. Per la Proposizione 4.1 del Capitolo III, B è invertibile. Si prova inoltre che : Proposizione 4.6. Se B è la matrice di passaggio da R ad R', allora B -1 matrice di passaggio da R' ad R. è la 106
Proposizione 4.7. Sia R un riferimento di V n. Se B è una matrice invertibile di ordine n su K, esiste uno ed un sol riferimento R' tale che B è la matrice di passaggio da R' ad R. Dimostrazione. Sia R = (e 1, e 2,, e n ). Indichiamo con e' 1, e' 2,, e' n gli n vettori le cui componenti in R sono nell ordine le n colonne della matrice B. Essendo B invertibile, le sue colonne sono indipendenti; ne segue, per l isomorfismo coordinato associato al riferimento R, che (e' 1, e' 2,, e' n ) è un riferimento di V n. Indichiamo con R' tale riferimento. Per come sono stati costruiti i vettori e i ', è evidente che B è proprio la matrice di passaggio da R' a R. Se poi R'' è un riferimento di V n tale che B è matrice di passaggio da R'' ad R, allora dalla definizione di matrice di passaggio tra due riferimenti segue che R'' coincide con R'. Siano A e A' due matrici quadrate di ordine n. Si dice che A è simile ad A' se esiste una matrice invertibile P di ordine n tale che P -1 A P = A'. Osserviamo che: - ogni matrice quadrata A è simile a se stessa ( detto n l ordine di A, basta scegliere come matrice P la matrice identica I n ); - se A è simile ad A', allora A' è simile ad A ( infatti, se P -1 A P = A', allora A = P A' P -1 = (P -1 ) -1 A' P -1 ). Si può inoltre provare che - se A è simile ad A' ed A' è simile ad A'', allora A è simile ad A''. Per quanto detto, la relazione di similitudine tra matrici quadrate dello stesso ordine è una relazione di equivalenza. Siamo ora in grado di provare che : 107
Proposizione 4.8. Sia f un endomorfismo di V n e siano R ed R' due riferimenti di V n. Detta A la matrice associata ad f in R ed A' la matrice associata ad f in R', allora A ed A' sono simili. Precisamente, A' = B -1 A B, dove B è la matrice di passaggio da R' ad R. Dimostrazione. Sia v V n. Indichiamo con X la matrice colonna delle componenti di v in R e con X' la matrice colonna delle componenti di v in R'; analogamente, indichiamo con Y ed Y' le matrici colonna delle componenti di f(v) rispettivamente in R ed R'. Essendo B la matrice di passaggio da R' ad R, per la (8.2) del Capitolo II si ha : (4.1) X = BX', Y = BY'. Per la (i) della Proposizione 4.2 è Y = AX da cui, per la (4.1), BY' = A( BX') = (AB)X'. Moltiplicando a sinistra per B -1 entrambi i membri di quest ultima relazione, si ha : B -1 ( BY') = B -1 (ABX') cioè (B -1 B)Y' = (B -1 AB)X' da cui, essendo B -1 B = I n, si ha Y'= (B -1 AB) X'. Per la (ii) della Proposizione 4.2 è allora A' = B -1 AB. 108