CAPITOLO IV RISOLUZIONE DEI SISTEMI LINEARI COL METODO DEI DETERMINANTI



Documenti analoghi
Esempio. L immagine di f è l insieme dei vettori w = (w 1, w 2 ) R 2 che hanno w 1 = w 2. Quindi:

CORSO DI ALGEBRA (M-Z) Prof. A. Venezia

Pagine di Algebra lineare. di premessa al testo Pagine di Geometria di Sara Dragotti. Parte terza: SISTEMI LINEARI

CORSO DI ALGEBRA LINEARE Anno Accademico 2004/2005 Appunti su SISTEMI di EQUAZIONI LINEARI

GEOMETRIA 1 terza parte

Elementi di Algebra Lineare Applicazioni lineari

APPLICAZIONI LINEARI

APPLICAZIONI LINEARI

SISTEMI LINEARI MATRICI E SISTEMI 1

Federica Gregorio e Cristian Tacelli

APPLICAZIONI. Im f = {b B a A tale che f (a) = b}.

Istituzioni di Matematica I. Esercizi su sistemi lineari. & % x + y " #z = "1 & '#x " y+ z =1

APPLICAZIONI LINEARI O OMOMORFISMI

UNIVERSITÀ DEGLI STUDI DI TERAMO FACOLTÀ DI SCIENZE POLITICHE CORSO DI LAUREA IN ECONOMIA BANCARIA FINANZIARIA ED ASSICURATIVA

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n

UNIVERSITÀ DEGLI STUDI DI TERAMO FACOLTÀ DI SCIENZE POLITICHE CORSO DI LAUREA IN ECONOMIA BANCARIA FINANZIARIA ED ASSICURATIVA

Elementi di Algebra Lineare Matrici e Sistemi di Equazioni Lineari

Esercitazione 6 - Soluzione

Rango di una matrice e teorema di Rouché-Capelli

Corso di Geometria BIAR, BSIR Esercizi 3: soluzioni

Introduzione soft alla matematica per l economia e la finanza. Marta Cardin, Paola Ferretti, Stefania Funari

Matematica discreta 1 [145016]

Note per il corso di Geometria Corso di laurea in Ing. Edile/Architettura. 4 Sistemi lineari. Metodo di eliminazione di Gauss Jordan

Applicazioni lineari e diagonalizzazione. Esercizi svolti

a + 2b + c 3d = 0, a + c d = 0 c d

ESERCIZI DI MATEMATICA DISCRETA ANNO 2006/2007

Registro Lezioni di Algebra lineare del 15 e 16 novembre 2016.

Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof. Fabio Perroni. 3. Sistemi di equazioni lineari

Contenuti aggiuntivi su matrici e determinanti, Dimostrazioni del Capitolo 3

Argomenti trattati nella settimana novembre Il libro cui faccio riferimento, se non specificato altrimenti, è Lang, Algebra lineare

INGEGNERIA EDILE ARCHITETTURA ELEMENTI DI ALGEBRA LINEARE E GEOMETRIA 19 GIUGNO 2012

SISTEMI LINEARI: APPROFONDIMENTI ED ESEMPI

Sistemi di equazioni lineari

Anno Accademico 2016/2017

Note sull algoritmo di Gauss

SISTEMI LINEARI. x 2y 2z = 0. Svolgimento. Procediamo con operazioni elementari di riga sulla matrice del primo sistema: R 2 R 2 3R

A titolo di esempio proponiamo la risoluzione del sistema sia con il metodo della matrice inversa sia con il metodo di Cramer.

Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof. Fabio Perroni. 5. Rango

Corso di Geometria BIAR, BSIR Esercizi 4: soluzioni

LEZIONE 3. Typeset by AMS-TEX

Note per le esercitazioni di Geometria 1 a.a. 2007/08 A. Lotta. Metodi per il calcolo del rango di una matrice

APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof. F.Podestà, a.a

SISTEMI LINEARI. x y + 2t = 0 2x + y + z t = 0 x z t = 0 ; S 3 : ; S 5x 2y z = 1 4x 7y = 3

Esercizi di Geometria Spazi vettoriali e sottospazi - indipendenza lineare

ESEMPIO DI SISTEMA LINEARE CON SOLUZIONE. Esercizio Si consideri il sistema di equazioni lineari dipendente da un parametro λ R:

Soluzioni primi compitini - Geometria 1

LEZIONE 12. Y = f(x) = f( x j,1 f(e j ) = x j,1 A j = AX = µ A (X),

Metodi per la risoluzione di sistemi lineari

Elementi di Algebra Lineare Applicazioni lineari

Sapienza Università di Roma Corso di laurea in Ingegneria Energetica Geometria A.A ESERCIZI DA CONSEGNARE prof.

SOTTOSPAZI E OPERAZIONI IN SPAZI DIVERSI DA R n

Nozioni e notazioni: concetti primitivi di insieme, elemento ed appartenenza.

LEZIONE 21 [ ] D [ ] 1. k n. k m. k n,1 k m,1

Esercizi di geometria per Fisica / Fisica e Astrofisica

A =, c d. d = ad cb. c d A =

r 2 r 2 2r 1 r 4 r 4 r 1

Algebra Lineare. a.a Gruppo A-H. Prof. P. Piazza Soluzioni del compito pomeridiano del 6/12/2004

AUTOVALORI, AUTOVETTORI, AUTOSPAZI

21. (cenni di) Geometria analitica del piano.

(V) (FX) L unione di due basi di uno spazio vettoriale è ancora una base dello spazio vettoriale.

Il teorema di Rouché-Capelli

Si consideri il sistema a coefficienti reali di m equazioni lineari in n incognite

Sistemi lineari 1 / 12

CORSO DI GEOMETRIA APPLICAZIONI LINEARI E MATRICI A.A. 2018/2019 PROF. VALENTINA BEORCHIA

SPAZI VETTORIALI CON PRODOTTO SCALARE A =

Anno Accademico 2017/2018

Corso di Matematica Generale M-Z Dipartimento di Economia Universitá degli Studi di Foggia ALGEBRA LINEARE. Giovanni Villani

Note sui sistemi lineari per il Corso di Geometria per Chimica, Facoltà di Scienze MM.FF.NN., UNICAL (Dott.ssa Galati C.) Rende, 4 Maggio 2010

INGEGNERIA EDILE ARCHITETTURA ELEMENTI DI ALGEBRA LINEARE E GEOMETRIA 17 SETTEMBRE 2012

Esercizi di MATEMATICA PER RCHITETTURA prima parte: Algebra Lineare e Geometria

UNIVERSITÀ DEGLI STUDI ROMA TRE Corso di Laurea in Matematica GE110 - Geometria 1 a.a Prima prova di esonero TESTO E SOLUZIONI

ESERCIZI DI ALGEBRA LINEARE. Vincenzo Di Gennaro

0.1 Soluzioni esercitazione IV, del 28/10/2008

Esempi. In R 2, le coppia (2, 5) è combinazione lineare dei vettori (0, 1) e (1, 1). Infatti:

Sistemi lineari - Parte Seconda - Esercizi

FONDAMENTI DI ALGEBRA LINEARE E GEOMETRIA INGEGNERIA CHIMICA E DEI MATERIALI 27 GIUGNO 2016

Esercizi svolti. risolvere, se possibile, l equazione xa + B = O, essendo x un incognita reale

Le risposte vanno giustificate con chiarezza. 1) Nello spazio vettoriale V delle matrici 2 2 a coefficienti reali, considera le matrici A 1 = , A 4 =

LEZIONE 5. AX = 0 m,1.

1. [15 punti] Calcolare il rango della seguente matrice a coefficienti reali: ( 1/2) 1 (1/2)

APPUNTI DI ALGEBRA LINEARE

NOME COGNOME MATRICOLA CANALE

CORSO DI MATEMATICA II Prof. Paolo Papi ESERCIZI. 1). Stabilire quali dei seguenti sottoinsiemi di V sono sottospazi vettoriali. (a) V = R 3.

Forme bilineari simmetriche

INGEGNERIA EDILE ARCHITETTURA ELEMENTI DI ALGEBRA LINEARE E GEOMETRIA 25 FEBBRAIO a a. A a = 1 a 0

ESERCIZI DI ALGEBRA LINEARE. Vincenzo Di Gennaro

p(ϕ) = a 0 Id + a 1 ϕ + + a n ϕ n,

LEZIONE 2. ( ) a 1 x 1 + a 2 x a n x n = b, ove a j, b R sono fissati.

Lezioni di Algebra Lineare V. Autovalori e autovettori

UN BREVE VIAGGIO ATTRAVERSO GLI SPAZI VETTORIALI 1

Capitolo 3 Matrici. Marco Robutti. Facoltà di ingegneria Università degli studi di Pavia. Anno accademico

4 Autovettori e autovalori

Algebra lineare. {ax 2 + bx + c R 2 [x] : 2a + 3b = 1} a b c d. M(2, 2) : a + c + d = 2. a b. c d

DIARIO DEL CORSO DI MATHEMATICS FOR DATA SCIENCE TRENTO, A.A. 2018/19 DOCENTI: ANDREA CARANTI, SIMONE UGOLINI

Prima prova in itinere di Geometria (Corso di laurea in Fisica, Canali A-C e D-O) Prof. Barucci e Piccinni 29 novembre 2011

SPAZI EUCLIDEI, APPLICAZIONI SIMMETRICHE, FORME QUADRATICHE

Appunti su Indipendenza Lineare di Vettori

Transcript:

CAPITOLO IV RISOLUZIONE DEI SISTEMI LINEARI COL METODO DEI DETERMINANTI 1. REGOLA DI CRAMER Sia S un sistema lineare di n ( 2) equazioni in n incognite su un campo K : a 11 x 1 + a 12 x 2 + + a 1n x n = b # 1 " # a n1 x 1 + a n2 x 2 + + a nn x n = b n e sia A la matrice dei coefficienti delle incognite del sistema S. Proviamo che Proposizione 1.1. Se A 0, (y 1, y 2,, y n ), dove il sistema S ammette un'unica soluzione y i = A i A, essendo A i la matrice ottenuta da A sostituendo la i-esima colonna con la colonna dei termini noti. Dimostrazione. Per la Proposizione 4.1 del Capitolo III, A è invertibile. Con le notazioni usate nel Paragrafo 4 del Capitolo I, scriviamo il sistema nella forma AX = B e osserviamo che : (y 1, y 2,..., y n ) K n è soluzione di S AY = B A -1 (AY) = A -1 B (A -1 A)Y = A -1 B Y = A -1 B. Abbiamo così provato che esiste una e una sola n-upla (y 1, y 2,..., y n ) soluzione di S e che in essa l elemento y i è 74

1 A (A b + A b +... + A b 1i 1 2i 2 ni n ) (cfr. Proposizione 4.1 del Capitolo III). L asserto è così provato. Nell'ipotesi della Proposizione 1.1, il sistema S è detto sistema di Cramer e la regola indicata per determinarne l'unica soluzione è detta regola di Cramer. Osserviamo esplicitamente che dalla Proposizione 5.1 segue immediatamente il seguente Corollario 1.2. Se il sistema S è indeterminato o incompatibile, allora A = 0. ESEMPI 1.1. Determiniamo l'unica soluzione del seguente sistema di Cramer sul campo 2x 1 - x 2 + x 3 = 3 # reale: S = " x 1 + x 2 = 0. # x 2 - x 3 = 1 Si ha : A = 2-1 1 1 1 0 0 1-1 = -2, A 1 = 3-1 1 0 1 0 1 1-1 = -4, A 2 = 2 3 1 1 0 0 0 1-1 = 4 e A 3 = (2, -2, -3). 2-1 3 1 1 0 0 1 1 = 6. L'unica soluzione del sistema S è allora (y 1, y 2, y 3 ) = 75

2. COMPATIBILITA DI UN SISTEMA LINEARE Sia S un sistema lineare di m equazioni in n incognite su un campo K : " a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 #. % a m1 x 1 + a m2 x 2 + + a mn x n = b m Indicate con A ed A rispettivamente la matrice incompleta e quella completa di S, proviamo che: Proposizione 2.1. Si ha : (i) S è compatibile se, e solo se, r(a) = r(a ) ( Teorema di Rouché - Capelli); (ii) S è determinato se, e solo se, r(a) = r(a ) = n; (iii) S è indeterminato se, e solo se, r(a) = r(a ) < n. Dimostrazione. Per quanto detto nel Capitolo I esiste un sistema a gradini S senza equazioni identiche equivalente ad S e, per la (3.3) del Capitolo III, r(a) = numero p dei pivot della matrice incompleta di S e r(a ) = numero p dei pivot della matrice completa di S. L asserto segue allora dalla (4.7) del Capitolo I. Vogliamo ora dare un altra dimostrazione del Teorema di Rouché-Capelli, basata sul metodo dei determinanti. Indicata con b la colonna dei termini noti del sistema S, cominciamo col provare la seguente 76

Proposizione 2.2. S è compatibile se, e soltanto se, b dipende da a 1, a 2,..., a n. Dimostrazione. S è compatibile S ammette almeno una soluzione (h 1, h 2,..., h n ) K n : " a 11 h 1 + a 12 h 2 + + a 1n h n = b 1 # % a m1 h 1 + a m2 h 2 + + a mn h n = b m (h 1, h 2,..., h n ) K n : h 1 a 1 + h 2 a 2 +... + h n a n = b b dipende da a 1, a 2,..., a n. Teorema 2.3 (di Rouché - Capelli). S è compatibile se, e soltanto se, le matrici A e A hanno lo stesso rango. Dimostrazione. Ricordiamo che il rango di una matrice è anche la dimensione del sottospazio generato dalle sue colonne (cfr. Capitolo III, Paragrafo 3). Si ha allora : S è compatibile (per la Proposizione 2.2) b dipende da a 1, a 2,..., a n (per quanto visto nel corso della dimostrazione della Proposizione 5.1 del Capitolo II) L (a 1, a 2,..., a n, b) = L (a 1, a 2,..., a n ) dim L(a 1, a 2,..., a n, b) = dim L (a 1, a 2,..., a n ) r(a) = r(a ). 3. DETERMINAZIONE DELLE SOLUZIONI DI UN SISTEMA LINEARE COL METODO DEI DETERMINANTI Sia S un sistema lineare di m equazioni in n incognite su un campo K. Indicate con A ed A' rispettivamente la matrice incompleta e quella completa di S, poniamo r(a) = p e r(a') = p' e supponiamo che sia p = p', ovvero che il sistema sia compatibile (cfr. Proposizione 2.1 (i)). Osserviamo che, essendo p = p', ogni minore fondamentale di A lo è anche di A'. Consideriamo un tale minore; senza ledere la generalità, supponiamo che esso sia il minore individuato dalle prime p righe e dalle prime p colonne di A. Essendo A (1,...,p;1,...,p) un minore 77

fondamentale anche di A', dal Teorema degli orlati (Paragrafo 3 del Capitolo III) segue che le righe a' p+1,..., a' m di A' dipendono dalle righe a' 1,..., a' p. D altra parte è immediato verificare che, se in un sistema S un equazione dipende dalle rimanenti (nel senso che la corrispondente riga della matrice completa di S dipende dalle rimanenti righe), allora il sistema S è equivalente al sistema ottenuto da esso cancellando l equazione che dipende dalle altre. In definitiva, si ha che S è equivalente al sistema S' formato dalle sole prime p equazioni di S (corrispondenti alle righe della matrice completa di S che contribuiscono a formare il minore fondamentale considerato). Distinguiamo i due casi p = p' = n e p = p' < n. - Sia p = p' = n. Il sistema S' è un sistema di Cramer e dunque esso ammette una e una sola soluzione che si può determinare con la regola di Cramer. - Sia p = p' < n. Scriviamo il sistema S' portando a secondo membro i termini i cui coefficienti non sono intervenuti a formare il minore fondamentale considerato: " a 11 x 1 +...... + a 1p x p = b 1 - a 1 p+1 x p+1 - - a 1 n x n #. a p-1 1 x 1 +... + a p-1 p-1 x p-1 + a p-1 p x p = b p-1 - a p-1 p+1 x p+1 - - a p-1 n x n % a p1 x 1 +...... + a p p x p = b p - a p p+1 x p+1 - - a p n x n Comunque si scelgano n-p elementi h p+1,, h n in K, per il caso precedente esiste una ed una sola soluzione del sistema in cui le incognite x p+1,, x n assumono rispettivamente i valori h p+1,, h n e tale soluzione si può determinare con la regola di Cramer. Al variare di h p+1,, h n in K otteniamo in tal modo tutte le soluzioni di S' e dunque di S. 78

ESEMPI Studiamo i seguenti sistemi lineari sul campo reale mantenendo le notazioni fin qui usate : " x 1 + x 2-2x 3 - x 4 = 5 2x 1 + x 3-2x 4 = -1 3.1. S = #-x 1 + x 2-3x 3 + x 4 = 6 2x 2 + 3x 4 = 9 % x 1 - x 2-2x 3 = 0 1 1-2 -1 2 0 1-2 Un minore fondamentale di entrambe le matrici di S è. Ne segue 0 2 0 3 1-1 - 2 0 che r(a) = r(a') = 4 = n. Il sistema è dunque compatibile e determinato. Poiché le righe che sono intervenute a formare il minore fondamentale considerato sono la prima, seconda, quarta e quinta, allora S è equivalente al sistema " x 1 + x 2-2x 3 - x 4 = 5 2x 1 + x 3-2x 4 = -1 S' = # ottenuto da esso cancellando la terza equazione. Il 2x 2 + 3x 4 = 9 % x 1 - x 2-2x 3 = 0 sistema S' è di Cramer e l unica sua soluzione è (1, 3, -1, 1). "-x 1 - x 2 + 3x 3 +2x 4 + x 5 = 1 3.2. S = # x 1 + x 2 - x 4 = 0 % x 1 + x 2 +2x 3 + 2x 4 + 3x 5 = 0 79

Un minore fondamentale di entrambe le matrici di S è -1 3 2 1 0-1 1 2 2. Ne segue che r(a) = r(a') = 3 < n = 5. Il sistema è dunque compatibile ma non determinato e le sue soluzioni dipendono da due parametri reali. Poiché le colonne che sono intervenute a formare il minore fondamentale considerato sono la prima, terza e quarta, allora le incognite cui si può attribuire valore arbitrario sono la seconda e la "-x 1 + 3x 3 +2x 4 = 1 + x 2 - x 5 quinta. Scriviamo dunque il sistema nella forma # x 1 - x 4 = - x 2 % x 1 +2x 3 + 2x 4 = - x 2-3x 5 ottenuta portando a secondo membro i termini contenenti la x 2 e la x 5. Considerati due numeri reali h 2 e h 5, esiste un unica soluzione di S in cui le incognite x 2 e x 5 assumono i valori h 2 e h 5 ; i valori che assumono le rimanenti incognite in tale soluzione si ottengono risolvendo il sistema di Cramer "-x 1 + 3x 3 +2x 4 = 1 + h 2 - h 5 # x 1 - x 4 = - h 2 % x 1 +2x 3 + 2x 4 = - h 2-3h 5 soluzioni del sistema S risulta essere { " - 2 + 7h + 7h 2 5 # 7, h 2, 3 7, - 2 + 7h 5 7 nelle 3 incognite x 1, x 3 e x 4. L insieme delle %, h 5 ', h 2, h 5 R }. & 3.3. Consideriamo il seguente sistema parametrico S = con t parametro reale. " x 1 +tx 2 - x 3 = t # x 1 - tx 4 = 0 % 2x 2 - x 3 + tx 4 = 0 80

" 1 t -1 0 t % ' La matrice completa del sistema è A' = 1 0 0 - t 0. Il minore A (1,3;1,3) = ' # 0 2-1 t 0& 1-1 0-1 è diverso da zero ed il suo orlato mediante la seconda riga e la seconda colonna è A (1,2,3;1,2,3) = 1 t -1 1 0 0 0 2-1 t = 2. Esaminiamo i due casi t 2 e t = 2. = t-2 che è uguale a zero se, e solo se, Sia t 2. L orlato A (1,2,3;1,2,3) è un minore fondamentale sia della prima che della seconda matrice di S e dunque in tal caso risulta r(a) = r(a') = 3 < n = 4. Il sistema è dunque compatibile ed ammette infinite soluzioni che dipendono da un unico parametro reale. Poiché le colonne che sono intervenute a formare il minore fondamentale considerato sono la prima, seconda e terza, allora l incognita cui si può attribuire valore arbitrario è la x 4. Scriviamo allora il sistema nella forma " x 1 +tx 2 - x 3 = t # x 1 = t x 4. Per ogni numero reale h 4 esiste un unica soluzione di S in cui % 2x 2 - x 3 = - t x 4 l incognita x 4 assume il valore h 4 ; i valori che assumono le rimanenti incognite in tale soluzione si ottengono risolvendo il sistema di Cramer " x 1 +tx 2 - x 3 = t # x 1 = t h 4 % 2x 2 - x 3 = - t h 4 nelle 3 incognite x 1, x 2 e x 3. Per ogni t 2, l insieme delle soluzioni del sistema S risulta essere )" * t h 4, + # t t - 2, t 2 h 4 + 2t(1- h 4 ) %,, h 4 ', h 4 ( R - t - 2 &.. 81

" x 1 +2x 2 - x 3 = 2 Esaminiamo ora il caso t = 2. Il sistema diventa # x 1-2x 4 = 0 e la sua % 2x 2 - x 3 + 2x 4 = 0 " 1 2-1 0 2% ' matrice completa è A' = 1 0 0-2 0. Poichè gli orlati del minore non nullo 0 2-1 2 0 ' # & A (1,2;1,2) mediante la terza riga e rispettivamente la terza e la quarta colonna sono entrambi uguali a zero, allora A (1,2;1,2) è un minore fondamentale della matrice incompleta A e dunque r(a) = 2. Poiché invece in A' l orlato di A (1,2;1,2) mediante la seconda riga e la quinta colonna è diverso de zero, allora r(a') = 3. Ne segue che per t = 2 il sistema è incompatibile. 3.4. Consideriamo il seguente sistema parametrico S = con t ed s parametri reali. " x 1 - x 2 +tx 3 - sx 4 = 0 # x 2 +tx 3 = 0 % x 1 + x 2 +tx 3 + sx 4 = 0 Osserviamo che, poiché il sistema è omogeneo per ogni t ed s, esso è sempre " 1-1 t - s % ' compatibile. La matrice incompleta del sistema è A = 0 1 t 0. Il minore ' # 1 1 t s & A (1,2;1,2) = 1-1 è diverso da zero ed il suo orlato mediante la terza riga e la 0 1 1-1 t terza colonna è A (1,2,3;1,2,3) = 0 1 t = -2t che è uguale a zero se, e solo se, 1 1 t t = 0. Esaminiamo i due casi t 0 e t = 0. Sia t 0. L orlato A (1,2,3;1,2,3) è un minore fondamentale sia della prima che della seconda matrice di S e dunque r(a) = r(a') = 3 < n = 4. Per ogni t 0 e per 82

ogni s il sistema ammette infinite soluzioni che dipendono da un unico parametro reale. Poiché le colonne che sono intervenute a formare il minore fondamentale considerato sono la prima, seconda e terza, allora l incognita cui si può attribuire valore arbitrario h 4 è la x 4. " x 1 - x 2 - sx 4 = 0 Sia ora t = 0. Il sistema diventa # x 2 = 0 con il solo parametro s. La % x 1 + x 2 + sx 4 = 0 matrice incompleta del sistema è A = " 1-1 0 - s % ' 0 1 0 0. Il minore A (1,2;1,2) = ' # 1 1 0 s & 1-1 è diverso da zero ed il suo orlato mediante la terza riga e la quarta colonna 0 1 è 2s. Ne segue che per s 0 è r(a) = 3 < n = 4 e dunque il sistema ammette infinite soluzioni che si possono ottenere attribuendo all incognita x 3 valore arbitrario. Se invece s = 0, il minore A (1,2;1,2) è fondamentale e il sistema è equivalente al sistema che si ottiene da esso cancellando l ultima equazione e le sue soluzioni dipendono da due parametri reali (le incognite cui si possono attribuire valori arbitrari sono la x 3 e la x 4 ). 83

CAPITOLO V APPLICAZIONI LINEARI 1. DEFINIZIONE E PRIME PROPRIETA' Nel presente capitolo gli spazi vettoriali considerati saranno da intendersi tutti come spazi vettoriali su uno stesso campo K. Siano V e V' due spazi vettoriali. Un'applicazione f : V V' si dice lineare se sono verificate le seguenti due proprietà: (1.1) v, w V, f(v + w) = f(v) + f(w); (1.2) h K e v V, f(hv) = h f(v). ESEMPI 1.1. Proviamo che l'applicazione f : (x, y) R 2 (x, x + y, y) R 3 è lineare. Siano v = (x, y) e w = (x', y') due vettori di R 2. E' v + w = (x+x', y+y') e quindi si ha: f(v + w) = f(x+x', y+y') = (x+x', x+x'+y+y', y+y'). Poiché f(v) + f(w) = f(x, y) + f(x', y') = (x, x+y, y) + (x', x'+ y', y') = (x+x', x+y+x'+y', y+y'), allora f(v + w) = f(v) + f(w) e la (1.1) è così verificata. Sia ora h un numero reale e sia v = (x, y) un elemento di R 2. E' hv = h(x, y) = (hx, hy) e quindi si ha: f(hv) = f(hx, hy) = (hx, hx+hy, hy). Poiché hf(v) = h(x, x+y, y) = (hx, h(x+y), hy) = (hx, hx+hy, hy), allora f(hv) = h f(v) e la (1.2) è anch'essa verificata. L'applicazione f è dunque lineare. 1.2. Proviamo che l'applicazione f : (x, y) R 2 (x, 0) R 2 è lineare. 84

Siano v = (x, y) e w = (x', y') due vettori di R 2. E' v + w = (x+x', y+y') e quindi si ha: f(v + w) = f(x+x', y+y') = (x +x', 0). Poiché f(v) + f(w) = (x, 0) + (x', 0) = (x + x', 0), allora la (1.1) è verificata. Sia ora h un numero reale e sia v = (x, y) un elemento di R 2. E' hv = h(x, y) = (hx, hy) e quindi si ha: f( hv ) = (hx, 0). Poiché h f(v) = h(x, 0) = (hx, 0), anche la (1.2) è verificata. L'applicazione f è dunque lineare. 1.3. Proviamo che l'applicazione f : (x, y, z) R 3 (2x -1, x-3z ) R 2 non è lineare. Siano v = (x, y, z) e w = (x', y', z') due vettori di R 3. E' v + w = (x+x', y+y', z+z') e quindi si ha: f(v + w) = (2(x+x') - 1, x+x' - 3(z+z')) = (2x+2x'-1, x+x'-3z-3z'). Risulta f(v) + f(w) = (2x-1, x-3z) + (2x'-1, x'-3z') = (2x+2x'-2, x-3z+x'-3z'). Si ha quindi f(v + w) f(v) + f(w), per cui la (1.1) non è verificata. L'applicazione f non è dunque lineare. 1.4. Indichiamo con id V l'applicazione identica di V, ovvero l'applicazione di V in sé che associa ad ogni vettore di V se stesso: id V : v V v V. Si verifica immmediatamente che id V è lineare. 1.5. Si dice applicazione nulla di V in V' l'applicazione f che associa ad ogni vettore di V il vettore nullo di V': f : v V 0 V' V'. Si verifica immmediatamente che f è lineare. 85

1.6. Siano V, V' e V'' tre spazi vettoriali su K e siano f : V V' e g : V' V'' due applicazioni lineari. Si verifica immediatamente che l applicazione composta g o f : v V g(f(v)) V'' è lineare. 1.7. Sia A K m,n. Identificando, per ogni n, il vettore numerico (x 1, x 2,, x n ) K n con la matrice colonna X = x 1 # & # x 2 & # & #. & K n,1, consideriamo l'applicazione # &. # & " % x n F A : X K n AX K m. Usando le proprietà del prodotto righe per colonne tra matrici (cfr. Capitolo I, Paragrafo 3) si ha che : X, Y K n, A(X + Y) = AX + AY e quindi F A è lineare. e h K e X K n, A(hX) = h(ax) Osserviamo esplicitamente che F A si può scrivere nel seguente modo : F A : (x 1, x 2,, x n ) K n (a 11 x 1 + a 12 x 2 +... + a 1n x n, a 21 x 1 + a 22 x 2 +... + a 2n x n,..., a m1 x 1 + a m2 x 2 +... + a mn x n ) K m. 1.8. Si prova facilmente che le seguenti applicazioni sono lineari: 2x y + z f : (x, y, z) R 3 # & R 2,2 ; " x - z y % g : ax 2 + bx + c R 2 [x] 2ax + b R 1[x] ; h : ( x, y, z) R 3 (2x +y-5z, x-3z, x-y) R 3, mentre le seguenti altre non lo sono: p : (x, y) R 2 ( x 2, x - y, 0) R 3 ; a b a a + b q : # & R 2,2 # & R " c d% " 2 c 2,2. % 86

Un'applicazione lineare è detta anche trasformazione (o funzione) lineare oppure omomorfismo. Proposizione 1.1. Sia f : V V' un'applicazione lineare. Si ha: (i) h, k K e v, w V, f( hv + kw ) = h f(v) + k f(w); (ii) f ( 0 V ) = 0 V'. Dimostrazione. Si ha: f(hv + kw) = ( per la (1.1)) f(hv) + f(kw) = ( per la (1.2)) h f(v) + k f(w). E' così provata la (i). Poiché 0 V = 0 0 V, dalla (1.2) segue che f (0 V ) = f (0 0 V ) = 0 f(0 V ) = 0 V'. Si ha così la (ii). La (i) della Proposizione 1.1 si estende ad una qualunque combinazione lineare di vettori di V. Si ha cioè : (1.3) h 1, h 2,, h t K e v 1, v 2,, v t V, f(h 1 v 1 + h 2 v 2 + + h t v t ) = h 1 f(v 1 ) + h 2 f(v 2 ) + + h t f(v t ). Proposizione 1.2. Sia f : V V' un'applicazione linearee sia S = { v 1,, v t } un sistema di vettori di V. Si ha: (i) Se S è linearmente dipendente, allora il sistema f(s) = { f(v 1 ),, f(v t ) } V' è linearmente dipendente (f conserva la dipendenza lineare) ; (ii) se v L(S), allora f(v) L(f(S)). Dimostrazione. (i) Per ipotesi esistono t scalari h 1, h 2,, h t non tutti nulli tali che h 1 v 1 + h 2 v 2 + + h t v t = 0 V. Applicando la f ad entrambi i membri si ottiene : f(h 1 v 1 + h 2 v 2 + + h t v t ) = f(0 V ) = (per la (ii) della Proposizione 1.1) 0 V'. Ne segue, per la (1.3), che h 1 f(v 1 ) + h 2 f(v 2 ) + + h t f(v t ) = 0 V'. Poiché gli scalari h 1, h 2,, h t non sono tutti nulli, i vettori f(v 1 ),, f(v t ) sono dipendenti. 87

(ii) Segue immediatamente dalla (1.3). D'ora in avanti indicheremo con 0 sia il vettore nullo di V che quello di V'; il lettore capirà dal contesto a quale dei due vettori nulli ci si riferisce. Proposizione 1.3. Sia f : V V' un'applicazione lineare. Per ogni sottospazio W di V, f(w) è un sottospazio di V'. Inoltre, se W = L(v 1, v 2,, v t ), risulta f(w) = L (f(v 1 ), f(v 2 ),, f(v t )). Dimostrazione. Essendo W, è f(w). Cominciamo a provare che f(w) è stabile rispetto alle operazioni di V'. Siano v', w' f(w). Esistono allora v, w W tali che v' = f(v) e w' = f(w). Poiché f è lineare, v' + w' = f(v) + f(w) = f(v + w); inoltre, essendo W un sottospazio di V, v + w W. Il vettore v' + w' è dunque immagine mediante f di un vettore di W; da ciò v' + w' f(w). Sia ora h K e v' f(w). Diciamo v un vettore di W tale che f(v) = v'. Essendo f lineare, hv' = hf(v) = f(hv); essendo W un sottospazio di V, hv W. Ne segue che hv' f(w). Il sottoinsieme f(w) di V' è dunque stabile rispetto alle operazioni di V' e quindi è un sottospazio di V'. Sia ora W generato da v 1, v 2,, v t. I vettori f(v 1 ),, f(v t ) sono in f(w) e quindi anche tutte le loro combinazioni lineari sono in f(w) (cfr. Osservazione 2.1 del Cap. II). E' dunque L(f(v 1 ),, f(v t )) f(w). Per ogni vettore v' f(w), esiste un vettore v W tale che v' = f(v). Poiché v W = L(v 1, v 2,, v t ), dalla (ii) della Proposizione 1.2 segue che v' L(f(v 1 ),, f(v t )). Si ha così che f(w) L(f(v 1 ),, f(v t )). Dalla doppia inclusione segue f(w) = L(f(v 1 ),, f(v t )). L asserto è così completamente provato. Chiudiamo il presente paragrafo provando il seguente teorema che fornisce un metodo per costruire applicazioni lineari. 88

Teorema 1.4 (di esistenza e unicità di un applicazione lineare). Sia V di dimensione finita n e sia B = {e 1, e 2,..., e n } una sua base. Fissati arbitrariamente n vettori w 1, w 2,..., w n in V', esiste una ed una sola applicazione lineare f di V in V' tale che f(e i ) = w i, per ogni i = 1,..., n. Dimostrazione. Poiché B è una base di V, ogni vettore v V si può scrivere in unico modo come combinazione lineare dei vettori di B. Si può allora considerare l applicazione f : v = x 1 e 1 + x 2 e 2 +...+ x n e n V x 1 w 1 + x 2 w 2 +...+ x n w n V'. Si verifica subito che f è lineare. Poiché inoltre e i = 0e 1 +... + 1e i +... + 0e n, allora f(e i ) = w i, per ogni i = 1,..., n. Sia ora g un applicazione lineare di V in V' tale che g(e i ) = w i, per ogni i. Proviamo che f = g cioè che, v V, f(v) = g(v). Sia v = x 1 e 1 + x 2 e 2 +...+ x n e n V. Poiché g è lineare, g(v) = x 1 g(e 1 ) +x 2 g(e 2 ) +...+ x n g(e n ) = x 1 w 1 + x 2 w 2 +... + x n w n = f(v). Osserviamo esplicitamente che dal Teorema 1.4 segue in particolare che Corollario 1.5. Sia f : V V' un'applicazione lineare. Se V ha dimensione finita e sono noti i corrispondenti in f dei vettori di una base di V, allora è possibile determinare il corrispondente in f di ogni vettore di V. ESEMPI 1.9. Determiniamo l unica applicazione lineare f di R 3 in R 2,2 che muta i vettori del riferimento R = ((1, 1, 0), (0, 1, 1), (0, 0, -2)) di R 3 ordinatamente nei vettori " 1 2% " ', 4 5 % " ' e 2 0 % ' di R 2,2. # 0 3& # 7 1& # 0 0& 89

Sia (x, y, z) R 3. Poiché (x, y, z) = x (1, 1, 0) + (-x+y) (0, 1, 1) + -x + y - z 2 (0, 0, -2), allora f(x, y, z) = " x 1 2 % ' + (-x+y) # 0 3& " 4 5% ' + # 7 1& -x + y - z 2 " 2 0% ' = # 0 0& "-4x +5y - z - 3x +5y% '. #-7x + 7y 2x + y & 2. NUCLEO E IMMAGINE Sia f : V V' un'applicazione lineare. Poniamo: Ker f = {v V : f(v) = 0} e Im f = f(v) = { f(v) : v V }. Evidentemente è Ker f V e Im f V'. Proviamo che : Proposizione 2.1. Ker f è un sottospazio di V e Im f è un sottospazio di V'. Dimostrazione. Per la Proposizione 1.3, Im f è un sottospazio di V'. Per provare che Ker f è un sottospazio di V, cominciamo con l'osservare che, per la Proposizione 1.1, 0 Ker f e quindi Ker f. Siano v, w Ker f. Proviamo che v + w Ker f. Poiché f è lineare, f(v + w) = f(v) + f(w). Essendo d'altra parte f(v) = f(w) = 0, allora f(v + w) = 0 e dunque v + w Ker f. Siano ora h K e v Ker f. Poiché f è lineare e f(v) = 0, si ha che f(hv) = hf(v) = h0 = 0. E' dunque hv Ker f. Si è così provato che Ker f è un sottospazio di V. I sottospazi Ker f e Im f sono detti rispettivamente nucleo e immagine dell'applicazione f. 90

Proposizione 2.2. Se V è finitamente generabile e B = { e 1, e 2,, e n } è una base di V, allora Im f = L(f(e 1 ), f(e 2 ),, f(e n )). Dimostrazione. Poiché per ipotesi è V = L(e 1, e 2,, e n ), l asserto segue subito dalla Proposizione 1.3. ESEMPI 2.1. Determiniamo nucleo e immagine dell'applicazione lineare dell'esempio 1.1. Ker f = {(x,y) R 2 : (x, x+y, y) = (0, 0, 0)} = {(x, y) R 2 : x = 0, x+y = 0, y = 0} = {(x, y) R 2 : x = 0, y = 0} = {(0, 0)} = {0}. Per la Proposizione 2.2, Im f = L(f(1, 0), f(0, 1)) = L((1, 1, 0), (0, 1, 1)). 2.2. Determiniamo nucleo e immagine dell'applicazione lineare dell'esempio 1.2. Ker f = {(x, y) R 2 : (x, 0) = (0,0)} = {(x, y) R 2 : x = 0 } = {(0, y), con y R } = L((0, 1)). Per la Proposizione 2.2, Im f = L(f(1, 0), f(0, 1)) = L((1, 0), (0, 0)) = L((1, 0)). 2.3. Determiniamo nucleo e immagine dell'applicazione lineare dell'esempio 1.4. Ker id V = {v V : v = 0} = {0}. Evidentemente, Im id V = V. 2.4. Determiniamo nucleo e immagine dell'applicazione lineare dell'esempio 1.5. E' facile rendersi conto che Ker f = V ed Im f = {0}. 2.5. Determiniamo nucleo e immagine dell'applicazione lineare dell'esempio 1.7. Ker F A = { X K n : AX = 0 } (qui 0 indica la matrice nulla di tipo [m, 1] ). Ker F A è dunque il sottospazio di K n costituito dalle soluzioni del sistema omogeneo in n incognite AX = 0. 91

Poniamo ora : X 1 = 1 # & # 0& # & #. &, X 2 = #. & # & " 0% 0 0 # & # & # 1& # 0& # & # & #. &,, X n = #. &. Per la Proposizione 2.2, Im F A = #. & #. & # & # & " 0% " 1% L(F A (X 1 ), F A (X 2 ),, F A (X n )). Poiché F A (X 1 ) coincide con la prima colonna della matrice A, F A (X 2 ) coincide con la seconda colonna di A, e così via fino ad F A (X n ) che coincide con l'n-ma colonna di A, allora Im F A è il sottospazio di K m generato dalle colonne di A. Proposizione 2.3. Si ha : (i) f è suriettiva Im f = V' ; (ii) f è iniettiva Ker f = {0}. Dimostrazione. La (i) non è altro che la definizione di suriettività. Proviamo allora la (ii). Sia dunque f iniettiva. Se v 0 è un vettore di V, allora f(v) f(0) = 0 e quindi v Ker f. Ne segue che Ker f = {0}. Viceversa, supponiamo Ker f = {0}. Se v e w sono due vettori distinti di V, proviamo che f(v) f(w). Supponiamo, per assurdo, f(v) = f(w). Si ha f(v) - f(w) = 0 da cui, per la linearità di f, f(v - w) = 0. Il vettore v w appartiene dunque a Ker f. Essendo Ker f = {0}, è v w = 0, cioè v = w, un assurdo essendo v w. L'asserto è così completamente provato. Proposizione 2.4. Sia f : V V' un'applicazione lineare iniettiva. Se S = {v 1,, v t } V è un sistema indipendente, allora il sistema f(s) = { f(v 1 ),, f(v t ) } V' è indipendente (f conserva l'indipendenza lineare). Dimostrazione. Sia h 1 f(v 1 ) + h 2 f(v 2 ) + + h t f(v t ) = 0. Proviamo che tutti gli scalari sono uguali a zero. Poiché f è lineare, h 1 f(v 1 ) + h 2 f(v 2 ) + + h t f(v t ) = 92

f(h 1 v 1 + h 2 v 2 + + h t v t ) = 0 = f(0). Ne segue, essendo f iniettiva, che h 1 v 1 + h 2 v 2 + + h t v t = 0. Poiché v 1,, v t sono indipendenti, allora h 1 =. = h t = 0. Osserviamo che, se V ha dimensione finita, allora hanno dimensione finita sia Ker f (in quanto sottospazio di uno spazio vettoriale di dimansione finita) che Im f ( per la Proposizione 2.2). Concludiamo il presente paragrafo provando il seguente Teorema 2.5. Se V ha dimensione finita n, si ha : dim Ker f + dim Im f = n. Dimostrazione. Se Ker f = V n, allora evidentemente Im f = {0} e l asserto è vero. Se Ker f = {0}, per la Proposizione 2.3 f è iniettiva. Dalle Proposizioni 2.2 e 2.4 segue allora che ogni base di V n si trasforma mediante f in un sistema indipendente di generatori di Im f, cioè in una base di Im f. Ne segue che dim Im f = n, cioè l asserto. Sia ora Ker f V n e Ker f {0}. Detta B ker = {v 1,, v t } una base di Ker f, completiamo B ker in una base B = {v 1,, v t, v t+1,, v n } di V n. Per la Proposizione 2.2, Im f = L(f(v 1 ),, f(v t ), f(v t+1 ),, f(v n ) ) = L ( f(v t+1 ),, f(v n ) ), essendo f(v 1 ) = = f(v t ) = 0. Proviamo ora che i vettori f(v t+1 ),, f(v n ), che generano Im f, sono indipendenti. Sia h t+1 f(v t+1 ) + + h n f(v n ) = 0. Dalla linearità di f segue che f(h t+1 v t+1 + + h n v n ) = 0. Il vettore h t+1 v t+1 + + h n v n appartiene quindi a Ker f; esso è allora combinazione lineare dei vettori di B ker. Si ha pertanto h t+1 v t+1 + + h n v n = k 1 v 1 + + k t v t per opportuni scalari k 1,, k t, da cui h t+1 v t+1 + + h n v n k 1 v 1 k t v t = 0. Essendo v 1,, v t, v t+1,, v n indipendenti, tutti gli scalari sono nulli; in particolare è h t+1 = = h n = 0, per cui 93

il sistema {f(v t+1 ),, f(v n )} è indipendente e dunque è una base di Im f. Ne segue che dim Im f = n t = n dim Ker f, cioè l asserto. Dal Teorema 2.5 segue facilmente il seguente Corollario 2.6. Se dim V = dim V', allora f è iniettiva f è suriettiva. 3. ISOMORFISMI Un'applicazione lineare f : V V' è detta isomorfismo se essa è biettiva (ovvero iniettiva e suriettiva). E' facile provare che, se f : V V' è un isomorfismo, anche l'applicazione inversa f -1 : V' V è un isomorfismo e che l applicazione composta di due isomorfismi è ancora un isomorfismo. Due spazi vettoriali si dicono isomorfi se esiste un isomorfismo tra essi. ESEMPI 3.1. Sia V uno spazio vettoriale. L'applicazione identica id V di V è lineare, iniettiva e suriettiva. Essa è dunque un isomorfismo. 3.2. Consideriamo l'applicazione f : a b # & K " c d 2,2 (a, b, c, d) K 4. E' facile % verificare che f è lineare. Determiniamo ora il nucleo e l'immagine di f. Si ha : Ker f = { a b # & K " c d 2,2 : (a, b, c, d) = (0, 0, 0, 0) } = { 0 0 # & } = {0}. Per la % " 0 0% Proposizione 2.3, f è iniettiva e quindi, essendo dim K 2,2 = 4 = dim K 4, per il Corollario 2.6 f è anche suriettiva. L'applicazione f è allora un isomorfismo. 94

3.3. Consideriamo l omomorfismo f : (x, y, z) R 3 (2x+y-z, y+z, 3z) R 3. Per la Proposizione 2.2, Im f = L(f(1, 0, 0), f(0, 1, 0), f(0, 0, 1)) = L((2, 0, 0), (1, 1, 0), (-1, 1, 3)). Poiché i tre vettori che generano Im f sono indipendenti, si ha che dim Im f = 3 = dim R 3 ; da ciò segue che Im f = R 3 e quindi f è suriettiva. Dal Corollario 2.6 segue allora che f è un isomorfismo. 3.4. Isomorfismo coordinato associato ad un riferimento. Sia V n uno spazio vettoriale ed R = (e 1, e 2,, e n ) un suo riferimento. Consideriamo l'applicazione c R di V n in K n che ad ogni vettore v V n associa la n-pla ordinata delle sue componenti in R : c R : v = h 1 e 1 + h 2 e 2 + + h n e n V n (h 1, h 2,, h n ) K n. Si prova immmediatamente che l'applicazione c R è lineare. Determiniamo il nucleo e l'immagine di c R. Si ha : Ker c R = { v V n : c R (v) = (0, 0,, 0)} = {0}; Im c R = L(c R (e 1 ), c R (e 2 ),, c R (e n )) = L((1, 0,,0), (0, 1,,0),,(0, 0,, 1)) = K n. Da ciò segue che l'applicazione c R è sia iniettiva che suriettiva e quindi che essa è un isomorfismo tra V n ed K n. Tale isomorfismo è detto isomorfismo coordinato associato al riferimento R (o anche coordinazione di V n associata ad R). Dall'Esempio 3.4 segue che : Osservazione 3.1. Ogni spazio vettoriale di dimensione n sul campo K è isomorfo allo spazio vettoriale numerico K n. Proviamo che : 95

Proposizione 3.1 (Proprietà degli isomorfismi). Sia f : V n V m ' un isomorfismo. Si ha : (i) f conserva la dipendenza e l indipendenza lineare; (ii) per ogni sistema S W di generatori di un sottospazio W di V n, f(s W ) è un sistema di generatori del sottospazio f(w) di V m '; (iii) per ogni base B W di un sottospazio W di V n, f(b W ) è una base del sottospazio f(w) di V m '; (iv) per ogni sottospazio W di V n, dim W = dim f(w); (v) per ogni base B di V n, f(b) è una base di V m ' e dim V n = dim V m '. Dimostrazione. La (i) segue immediatamente dalle Proposizioni 1.2 e 2.4, essendo f una applicazione lineare iniettiva. La (ii) è vera per la Proposizione 1.3. Per provare la (iii), consideriamo una base B W = {v 1,, v t } di W. Per la (ii), f(b W ) = {f(v 1 ), f(v 2 ),, f(v t )} genera f(w); inoltre, per la (i), i vettori f(v 1 ), f(v 2 ),, f(v t ) sono indipendenti. Si ha allora che f(b W ) è una base di f(w). Le (iv) e (v) seguono immediatamente dalla (iii). Poiché, per ogni isomorfismo f, anche f 1 è un isomorfismo, dalla Proposizione 3.1 segue che lo studio di uno spazio vettoriale (dipendenza e indipendenza lineare, sottospazi e loro dimensione, basi) può essere fatto utilizzando uno spazio vettoriale ad esso isomorfo. In particolare, poiché ogni spazio vettoriale di dimensione n su K è isomorfo a K n (cfr. Osservazione 3.1), allora K n costituisce un modello (comodo da utilizzare) di ogni spazio vettoriale V n (K). Proviamo ora che 96

Proposizione 3.2. Siano V e V' di dimensione finita rispettivamente n ed m. Gli spazi V e V' sono isomorfi se, e solo se, n = m. Dimostrazione. Se V e V' sono isomorfi, allora n = m per la (v) della Proposizione 3.1. Sia ora n = m. Detti R = (e 1, e 2,, e n ) un riferimento di V ed R' = (e 1 ', e 2 ',, e n ') un riferimento di V', consideriamo gli isomorfismi coordinati c R : V n K n e c R : V n ' K n associati rispettivamente ad R ed R'. Poiché l applicazione inversa di un isomorfismo è un isomorfismo e l applicazione composta di due isomorfismi è un isomorfismo, allora l applicazione c -1 R o c R (che associa al vettore v = x 1 e 1 + x 2 e 2 +...+ x n e n V il vettore v' = x 1 e 1 '+ x 2 e 2 '+...+ x n e n ' V') è un isomorfismo di V in V'. L asserto è così provato. ESEMPI 3.5. Nello spazio vettoriale R 3[x] sia H = L(x 3 +2x, x-1, 2x 3 +3x+1, x 2 +3x-2). Determiniamo una base e la dimensione del sottospazio H. Consideriamo il riferimento R = (x 3, x 2, x, 1) di R 3[x] e la coordinazione ad esso associata: c R : ax 3 + bx 2 + cx + d R 3[x] (a, b, c, d) R 4. L'immagine di H mediante l'isomorfismo c R è il sottospazio H' = L((1, 0, 2, 0), (0, 0, 1, -1), (2, 0, 3, 1), (0, 1, 3, -2)) di R 4. Ricordando che l'applicazione inversa di c R è anch'essa un isomorfismo, per determinare una base di H basterà determinare una base di H' ( cfr. Proposizione 3.1 ). Scriviamo allora i vettori che generano H' come righe di una matrice, ottenendo così la matrice 1 0 2 0 # & # 0 0 1-1& A= # & ; osserviamo poi che un minore fondamentale di A 2 0 3 1 # " 0 1 3-2 & % 97

è 0 1-1 0 3 1 1 3-2. Per il Teorema degli orlati (Teorema 3.3 del Capitolo III) i vettori (0, 0, 1, -1), (2, 0, 3, 1) e (0, 1, 3, -2) costituiscono una base di H'. Ne segue che i polinomi c R -1 (0, 0, 1, -1) = x - 1, c R -1 (2, 0, 3, 1) = 2x 3 +3x+1 e c R -1 (0, 1, 3, -2) = x 2 +3x-2 costituiscono una base di H che ha quindi dimensione 3. 3.6. Nello spazio vettoriale R 2,2 consideriamo il sistema di vettori S = { 2 1 # &, 0 1 # &, " 0 1% " 1 3% 4 1 # & }. Determiniamo la dimensione del sottospazio L(S). "-1-1% Considerato il riferimento naturale R di R 2,2, sia c R l'isomorfismo coordinato ad esso associato: c R : a b # & R 2,2 ( a, b, c, d) R 4. " c d% L'isomorfismo c R trasforma il sottospazio L(S) di R 2,2 nel sottospazio W = L( (2, 1, 0, 1), (0, 1, 1, 3), (4, 1, -1, -1) ) di R 4 e quindi diml(s) = dimw (cfr. Proposizione 3.1). Poiché, come è facile verificare, dimw = 2, allora diml( S) = 2. 4. MATRICI E APPLICAZIONI LINEARI Sia f : V n V m ' un'applicazione lineare e siano R = (e 1, e 2,, e n ) ed R' = (e 1 ', e 2 ',, e m ') due riferimenti rispettivamente di V n e V m '. Sia inoltre f(e 1 ) = a 11 e 1 ' + a 21 e 2 ' + + a m1 e m ', f(e 2 ) = a 12 e 1 ' + a 22 e 2 ' + + a m2 e m ',, f(e n ) = a 1n e 1 ' + a 2n e 2 ' + + a mn e m '. Per il Corollario 1.5, il corrispondente f(v) di un vettore v di V n è noto non appena si conoscono i corrispondenti in f dei vettori e 1, 98

e 2,, e n. Ne segue che per conoscere f(v) basta conoscere gli scalari a ij ( i = 1,,m ; j = 1,,n). Costruiamo con tali scalari una matrice A ponendo nella prima colonna le componenti in R' di f(e 1 ), nella seconda quelle di f(e 2 ), e così via fino alla colonna n-esima in cui poniamo le componenti in R' di f(e n ). E' dunque " a 11 a 12 a 1n % ' a 21 a 22 a 2n A = '. ' ' # a m1 a m2 a mn & La matrice A di tipo [m, n] così costruita è detta matrice associata ad f nei riferimenti R ed R'. Essa sarà talvolta denotata con M R,R' (f). Per quanto appena detto, la conoscenza della matrice associata ad f in una coppia di riferimenti permette di determinare completamente la f. In particolare, per la Proposizione 2.2, è possibile determinare Imf a partire dalla matrice A. Si ha di più : Proposizione 4.1. Se A è la matrice associata ad f nei due riferimenti R ed R', allora r(a) = dim Imf. Dimostrazione. Per la Proposizione 2.2. è Im f = L(f(e 1 ), f(e 2 ),, f(e n )). D altra parte, per la Proposizione 3.1, la dimensione di L(f(e 1 ), f(e 2 ),, f(e n )) coincide con la dimensione del sottospazio c R (L(f(e 1 ), f(e 2 ),, f(e n )) = L(a 1, a 2,..., a n ) generato dalle colonne di A. Essendo dim L (a 1, a 2,..., a n ) = r(a), allora r(a) = dim Imf. Se V m ' = V n, l'applicazione lineare f di V n in sé è detta endomorfismo di V n. In tal caso, se è anche R' = R, parleremo semplicemente di matrice associata ad f nel riferimento R e scriveremo M R (f). 99

ESEMPI 4.1. Consideriamo l omomorfismo f : (x, y) R 2 (2x - 3y, -x + y, 0) R 3. Considerato il riferimento R = ((1, 1), (2, -1)) di R 2 e il riferimento R' = ((0, 1, 1), (1, 0, 1), (0, 0, 1)) di R 3, determiniamo la matrice A associata ad f nei riferimenti R ed R'. Si ha : f(1, 1) = (-1, 0, 0) = 0(0, 1, 1) -1(1, 0, 1) + 1(0, 0, 1), f(2, -1) = (7, -3, 0) = -3(0, 1, 1) + 7(1, 0, 1) - 4(0, 0, 1). 0-3 # & Ne segue che A = #-1 7& # &. " 1-4% 4.2. Consideriamo l'applicazione lineare dell'esempio 4.1. Fissato il riferimento naturale sia in R 2 che in R 3, determiniamo la matrice B associata ad f in tali riferimenti. Si ha : f(1, 0) = (2, -1, 0) = 2(1, 0, 0) - 1(0, 1, 0) + 0(0, 0, 1), f(0, 1) = (-3, 1,0) = -3(1, 0,0) + 1(0, 1, 0) + 0(0, 0, 1), 2-3 # & Ne segue che B = #-1 1& # &. " 0 0% 4.3. Sia f : R 3 R 2 l'applicazione lineare rappresentata nei riferimenti R = 1 2 0 ((1, 0, 0), (1, 1, 0), (1, 1, 1)) ed R' = ((0, 2), (-1, 1)) dalla matrice A = # &. " 3 1 1% Determiniamo f(1, 0, -1). Dalla definizione di matrice associata ad f in R ed R' segue che: f(1, 0, 0) = 1(0, 2) + 3(-1, 1) = (-3, 5), f(1, 1, 0) = 2(0, 2) + 1(-1, 1) = (-1, 5), 100

f(1, 1, 1) = 0(0, 2) + 1(-1, 1) = (-1, 1). Poiché inoltre è (1, 0, -1) = 1(1, 0, 0) +1(1, 1, 0) - 1(1, 1, 1), allora si ha: f(1, 0, -1) = 1f(1, 0, 0) +1f(1, 1, 0) - 1f(1, 1, 1) = 1(-3, 5) + 1(-1, 5) -1(-1, 1) = (-3, 9). Determiniamo ora f(2, -1, -2). Poiché risulta (2, -1, -2) = 3(1, 0, 0) +1(1, 1, 0) - 2(1, 1, 1), allora si ha: f(2, -1, -2) = 3f(1, 0, 0) +1f(1, 1, 0) - 2f(1, 1, 1) = 3(-3, 5) + 1(-1, 5) -2(-1, 1) = (-8, 18). Determiniamo infine f(x, y, z), per ogni (x, y, z) R 3. Poiché (x, y, z) = (x-y) (1, 0, 0) + (y-z) (1, 1, 0) + z (1, 1, 1), si ha: f(x, y, z) = (x-y) (-3,5) + (y-z) (-1,5) + z (-1,1) = (-3x + 2y, 5x - 4z). 4.4. Sia f : R 2 R 2 l endomorfismo di R 2 rappresentato nel riferimento R = ((0, 1), (1, 1)) dalla matrice A = 1 2 # &. Determiniamo Imf. " 3 1% Dalla definizione di matrice associata ad f in R segue che f(0, 1) = 1(0, 1) + 3(1, 1) = (3, 4); f(1, 1) = 2(0, 1) + 1(1, 1) = (1, 3). Per la Proposizione 2.2 è allora Imf = L((3, 4), (1, 3)) = R 2. D'ora in avanti, quando sarà utile, identificheremo il vettore numerico x 1 # & # x 2 & # & (x 1, x 2,, x n ) K n con la matrice colonna X = #. & K n,1 così come è stato fatto # &. # & " % nell'esempio 1.7. x n 101

Osservazione 4.1. Sia A K m,n. Consideriamo l'applicazione lineare F A : X K n AX K m. E' facile verificare che la matrice associata ad F A nei riferimenti naturali di K n ed K m è proprio A. Proviamo ora che : Proposizione 4.2. Sia f : V n V m ' un'applicazione lineare e siano R un riferimento di V n ed R' un riferimento di V m '. Detta X la matrice colonna delle componenti in R di un vettore v V n ed X' la matrice colonna delle componenti di f(v) in R', si ha: (i) se A K m,n è la matrice associata ad f nei riferimenti R ed R', allora X' = AX, v V n ; (ii) se A K m,n è una matrice tale che, v V n, X' = AX, allora A è la matrice associata ad f nei riferimenti R ed R'. Dimostrazione. Sia R = (e 1, e 2,, e n ) ed R' = (e 1 ', e 2 ',, e m '). Indichiamo con x 1, x 2,..., x n le componenti di v in R, con x 1 ', x 2 ',..., x m ' le componenti di f(v) in R' e con a ij il generico elemento di A. (i) Da v = x 1 e 1 + x 2 e 2 +... + x n e n segue (per la (1.3)) f(v) = x 1 f(e 1 ) + x 2 f(e 2 ) +... + x n f(e n ) = (per la definizione di matrice associata ad f in R ed R') x 1 (a 11 e 1 ' + a 21 e 2 ' + + a m1 e m ') + x 2 (a 12 e 1 ' + a 22 e 2 ' + + a m2 e m ') +... + x n (a 1n e 1 ' + a 2n e 2 ' + + a mn e m ') = (a 11 x 1 + a 12 x 2 +... + a 1n x n ) e 1 ' + (a 21 x 1 + a 22 x 2 +... + a 2n x n ) e 2 ' +... + (a m1 x 1 + a m2 x 2 +... + a mn x n ) e m '. Le componenti di f(v) in R' sono dunque " x 1 '= a 11 x 1 +a 12 x 2 +... +a 1n x n x 2 '= a 21 x 1 +a 22 x 2 +... +a 2n x n #, cioè l asserto....... % x m '= a m1 x 1 +a m2 x 2 +... +a mn x n 102

(ii) Le componenti di e 1 in R sono 1, 0,..., 0; moltiplicando allora la matrice A per il vettore colonna A " 1% ' 0 '. ' '. ' # 0& " =.. # l asserto. a 11 a 21 a m1 " 1% ' 0 '. ' otteniamo le componenti in R' del vettore f(e 1 ). D altra parte '. ' # 0& % ' ' ' e dunque la n-pla delle componenti di f(e 1 ) in R' coincide con la ' ' & prima colonna della matrice A. Un discorso analogo vale per e 2,, e n, da cui Proposizione 4.3. Le applicazioni lineari di K n in K m sono tutte e sole le applicazioni del tipo F A, con A K mn. Dimostrazione. Abbiamo già osservato (cfr. Esempio 1.7) che, per ogni A K mn, l applicazione F A : X K n AX K m è lineare. Viceversa, sia f : K n K m un applicazione lineare. Detta A la matrice associata ad f nei riferimenti naturali di K n e K m, dalla (i) della Proposizione 4.2 segue che f = F A. L asserto è così provato. Osservazione 4.2. Sia f : V n V m ' un'applicazione lineare. Fissato un riferimento R in V n e un riferimento R' in V m ', diciamo A la matrice associata ad f nei riferimenti R ed R'. Dalla Proposizione 4.2 segue che : v Ker f AX = 0, avendo indicato con X la matrice colonna delle componenti di v in R. 103

Osservazione 4.3. Sia AX = 0 un sistema omogeneo di m equazioni in n incognite su K. Per l Osservazione 4.1, A è la matrice associata ad F A nei riferimenti naturali di K n ed K m. Ne segue, per l Osservazione 4.2, che lo spazio H delle soluzioni del sistema coincide con il nucleo di F A. Poiché, per la Proposizione 4.1, dim Im F A = r(a), allora dal Teorema 2.5 segue che dim H = n r(a) = (per la (3.3) del Capitolo III) = n p, essendo p il numero dei pivot di una matrice a gradini equivalente ad A. Abbiamo così anche ottenuto una nuova dimostrazione della Proposizione 6.1 del Capitolo II. ESEMPI 4.5. Sia f : R 3 R 2 l applicazione lineare rappresentata nei riferimenti R = ((1, 0, 1), (1, 1, 0), (0, 1, 1)) ed R' = ((0, 5), (-1, 1)) dalla matrice A = 1 2 4 # &. Determiniamo Ker f. " 2 3 1% Per l Osservazione 4.2, cominciamo col risolvere il sistema omogeneo S = x + 2y + 4z = 0 " # 2x + 3y + z = 0 gradini ad esso equivalente è il sistema avente A come matrice dei coefficienti. Un sistema a x + 2y + 4z = 0 " # - y - 7z = 0 il cui insieme delle soluzioni è {(10z, -7z, z), z R} = L (( 10, -7, 1)). Poiché le soluzioni del sistema S sono tutte e sole le componenti in R dei vettori del nucleo di f, allora Ker f = {10z (1, 0, 1) 7z (1, 1, 0) + z (0, 1, 1), z R } = {(3z, -6z, 11z), z R } = L ((3, -6, 11)). Osserviamo che avremmo potuto ottenere la base {(3, -6, 11)} di Ker f a partire dalla base {(10, -7, 1)} dello spazio delle soluzioni del sistema S utilizzando l isomorfismo coordinato di R 3 associato al riferimento R. Si ha infatti (3, -6, 11) = 10(1, 0, 1) 7(1, 1, 0) + (0, 1, 1). 104

4.6. Sia f : R 2 R 2 l applicazione lineare rappresentata nel riferimento naturale 3-12 R =((1, 0), (0, 1)) dalla matrice A = # &. Determiniamo Ker f. " 6-24% 3x - 12y = 0 Risolviamo il sistema omogeneo S = " avente A come matrice dei # 6x - 24y = 0 coefficienti delle incognite. Tale sistema è ovviamente equivalente all unica equazione 3x 12y = 0 il cui insieme delle soluzioni è {(4y, y), y R } = L (( 4,1)). Le soluzioni del sistema S sono tutte e sole le componenti in R dei vettori del nucleo di f. Poiché una base dello spazio delle soluzioni di S è {(4, 1)}, allora una base di Ker f è 4 (1, 0) + 1 (0, 1) = (4, 1). Ne segue che Ker f = L (( 4,1)). Proposizione 4.4. Siano f : V n V m ' e g : V m ' V s '' due applicazioni lineari e siano R, R' ed R'' riferimenti fissati, rispettivamente in V n, V m ' e V s ''. Posto A = M R,R' (f) e B = M R'R'' (g), è M R,R (g o f) = B A. Dimostrazione. Sia v V n e sia X il vettore colonna delle componenti di v in R. Applicando due volte la (i) della Proposizione 4.2, si ha che AX è il vettore colonna delle componenti di f(v) in R' e B(AX) = (BA)X è il vettore colonna delle componenti di g(f(v)) in R''. L asserto segue allora dalla (ii) della Proposizione 4.2. Un isomorfismo di uno spazio vettoriale in sé è detto automorfismo. Osserviamo che, se f è un automorfismo di uno spazio V di dimensione finita n ed R è un riferimento di V, allora, detta A la matrice che rappresenta f in R, dalla Proposizione 4.1 segue che r(a) = n, cioè che A è invertibile (e quindi A GL(n, K) (cfr. Capitolo III, Paragrafo 4). Inoltre, utilizzando la Proposizione 4.2, si ha subito che, se f -1 è l applicazione inversa di f, allora M R (f -1 ) = A -1. 105

Indichiamo con Aut(V) l insieme degli automorfismi dello spazio vettoriale V. E immediato verificare che Aut(V) è un gruppo rispetto alla composizione tra applicazioni di cui l identità id V è l elemento neutro. Un isomorfismo tra due gruppi G( ) e G' ( ) è un applicazione biettiva f di G in G' tale che, per ogni x, y G, f(x y ) = f(x) f(y). Si può provare che, se V ha dimensione finita n ed R è un riferimento di V, allora l applicazione φ R : f Aut(V n ) M R (f) GL(n, K) è un isomorfismo tra il gruppo Aut(Vn) e il gruppo lineare generale GL(n, K) (cfr. Capitolo III, Paragrafo 4). Sia ora f un endomorfismo di V n e sia n 1. Detti R = (e 1, e 2,, e n ) ed R' = (e' 1, e' 2,, e' n ) due riferimenti di V n, vogliamo determinare la relazione che sussiste tra le matrici A ed A' associate ad f rispettivamente in R e in R'. A tale scopo, premettiamo la seguente Proposizione 4.5. La matrice B di passaggio da R ad R' è invertibile. Dimostrazione. Ricordiamo (cfr. Capitolo II, Paragrafo 8) che le colonne di B sono i vettori numerici delle componenti in R' dei vettori e 1, e 2,, e n. Poiché e 1, e 2,, e n sono indipendenti, per l'isomorfismo coordinato associato ad R' le colonne di B sono indipendenti. Ne segue, per la Proposizione 3.5 del Capitolo III, che B 0. Per la Proposizione 4.1 del Capitolo III, B è invertibile. Si prova inoltre che : Proposizione 4.6. Se B è la matrice di passaggio da R ad R', allora B -1 matrice di passaggio da R' ad R. è la 106

Proposizione 4.7. Sia R un riferimento di V n. Se B è una matrice invertibile di ordine n su K, esiste uno ed un sol riferimento R' tale che B è la matrice di passaggio da R' ad R. Dimostrazione. Sia R = (e 1, e 2,, e n ). Indichiamo con e' 1, e' 2,, e' n gli n vettori le cui componenti in R sono nell ordine le n colonne della matrice B. Essendo B invertibile, le sue colonne sono indipendenti; ne segue, per l isomorfismo coordinato associato al riferimento R, che (e' 1, e' 2,, e' n ) è un riferimento di V n. Indichiamo con R' tale riferimento. Per come sono stati costruiti i vettori e i ', è evidente che B è proprio la matrice di passaggio da R' a R. Se poi R'' è un riferimento di V n tale che B è matrice di passaggio da R'' ad R, allora dalla definizione di matrice di passaggio tra due riferimenti segue che R'' coincide con R'. Siano A e A' due matrici quadrate di ordine n. Si dice che A è simile ad A' se esiste una matrice invertibile P di ordine n tale che P -1 A P = A'. Osserviamo che: - ogni matrice quadrata A è simile a se stessa ( detto n l ordine di A, basta scegliere come matrice P la matrice identica I n ); - se A è simile ad A', allora A' è simile ad A ( infatti, se P -1 A P = A', allora A = P A' P -1 = (P -1 ) -1 A' P -1 ). Si può inoltre provare che - se A è simile ad A' ed A' è simile ad A'', allora A è simile ad A''. Per quanto detto, la relazione di similitudine tra matrici quadrate dello stesso ordine è una relazione di equivalenza. Siamo ora in grado di provare che : 107

Proposizione 4.8. Sia f un endomorfismo di V n e siano R ed R' due riferimenti di V n. Detta A la matrice associata ad f in R ed A' la matrice associata ad f in R', allora A ed A' sono simili. Precisamente, A' = B -1 A B, dove B è la matrice di passaggio da R' ad R. Dimostrazione. Sia v V n. Indichiamo con X la matrice colonna delle componenti di v in R e con X' la matrice colonna delle componenti di v in R'; analogamente, indichiamo con Y ed Y' le matrici colonna delle componenti di f(v) rispettivamente in R ed R'. Essendo B la matrice di passaggio da R' ad R, per la (8.2) del Capitolo II si ha : (4.1) X = BX', Y = BY'. Per la (i) della Proposizione 4.2 è Y = AX da cui, per la (4.1), BY' = A( BX') = (AB)X'. Moltiplicando a sinistra per B -1 entrambi i membri di quest ultima relazione, si ha : B -1 ( BY') = B -1 (ABX') cioè (B -1 B)Y' = (B -1 AB)X' da cui, essendo B -1 B = I n, si ha Y'= (B -1 AB) X'. Per la (ii) della Proposizione 4.2 è allora A' = B -1 AB. 108