Lezioni di Geometria e Algebra. Fulvio Bisi, Francesco Bonsante, Sonia Brivio



Documenti analoghi
2.1 Definizione di applicazione lineare. Siano V e W due spazi vettoriali su R. Un applicazione

Lezione 6 Nucleo, Immagine e Teorema della Dimensione. 1 Definizione di Nucleo e Immagine

ESERCIZI DI ALGEBRA LINEARE E GEOMETRIA

Applicazioni lineari

Parte 6. Applicazioni lineari

LEZIONE 17. B : kn k m.

1 Applicazioni Lineari tra Spazi Vettoriali

Parte 2. Determinante e matrice inversa

LEZIONE 16. Proposizione Siano V e W spazi vettoriali su k = R, C. Se f: V W

Esercizi su lineare indipendenza e generatori

Dimensione di uno Spazio vettoriale

x 1 + x 2 3x 4 = 0 x1 + x 2 + x 3 = 0 x 1 + x 2 3x 4 = 0.

RICHIAMI SULLE MATRICI. Una matrice di m righe e n colonne è rappresentata come

LEZIONE 14. a 1,1 v 1 + a 1,2 v 2 + a 1,3 v a 1,n 1 v n 1 + a 1,n v n = w 1

ESERCIZI APPLICAZIONI LINEARI

Università degli Studi di Roma Tor Vergata. Corso di Laurea in Ingegneria Meccanica

Parte 3. Rango e teorema di Rouché-Capelli

Algebra Lineare e Geometria

4. Operazioni elementari per righe e colonne

APPLICAZIONI LINEARI

Lezioni di Algebra Lineare III. Applicazioni lineari e matrici Struttura algebrica delle soluzioni dei sistemi lineari

3 Applicazioni lineari e matrici

STRUTTURE ALGEBRICHE

Lezione 9: Cambio di base

f(x, y, z) = (x + ky + z, x y + 2z, x + y z) f(x, y, z) = (x + 2y z, x + y z, x + 2y) F (f(x)) = (f(0), f(1), f(2))

Siano V e W due spazi vettoriali. La definizione seguente é è tra quelle basilari per il corso di Matematica B. L : V W

LEZIONE 23. Esempio Si consideri la matrice (si veda l Esempio ) A =

Diagonalizzazione di matrici e applicazioni lineari

APPLICAZIONI LINEARI. B si definisce surriettiva. 9 quando ogni elemento di. B risulta IMMAGINE di. almeno un elemento di A.

FUNZIONI ELEMENTARI - ESERCIZI SVOLTI

APPLICAZIONI LINEARI

LEZIONE 31. B i : R n R. R m,n, x = (x 1,..., x n ). Allora sappiamo che è definita. j=1. a i,j x j.

1. PRIME PROPRIETÀ 2

Spazi lineari - PARTE II - Felice Iavernaro. Dipartimento di Matematica Università di Bari. 9 e 16 Marzo 2007

Rango: Rouchè-Capelli, dimensione e basi di spazi vettoriali.

15 febbraio Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA...

Equazioni alle differenze finite (cenni).

RETTE, PIANI, SFERE, CIRCONFERENZE

Chiusura lineare. N.B. A può essere indifferentemente un insieme, finito o no, o un sistema. Es.1. Es.2

(V) (FX) Z 6 è un campo rispetto alle usuali operazioni di somma e prodotto.

Anello commutativo. Un anello è commutativo se il prodotto è commutativo.

19. Inclusioni tra spazi L p.

LE FUNZIONI A DUE VARIABILI

Tutorato di GE110. Universitá degli Studi Roma Tre - Corso di Laurea in Matematica

FUNZIONE REALE DI UNA VARIABILE

MATEMATICA. { 2 x =12 y 3 y +8 x =0, si pone il problema di trovare, se esistono, un numero x ed un numero y che risolvano entrambe le equazioni.

Federico Lastaria. Analisi e Geometria 2. Matrici simmetriche. Il teorema spettrale. 1/24

Prodotto elemento per elemento, NON righe per colonne Unione: M R S

CORSO DI LAUREA INF TWM ANNO DI IMMATRICOLAZIONE MATRICOLA

Algebra e Geometria. Ingegneria Meccanica e dei Materiali Sez (2) Ingegneria dell Automazione Industriale Sez (2)

LE FIBRE DI UNA APPLICAZIONE LINEARE

Esame di Geometria - 9 CFU (Appello del 28 gennaio A)

Ottimizazione vincolata

10. Insiemi non misurabili secondo Lebesgue.

LE FUNZIONI E LE LORO PROPRIETÀ

Lezioni del corso di Geometria e Algebra. prof. Michele Mulazzani dott. Alessia Cattabriga

Appunti sul corso di Complementi di Matematica - prof. B.Bacchelli Equazioni differenziali lineari omogenee a coefficienti costanti.

Anno 5 Funzioni inverse e funzioni composte

Prodotto libero di gruppi

FUNZIONE. Si scrive: A B f: A B x y=f(x) (si legge: f funzione da A in B) x f y= f(x)

MATRICI E DETERMINANTI

Universita degli Studi di Roma Tor Vergata Facolta di Ingegneria - Edile ed Edile-Architettura

Esempi di funzione. Scheda Tre

Applicazioni lineari

u 1 u k che rappresenta formalmente la somma degli infiniti numeri (14.1), ordinati al crescere del loro indice. I numeri u k

LE SUCCESSIONI 1. COS E UNA SUCCESSIONE

2 FUNZIONI REALI DI VARIABILE REALE

MATEMATICA p = 4/6 = 2/3; q = 1-2/3 = 1/3. La risposta corretta è quindi la E).

4. Operazioni binarie, gruppi e campi.

Corrispondenze e funzioni

APPUNTI DI MATEMATICA LE FRAZIONI ALGEBRICHE ALESSANDRO BOCCONI

Per lo svolgimento del corso risulta particolarmente utile considerare l insieme

MATEMATICA DEL DISCRETO elementi di teoria dei grafi. anno acc. 2009/2010

risulta (x) = 1 se x < 0.

Lezione 6. Divisibilità e divisori. Teorema di divisione euclidea. Algoritmo delle divisioni successive.

CORSO DI LAUREA IN INGEGNERIA.

CONTINUITÀ E DERIVABILITÀ Esercizi proposti. 1. Determinare lim M(sinx) (M(t) denota la mantissa di t)

Capitolo I STRUTTURE ALGEBRICHE ELEMENTARI

Rette e curve, piani e superfici

ALGEBRA: LEZIONI DAL 13 OTTOBRE AL 3 NOVEMBRE

Proof. Dimostrazione per assurdo. Consideriamo l insieme complementare di P nell insieme

Funzioni. Funzioni /2

Funzione Una relazione fra due insiemi A e B è una funzione se a ogni elemento di A si associa uno e un solo elemento

DOMINIO E LIMITI. Esercizio 3 Studiare gli insiemi di livello della funzione f, nei seguenti casi: 1) f(x,y) = y2 x 2 + y 2.

CORSO DI ALGEBRA (M-Z) Prof. A. Venezia

4 Quarta lezione: Spazi di Banach e funzionali lineari. Spazio duale

1 Serie di Taylor di una funzione

ELEMENTI DI ALGEBRA LINEARE E GEOMETRIA Corso di Laurea Ingegneria Edile-Architettura

Appunti di Algebra Lineare

1 Regole generali per l esame. 2 Libro di Testo

Matrice rappresent. Base ker e img. Rappresentazione cartesiana ker(f) + im(f).

Universita degli Studi di Roma Tor Vergata Facolta di Ingegneria Elettronica

Funzione reale di variabile reale

3 GRAFICI DI FUNZIONI

4. Proiezioni del piano e dello spazio

DOMINI A FATTORIZZAZIONE UNICA

Teoria in sintesi 10. Attività di sportello 1, 24 - Attività di sportello 2, 24 - Verifica conclusiva, 25. Teoria in sintesi 26

1 Insiemi e terminologia

SOMMARIO I radicali pag I radicali aritmetici pag Moltiplicazione e divisione fra radicali aritmetici pag.

Geometria I A. Algebra lineare

Transcript:

Lezioni di Geometria e Algebra Fulvio Bisi, Francesco Bonsante, Sonia Brivio

CAPITOLO 4 Applicazioni lineari 1. Definizioni ed esempi. In questo capitolo ci proponiamo di studiare le funzioni tra spazi vettoriali, in particolare quelle che rispettano la struttura algebrica fissata in ciascun spazio, cioè conservano le operazioni di somma di vettori e di moltiplicazione per uno scalare. Verificheremo infine che tali funzioni trasformano sottospazi in sottospazi. Iniziamo a vedere come possiamo costruire in modo molto semplice funzioni tra gli spazi R n e R m. Sia A M R (m,n) una matrice a coefficienti reali con m righe ed n colonne, scriviamo A = ( A 1, A 2,..., A n ) A i R m, A i = a 1i a 2i... a mi, i = 1,..,n. Osserviamo che per ogni vettore X R n, possiamo eseguire la moltiplicazione A X ed ottenere un vettore di R m : AX = ( A 1, A 2,..., A n ) x 1 x 2... = x 1A 1 +... + x n A n R m. x n La matrice A M R (m,n) definisce quindi in modo naturale un applicazione (4.1) L A : R n R m, X AX. Osserviamo che: - se A è la matrice nulla, L A è l applicazione identicamente nulla, cioè X R n si ha L A (X) = 0 R m; - se m = n e A = I n, L A è l identità di R n, cioè L A (X) = X, per ogni X R n ; - se m = n = 1, L A : R R è la funzione L A (x) = ax, a R; - se m = 1, A = (A 1 ) = (a 1,..,a n ), L A : R n R è l applicazione seguente: X R n, L A (X) = a 1 x 1 +... + a n x n. Sia A = ( A 1, A 2,..., A n ), l applicazione L A : R n R m definita dalla matrice A ha le seguenti proprietà: (1) L A (0 R n) = 0 R m; 3

4 4. APPLICAZIONI LINEARI (2) siano {e 1,...,e n } i vettori della base canonica di R n, si ha: L A (e i ) = A i, i = 1,..,n; (3) date due matrici A,B M R (m,n), L A = L B se e solo se A = B; (4) dato un vettore Y R m, esiste X R n tale che L A (X) = Y se e solo se Y span(a 1,...,A n ). Le proprietà (1) e (2) si ottengono applicando la definizione: per ogni i = 1,2,..,n si ha L A (0 R n) = 0A 1 + 0A 2 +.. + 0A n = 0 R m; L A (e i ) = 0A 1 + 0A 2 +.. + 1A i +... + 0A n = A i. Verifichiamo la proprietà (3). Ovviamente se A = B allora le applicazioni L A e L B coincidono. Supponiamo ora che L A = L B, ciò significa che L A (X) = L B (X) X R n. In particolare si ha: L A (e i ) = L B (e i ), i = 1,..,n, dalla proprietà (2) segue che le colonne di A coincidono con le colonne di B e quindi A = B. Infine, verifichiamo la proprietà (4). Sia Y R m, esiste X R n tale che L A (X) = Y se e solo se esistono n numeri reali x 1,x 2...,x n tali che x 1 A 1 + x 2 A 2 +.. + x n A n = Y, cioè Y è combinazione lineare di A 1,..,A n. Le applicazioni L A sono caratterizzati dalle seguenti proprietà: Proprietà 4.1. Le applicazioni definite dalle matrici di M R (m,n) sono tutte e sole le applicazioni L: R n R m che soddisfano le seguenti proprietà di linearità: (1) L(X 1 + X 2 ) = L(X 1 ) + L(X 2 ), X 1,X 2 R n ; (2) L(αX) = αl(x), X R n, α R. Dimostrazione. Osserviamo che ogni applicazione L A soddisfa tali proprietà, che risultano essere conseguenze delle analoghe proprietà di linearità del prodotto di matrici, infatti: L A (X 1 + X 2 ) = A (X 1 + X 2 ) = A X 1 + A X 2 = L A (X 1 ) + L A (X 2 ), L A (αx) = A (αx) = α(a X) = αl A (X), X,X 1,X 2 R n, α R. Sia ora L: R n R m un applicazione che soddisfa le proprietà di linearità: consideriamo i vettori B i = L(e i ), i = 1,..,n, e sia B M R (m,n) la matrice di colonne B 1,..,B n. Sia X R n, applicando le proprietà di linearità di L abbiamo: L(X) = L(x 1 e 1 +... + x n e n ) = x 1 L(e 1 ) +... + x n L(e n ) = x 1 B 1 +... + x n B n = B X,

1. DEFINIZIONI ED ESEMPI. 5 X R n. Possiamo concludere che L coincide con l applicazione L B definita dalla matrice B. Le proprietà di linearità ci garantiscono che l applicazione L conserva le operazioni di somma di vettori e di moltiplicazione per un numero reale fissate negli spazi R n e R m : infatti la prima proprietà ci dice che l immagine della somma di due vettori di R n è la somma in R m delle loro immagini, la seconda che l immagine del prodotto di un vettore di R n per uno scalare è il prodotto in R m dell immagine per lo stesso scalare. Ciò significa che fare le operazioni in R n e poi trasformare con l applicazione L è equivalente a trasformare prima con L e poi fare le operazioni. Ciò giustifica la seguente definizione: Definizione 4.1. Un applicazione L: V W tra due spazi vettoriali reali è detta applicazione lineare o operatore lineare di V in W. se verifica le seguenti condizioni di linearità: (1) L(v 1 + v 2 ) = L(v 1 ) + L(v 2 ), v 1,v 2 V ; (2) L(αv) = αl(v), v V, α R. Un applicazione lineare L: V V è detto operatore lineare (o endomorfismo) di V. Osservazione 4.1. In meccanica, gli operatori lineari di E 3 O sono detti tensori di rango due. Inoltre: Le applicazioni definite dalle matrici di M R (m,n) sono tutte e sole le applicazioni lineari di R n in R m. Infine che ogni applicazione lineare L: V W trasforma il vettore nullo di V nel vettore nullo di W, cioè si ha: (4.2) L(0 V ) = 0 W. Infatti, dall uguglianza 0 V = 0.v, applicando la seconda proprietà di linearità abbiamo L(0 V ) = L(0.v) = 0L(v) = 0 W. Esempio 4.2. Consideriamo i seguenti esempi: (1) Sia V uno spazio vettoriale reale, consideriamo l applicazione identità I V : V V data da I V (v) = v, v V. Verifichiamo che è un applicazione lineare. Si ha: I V (v 1 + v 2 ) = v 1 + v 2 = I V (v 1 ) + I V (v 2 ), v 1,v 2 V ; I V (αv) = αv = αi V (v), v V, α R. (2) Siano V e W due spazi vettoriali reali, consideriamo un applicazione costante L: V W data da L(v) = w 0 v V, w 0 W. Notiamo che affinché L sia lineare si deve avere L(0 V ) = 0 W,

6 4. APPLICAZIONI LINEARI possiamo quindi concludere che se w 0 0 W, L non è lineare. Supponiamo ora che w 0 = 0 W, allora L è l applicazione nulla: L(v) = 0 W, v V. Verifichiamo infine che l applicazione nulla è lineare: L(v 1 + v 2 ) = 0 W + 0 W = L(v 1 ) + L(v 2 ), v 1,v 2 V ; L(αv) = 0 W = α.0 W = αl(v), v V, α R. (3) Sia L: R 2 R 2 l applicazione data da ( ) ( x x 2 L = y x y Vogliamo stabilire se L è un applicazione lineare. Osserviamo che risulta soddisfatta la condizione necessaria per la linearità: ( ) ( ) 0 0 L =. 0 0 Proviamo, prendendo alcuni vettori di R 2, se L verifica la prima condizione di linearità. Scegliamo i vettori: ( ) ( ) 1 1 v 1 = v 0 2 =, 1 ). abbiamo ( 2 L(v 1 + v 2 ) = L 1 ) ( 4 = 1 ). Risulta tuttavia: ( 1 L(v 1 ) + L(v 2 ) = 1 ) ( 1 + 0 ) ( 2 = 0 ), essendo L(v 1 + v 2 ) L(v 1 ) + L(v 2 ), possiamo concludere che L non è lineare. (4) Consideriamo lo spazio vettoriale M R (2) delle matrici reali quadrate di ordine 2. Sia L: M R (2) R l applicazione data da ( ) a11 a L 12 = a a 21 a 11 + a 22. 22 (ossia, la traccia della matrice). Verifichiamo che L verifica la prima condizione di linearità. Siano A,B M R (2) due matrici reali quadrate di ordine 2: si ha A = ( ) a11 a 12 a 21 a 22 B = ( ) b11 b 12, b 21 b 22 L(A) = a 11 + a 22 L(B) = b 11 + b 22. La somma delle matrici A e B è la seguente matrice: ( ) a11 + b A + B = 11 a 12 + b 12, a 21 + b 21 a 22 + b 22

(4.3) abbiamo, quindi: 1. DEFINIZIONI ED ESEMPI. 7 L(A + B) = (a 11 + b 11 ) + (a 22 + b 22 ) = (a 11 + a 22 ) + (b 11 + b 22 ) = L(A) + L(B). Verifichiamo ora la seconda proprietà di linearità. Siano λ R e A M R (2): ( ) a11 a A = 12, a 21 a 22 il prodotto della matrice A per il numero reale λ è la seguente matrice: ( ) λa11 λa λa = 12. λa 21 λa 22 Abbiamo quindi: L(λA) = λa 11 + λa 22 = λ(a 11 + a 22 ) = λl(a). (5) Consideriamo lo spazio vettoriale M R (n) delle matrici reali quadrate di ordine n 2. Sia d: : M R (n) R l applicazione che associa ad ogni matrice il determinante: d(a) = A. Verifichiamo che d non è un applicazione lineare. Osserviamo che dalle proprietà del determinante abbiamo: αa = (α) n A α R, per cui se α 0 e α ±1 risulta: d(αa) αd(a), possiamo quindi concludere che d non è un applicazione lineare. (6) Consideriamo lo spazio vettoriale R [ x] dei polinomi p(x) in x di grado qualunque a coefficienti reali. Sia D: R [ x] R [ x] l applicazione che associa al polinomio p(x) il polinomio D(p(x)) ottenuto derivando p(x): posto si ha p(x) = a 0 + a 1 x + a 2 x 2 +... + a n x n, D(p(x)) = a 1 + 2a 2 x +... + na n x n 1. D è un operatore lineare, infatti dalle proprietà della derivazione delle funzioni reali si ha: D(p 1 (x) + p 2 (x)) = D(p 1 (x)) + D(p 2 (x)), e p 1 (x),p 2 (x) R n [x], D(αp(x)) = αd(p(x)), α R, p(x) R n [x]. Concludiamo questa parte verificando la proprietà che avevamo annunciato: ogni applicazione lineare trasforma sottospazi in sottospazi.

8 4. APPLICAZIONI LINEARI Proprietà 4.2. Siano L: V W un applicazione lineare tra spazi vettoriali reali e U V un sottospazio di V. L insieme delle immagini dei vettori di U: è un sottospazio di W. L(U) = {w W u U : L(u) = w} Per verificare che l insieme L(U) W è un sottospazio di W basta provare che: (1) w 1,w 2 L(U), w 1 + w 2 L(U); (2) w L(U), α R, αw L(U). Dimostrazione. Siano w 1,w 2 L(U): esistono allora due vettori u 1,u 2 U tali che Per la linearità di L abbiamo: L(u 1 ) = w 1 L(u 2 ) = w 2. L(u 1 + u 2 ) = L(u 1 ) + L(u 2 ) = w 1 + w 2, poiché U è un sottospazio di V si ha u 1 + u 2 = u U e l uguaglianza w 1 + w 2 = L(u), u U, da cui otteniamo w 1 + w 2 L(U). Siano, ora, w L(U) e α R: esiste un vettore u U tale che L(u) = w. Per la linearità di L abbiamo L(αu) = αl(u) = αw, poiché U è un sottospazio di V si ha αu = u U e L(u ) = αw, per cui possiamo concludere che αw L(U). 2. Nucleo ed Immagine di un applicazione lineare. Associamo ad ogni applicazione lineare tra spazi vettoriali reali due sottoinsiemi che sono utili nello studio dell applicazione. Definizione 4.2. Sia L: V W un applicazione lineare tra spazi vettoriali reali, associamo a L i seguenti insiemi: Nucleo di L: Immagine di L: Ker L = {v V L(v) = 0 W }; Im L = {w W v V : L(v) = w}.

2. NUCLEO ED IMMAGINE DI UN APPLICAZIONE LINEARE. 9 Osservazione 4.3. Osserviamo che: Ker L V e Ker L : infatti poiché L(0 V ) = 0 W abbiamo 0 V Ker L; ImL W e Im L : infatti poiché 0 W = L(0 V ), abbiamo 0 W ImL. Proprietà 4.3. Sia L: V W un applicazione lineare tra spazi vettoriali reali: (1) KerL è un sottospazio di V ; (2) ImL è un sottospazio di W. Dimostrazione. Ricordiamo che Ker L è un sottospazio di V se è chiuso rispetto alla somma di vettori e chiuso rispetto alla moltiplicazione per un numero reale. Verifichiamo che v 1,v 2 Ker L = v 1 + v 2 KerL, v Ker L, α R = αv Ker L. Per la prima proprietà di linearità di L abbiamo: L(v 1 + v 2 ) = L(v 1 ) + L(v 2 ), poiché v i Ker L risulta L(v i ) = 0 W, i = 1,2, quindi L(v 1 + v 2 ) = L(v 1 ) + L(v 2 ) = 0 W + 0 W = 0 W, cioè L(v 1 + v 2 ) = 0 W. Possiamo concludere che v 1 + v 2 Ker L. Analogamente per la seconda proprietà di linearità di L per ogni vettore v Ker L si ha: L(αv) = αl(v) = α0 W = 0 W, da cui ricaviamo che αv Ker L. Osserviamo che per definizione risulta Im L = {w W v V : L(v) = w} = L(V ), poiché abbiamo verificato che ogni applicazione lineare trasforma sottospazi in sottospazi, anche L(V ) risulta essere un sottospazio di W. I sottospazi nucleo e immagine di una applicazione lineare ne caratterizzano l iniettività e la suriettività. Ricordiamo le nozioni di applicazione iniettiva e suriettiva. Definizione 4.3. Sia L: V W un applicazione tra due insiemi. (1) L è iniettiva se v 1,v 2 V : v 1 v 2 = L(v 1 ) L(v 2 ); (2) L è suriettiva se ogni elemento di W è immagine di almeno un elemento di V, i.e. w W v V : L(v) = w.

10 4. APPLICAZIONI LINEARI Esempio 4.4. Riportiamo alcuni semplici esempi di funzioni reali di variabile reale f : R R. Le funzioni f(x) = x, f(x) = 2x e f(x) = x 3 sono iniettive. Verifichiamo ad esempio che f(x) = x 3 è iniettiva. Siano x 1,x 2 R numeri reali, proviamo che: f(x 1 ) = f(x 2 ) = x 1 = x 2. Infatti è ben noto che l uguaglianza (x 1 ) 3 = (x 2 ) 3 implica che x 1 = x 2, da cui ricaviamo l iniettività di f. Le funzioni f(x) = x 2 e f(x) = sin x non sono iniettive. Verifichiamo che f(x) = x 2 non è iniettiva. Basta provare l esistenza di due numeri reali x 1 e x 2 tali che: x 1 x 2 f(x 1 ) = f(x 2 ). Osserviamo che se x 1 e x 2 sono due numeri reali non nulli opposti allora si ha (x 1 ) 2 = (x 2 ) 2, per cui possiamo concludere che f non è iniettiva. Le funzioni f(x) = 2x e f(x) = x 3 sono suriettive. Verifichiamo ad esempio che f(x) = x 3 è suriettiva. Proviamo che: y R x R f(x) = y. Osserviamo che y R l equazione x 3 = y ammette la soluzione y = 3 x, da cui ricaviamo che f è suriettiva. Le funzioni f(x) = x 2 e f(x) = sinx non sono suriettive. Verifichiamo che f(x) = x 2 non è suriettiva. Basta provare l esistenza di un numero reale y R per cui l equazione f(x) = y non ammetta soluzioni reali. Osserviamo che se y < 0 l equazione x 2 = y non amette soluzioni reali, per cui possiamo concludere che f non è suriettiva. Proprietà 4.4. Sia L: V W un applicazione lineare tra spazi vettoriali reali. (1) L è iniettiva Ker L = {0 V }; (2) L è suriettiva ImL = W. Dimostrazione. Verifichiamo la prima proprietà. Mostriamo che se L è iniettiva il nucleo di L contiene solo il vettore nullo. Sia v Ker L un vettore del nucleo non nullo: v 0 e L(v) = 0 W. Ricordiamo che poiché L è lineare si ha anche: 0 W = L(0 V ), otteniamo quindi l uguaglianza L(v) = L(0 V ), poiché v 0 ciò contraddice l iniettività di L. Viceversa, supponiamo ora che il nucleo di L contenga solo il vettore nullo. Per provare che L è iniettiva proviamo che, v 1,v 2 V : L(v 1 ) = L(v 2 ) = v 1 = v 2. Sia L(v 1 ) = L(v 2 ), per la linearità di L abbiamo: L(v 1 v 2 ) = L(v 1 ) L(v 2 ) = 0 W,

2. NUCLEO ED IMMAGINE DI UN APPLICAZIONE LINEARE. 11 e quindi v 1 v 2 KerL, poiché il nucleo contiene solo il vettore nullo, risulta necessariamente v 1 v 2 = 0 V e quindi v 1 = v 2. La seconda proprietà segue immediatamente dalla definizione di suriettività. Esempio 4.5 (Esempio Fondamentale). Sia L A : R n R m l applicazione lineare definita dalla matrice reale A M R (m,n): L A (X) = AX, X R n. Vogliamo determinare i sottospazi nucleo ed immagine di L A. Dalla definizione di nucleo e immagine abbiamo: Ker L A = {X R n AX = 0 R m }, Im L A = {Y R m X R n : AX = Y }. Siano A 1,A 2,..,A n i vettori colonna della matrice A, ricordiamo che moltiplicando la matrice A per il vettore X R n si ottiene la combinazione lineare delle colonne di A con vettore dei coefficienti X: A.X = x 1 A 1 + x 2 A 2 +... + x n A n, per cui possiamo concludere che: Y Im L A Y span(a 1,...,A n ); dim(im L A ) = dim(span(a 1,...,A n )) = rg(a); L A è suriettiva R m = span(a 1,..,A n ) rg(a) = m; esiste un vettore non nullo X Ker L A i vettori colonna A 1,A 2,...,A n sono linearmente dipendenti; L A è iniettiva i vettori colonna A 1,...,A n sono linearmente indipendenti rg(a) = n. Ci limitiamo ora a consideriamo spazi vettoriali finitamente generati, abbiamo allora la seguente descrizione dello spazio immagine che generalizza l esempio precedente: Proprietà 4.5. Sia L: V W un applicazione lineare tra spazi vettoriali reali di dimensione finita. Sia B V = {v 1,..,v n } una base di V : i vettori L(v 1 ),L(v 2 ),...,L(v n ) sono un sistema di generatori dello spazio Im L, i.e. quindi dim(im L) dimv. Im L = span(l(v 1 ),L(v 2 ),...,L(v n )), Dimostrazione. Verifichiamo la proprietà enunciata. Sia w Im L, esiste allora un vettore v V tale che L(v) = w. Poiché V = span(v 1,v 2,..,v n ), abbiamo: v = x 1 v 1 + x 2 v 2 +... + x n v n, con x i R. Sostituendo al posto di v tale scrittura e applicando la linearità di L otteniamo: w = L(v) = L(x 1 v 1 + x 2 v 2 +... + x n v n ) = x 1 L(v 1 ) + x 2 L(v 2 ) +... + x n L(v n ), cioè w è combinazione lineare dei vettori L(v 1 ),L(v 2 ),...,L(v n ). Possiamo quindi concludere che L(v 1 ),L(v 2 ),...,L(v n ) sono generatori di Im L.

12 4. APPLICAZIONI LINEARI NOTA BENE: Non è detto che {L(v 1 ),L(v 2 ),...,L(v n )} siano una base di Im L!!! Poiché Im L W, ovviamente si ha dim(im L) dimw. Supponiamo ora che n = dimv > dimw, allora i vettori {L(v 1 ),L(v 2 ),...,L(v n )} sono necessariamente linearmente dipendenti in W, quindi non sono una base di ImL. Esempio 4.6. Sia L: R 3 R 3 l operatore lineare dato da: L x y = 1 1 0 0 1 1 x y. z 0 1 1 z Fissata la base canonica {e 1,e 2,e 3 } di R 3, determiniamo le immagini dei vettori della base: L(e 1 ) = 1 1 0 0 1 1 1 0 = A 1 = 1 0, 0 1 1 0 0 L(e 2 ) = 1 1 0 0 1 1 0 1 = A 2 = 1 1, 0 1 1 0 1 L(e 3 ) = 1 1 0 0 1 1 0 0 = A 3 = 0 1. 0 1 1 1 1 I vettori L(e 1 ),L(e 2 ),L(e 3 ) sono generatori dello spazio Im L, tuttavia non sono linearmente indipendenti: infatti L(e 3 ) = L(e 1 ) + L(e 2 ). Osserviamo tuttavia che L(e 1 ) ed L(e 2 ) sono linearmente indipendenti, quindi abbiamo: Im L = span(l(e 1 ),L(e 2 )). Risulta allora dim(iml) = 2, per cui Im L è il piano per l origine generato dai vettori L(e 1 ),L(e 2 ). Vogliamo infine determinare il nucleo di L: Ker L = { x y R 3 1 1 0 0 1 1 z 0 1 1 x y z = 0 0 0 }, i vettori di Ker L sono tutti e soli i vettori le cui coordinate x,y,z sono le soluzioni del seguente sistema lineare: x y = 0 y + z = 0 y + z = 0.

2. NUCLEO ED IMMAGINE DI UN APPLICAZIONE LINEARE. 13 Osserviamo che l ultima equazione è superflua, e le prime due sono linearmente indipendenti, quindi KerL è l intersezione di due piani in R 3. Precisamente risolvendo abbiamo: Ker L = { x x x,x R} = span( 1 1 1 ). Concludiamo con un risultato fondamentale, il Teorema delle dimensioni, che fornisce una relazione tra le dimensioni degli spazi nucleo ed immagine: Teorema 4.6 (Teorema delle dimensioni). Sia L: V W un applicazione lineare tra spazi vettoriali reali di dimensione finita. Vale la seguente relazione: dim(v ) = dim(ker L) + dim(im L). Dimostrazione. Supponiamo che dim(ker L) = 0: allora Ker L = {0 V } e quindi L è iniettiva. Proviamo che L trasforma una base B V = {v 1,...,v n } di V in una base {L(v 1 ),...,L(v n )} di Im L. Poiché i vettori {L(v 1 ),...,L(v n )} sono un sistema di generatori di Im L è sufficiente provare che sono linearmente indipendenti. Supponiamo che tali vettori siamo linearmente dipendenti: esistono n scalari non tutti nulli tali che Osserviamo che per la linearità risulta λ 1 L(v 1 ) +.. + λ n L(v n ) = 0 W. L(λ 1 v 1 +.. + λ n v n ) = 0 W, cioè il vettore λ 1 v 1 +.. + λ n v n KerL. Poiché per ipotesi Ker L = {0 V }, possiamo concludere che λ 1 v 1 +.. + λ n v n = 0 V, cioè i vettori {v 1,...,v n } sono linearmente dipendenti in V, che è assurdo poiché per ipotesi sono una base di V. Supponiamo ora dim(ker L) = h > 0, verifichiamo che dim Im L = n h. Sia U V un sottospazio complementare di Ker L, tale che U Ker L = {0 V } U Ker L = V. Siano {u 1,..,u h } una base di Ker L e {v 1,..,v n h } una base di U, abbiamo visto che l unione di tali basi è una base B V di V. Consideriamo le immagini dei vettori di B V : {L(u 1 ),..,L(u h ),L(v 1 ),..,L(v n h )}, sono un sistema di generatori di Im L. Osserviamo però che risulta L(u 1 ) =... = L(u h ) = 0 W, poiché u i Ker L, i = 1,..,h, quindi possiamo concludere che anche L(v 1 ),..,L(v n h )

14 4. APPLICAZIONI LINEARI sono generatori di Im L. Rimane da provare che tali vettori sono linearmente indipendenti in W. Supponiamo che tali vettori siano linearmente dipendenti: esistono n h scalari non tutti nulli tali che osserviamo che per la linearità risulta λ 1 L(v 1 ) +.. + λ n h L(v n h ) = 0 W, L(λ 1 v 1 +.. + λ n h v n h ) = 0 W, cioè il vettore λ 1 v 1 +..+λ n h v n h Ker L. Poiché per ipotesi U = span(v 1,..,v n h ) e U Ker L = {0 V }, possiamo concludere che λ 1 v 1 +.. + λ n h v n h = 0 V, cioè i vettori sono linearmente dipendenti in V, che è assurdo poiché per ipotesi i vettori sono una base di U. Il Teorema (4.6) Osservazione 4.7. Osserviamo che risulta dim(im L) = dim V dim(ker L) = 0 Ker L = {0 V } L è iniettiva. Esempio 4.8. (1) Nell esempio precedente abbiamo: dim(im L) = 2 dim(r 3 ) = 3, quindi applicando il teorema delle dimensioni risulta dim(ker L) = dim(r 3 ) dim(im L) = 3 2 = 1, infatti come abbiamo verificato Ker L è una retta per l origine in R 3. (2) Sia L A : R n R m l applicazione lineare definita dalla matrice A M R (m,n): L A (X) = AX, X R n. Abbiamo: Ker L A = {X R n AX = 0 R m }, Im L A = {Y R m X R n : AX = Y }, inoltre abbiamo precedentemente osservato che risulta Im L A = span(a 1,A 2,...,A n ), dove A 1,A 2,..,A n sono i vettori colonna della matrice A. Quindi dim(im L A ) = rg(a), applicando il teorema delle dimensioni otteniamo: dim(ker L A ) = dim(r n ) dim(im L A ) = n rg(a).

2. NUCLEO ED IMMAGINE DI UN APPLICAZIONE LINEARE. 15 (3) Sia L: R 3 R l applicazione data da: L x y z = x + y z. Verifichiamo che L è un applicazione lineare: basta osservare che risulta L x y z = ( 1 1 1 ) x y z L è lineare essendo l applicazione associata alla matrice A = ( 1 1 1 )., Abbiamo: Ker L = { x y R 3 x + y z = 0 }, z KerL è un piano passante per l origine di R 3, quindi dim(ker L) = 2. Applicando il teorema delle dimensioni abbiamo: dim(r 3 ) = 3 = dim(ker L) + dim(im L) = 2 + dim(im L), da cui ricaviamo che dim(im L) = 1. Poiché ImL R, abbiamo necessariamente Im L = R, e quindi L è suriettiva. Come applicazione del Teorema delle dimensioni possiamo provare il seguente risultato, che in precedenza ci siamo limitati ad enunciare: Proposizione 4.7. Ogni matrice reale A M R (m,n) soddisfa la relazione: rg(a) = r(a T ), dove A T è la matrice trasposta di A. Dimostrazione. La matrice A M R (m,n) definisce l applicazione lineare L A : R n R m, L A (X) = AX, X R n ; mentre la matrice trasposta A T definisce l applicazione lineare L (A T ): R m R n, L (A T )(Y ) = (A T )Y, Y R m. Consideriamo i seguenti sottospazi di R m : Im L A e Ker L (A T ). Verifichiamo che risulta: Im L A Ker L (A T ) = {0 R m}. Sia Y un vettore colonna di R m, Y è un elemento di M R (m,1), indichiamo con Y T M R (1,m) il vettore riga di R m trasposto di Y. Osserviamo che il prodotto delle matrici Y T e Y è il seguente numero reale Y T Y = y 2 1 + y2 2 +... + y2 n,

16 4. APPLICAZIONI LINEARI che risulta essere zero se e solo se y i = 0 i = 1,..,m, cioè Y = 0 R m. Sia ora Y Im L A KerL (A T ): poiché Y Im L A esiste un vettore X R n tale che Y = AX. Inoltre poiché Y Ker L (A T ) verifica la condizione (A T )Y = 0 R m. Calcoliamo il prodotto Y T Y, sostituendo AX al posto di Y e ricordando che Y Ker L (A T ) si ha: Y T Y = (AX) T Y = (X T A T )Y = X T (A T Y ) = X T 0 R m = 0. Possiamo quindi concludere che Y è il vettore nullo di R m e la somma dei sottospazi Im L A e Ker L (A T ) è diretta. Poiché Im L A Ker L (A T ) è un sottospazio di R m si ha: dim(im L A Ker L (A T )) = dim(im L A ) + dim(ker L (A T )) m. Poiché dim(im L A ) = rg(a) e applicando il teorema delle dimensioni (4.6) dim(ker L (A T )) = m rg(a T ), sostituendo ottenimamo quindi la disuguaglianza rg(a) rg(a T ). Scambiando i ruoli delle matrici A e A T si ottiene in modo analogo: rg(a T ) rg(a) da cui ricaviamo l uguaglianza tra i ranghi delle due matrici. Vale la pena di aggiungere anche la seguente Osservazione 4.9. Sia L: V W un applicazione lineare tra spazi vettoriali reali di dimensione finita. Come conseguenza del Teorema delle dimensioni (4.6) abbiamo le seguenti proprietà: (1) L è iniettiva dim(im L) = dim V ; (2) L è suriettiva dim(im L) = dim W; (3) se dim V = dim W, L è suriettiva L è iniettiva L è biunivoca. Dimostrazione. Infatti, ricordiamo che: L è iniettiva Ker L = {0 V } dim(ker L) = 0, dal teorema delle dimensioni (4.6) ciò succede dim(im L) = dim V. Ricordiamo che: L è suriettiva Im L = W dim(im L) = dimw. Se dim V = dim W, le condizioni scritte sopra coincidono, per cui le due proprietà sono equivalenti.

3. SPAZI VETTORIALI ISOMORFI. 17 3. Spazi vettoriali isomorfi. Abbiamo visto che, fissando in uno spazio vettoriale reale V di dimensione n una base B V, possiamo associare in modo univoco ad ogni vettore v V una n upla di numeri reali e quindi un vettore di R n : il vettore delle coordinate di v rispetto alla base fissata B V X = [v] BV. Abbiamo visto che possiamo in un certo senso dimenticarci della natura degli elementi di V e lavorare con i vettori delle coordinate. Siamo ora in grado di formalizzare questo discorso, introducendo la nozione di isomorfismo tra spazi vettoriali. Definizione 4.4. Sia L: V W un applicazione tra due spazi vettoriali reali. L è un isomorfismo di V in W se è un applicazione lineare biunivoca; V e W sono detti spazi vettoriali isomorfi se esiste un isomorfismo di V in W, scriviamo: V W. Proposizione 4.8. Sia L: V W un applicazione lineare tra spazi vettoriali reali di dimensioni finite. Allora: L isomorfismo = dim V = dim W,. Dimostrazione. Infatti se L è un isomorfismo, allora L è iniettiva e quindi dim(im L) = dim V ; ma L è anche suriettiva, quindi dim(iml) = dim W, per cui possiamo concludere che i due spazi hanno la stessa dimensione. Vale pertanto la seguente Osservazione 4.10. Sia L: V W un applicazione lineare tra spazi vettoriali reali con la stesa dimensione: dim V = dim W = n. Dalle considerazioni precedenti, possiamo concludere che: L isomorfismo L iniettiva L suriettiva. Esempio 4.11. Consideriamo lo spazio vettoriale M R (m,n) delle matrici reali con m righe ed n colonne. Sia T : M R (m,n) M R (n,m) l applicazione che associa ad ogni matrice A la sua trasposta: T(A) = A T. Ricordiamo che i vettori colonna di A sono i vettori riga della matrice A T, abbiamo quindi: (A T ) ij = (A) ji i = 1,.,n j = 1,..,m. Verifichiamo che T è un isomorfismo di M R (m,n) in M R (n,m). Verifichiamo dapprima che T è un applicazione lineare, cioè che valgono le seguenti proprietà: T(A + B) = T(A) + T(B), A,B M R (m,n),

18 4. APPLICAZIONI LINEARI T(λA) = λt(a), A M R (m,n), λ R. Tali proprietà seguono immediatamente dalla definizione di trasposta, infatti ricordiamo che: (A + B) T = A T + B T, A,B M R (m,n); (λa) T = λa T, A M R (m,n), λ R. Verifichiamo infine che T è un isomorfismo. Poiché si ha dim(m R (m,n)) = mn = dim(m R (n,m)), basta verificare che T è iniettiva. Sia A M R (m,n) una matrice tale che: T(A) = A T = O n,m, allora risulta (A T ) ij = 0 i = 1,..,n,j = 1,.,m; da cui deduciamo che cioè A è la matrice nulla. Possiamo quindi concludere che: (A) ji = 0 i = 1,..,n,j = 1,.,m, M R (m,n) M R (n,m). In particolare, per m = 1, otteniamo che lo spazio vettoriale dei vettori colonna di R n è isomorfo allo spazio vettoriale dei vettori riga di R n. Proviamo ora che fissare una base in uno spazio vettoriale reale V di dimensione n, permette di definire in modo naturale un isomorfismo tra V e lo spazio vettoriale R n. Proposizione 4.9 (Isomorfismo di rappresentazione). Siano V uno spazio vettoriale reale di dimensione n e B = {v 1,..,v n } una base di V. Sia L B : V R n, v [v] B, l applicazione che associa ad ogni vettore di V la n upla delle coordinate rispetto alla base B. L B è un isomorfismo di V in R n. Dimostrazione. Consideriamo l applicazione L B : V R n : v X = [v] B R n, dove X è il vettore delle coordinate di v nella base fissata. Ricordiamo che le coordinate di v sono i coefficienti dei vettori della base nella combinazione lineare seguente: v = x 1 v 1 +... + x n v n. Proviamo che L B è un applicazione lineare. Basta provare che: (1) v,u V : [v + u] B = [v] B + [u] B ; (2) v V, α R: [αv] B = α[v] B.

3. SPAZI VETTORIALI ISOMORFI. 19 Verifichiamo la (1). Le coordinate di v e di u sono rispettivamente i coefficienti dei vettori della base nelle combinazioni lineari seguenti: v = x 1 v 1 +... + x n v n, u = y 1 v 1 +... + y n v n. Sommando i vettori v e u e applicando le proprietà degli spazi vettoriali, otteniamo: v + u = (x 1 v 1 +... + x n v n ) + (y 1 v 1 +... + y n v n ), = (x 1 + y 1 )v 1 +... + (x n + y n )v n, da cui deduciamo che le coordinate di v+u si ottengono sommando le coordinate di v e le coordinate di u. Verifichiamo la (2). Le coordinate di v sono i coefficienti dei vettori della base nella combinazione lineare seguente: v = x 1 v 1 +... + x n v n, moltiplicando v per il numero reale α e applicando le proprietà degli spazi vettoriali, otteniamo: αv = α(x 1 v 1 +... + x n v n ) = (αx 1 )v 1 +... + (αx n )v n, da cui deduciamo che le coordinate di αv si ottengono moltiplicando per il numero reale α le coordinate di v. Poiché dim V = dim R n = n, per provare che L B è un isomorfismo basta provare che L B è iniettiva, cioè che risulta: Ker L B = {0 V }. Sia v Ker L B, si ha: [v] B = 0 R n, cioè v è la combinazione banale dei vettori della base: v = 0v 1 +... + 0v n = 0 V, ciò implica che v = 0 V e possiamo concludere che L B è iniettiva. Grazie all isomorfismo L B di V in R n, definito dalla base B, possiamo effettivamente tradurre le proprietà algebriche dei vettori di V in analoghe proprietà delle corrispondenti n uple di rappresentazione. Una di queste proprietà è la dipendenza lineare: s vettori sono linearmente dipendenti in V se e solo se sono linearmente dipendenti i vettori (n uple) delle loro coordinate in R n. Proprietà 4.10. Siano V uno spazio vettoriale reale e B una base di V. I vettori {u 1,..,u s } sono linearmente dipendenti in V se e solo se i vettori delle loro coordinate {[u 1 ] B,...,[u s ] B } sono linearmente dipendenti in R n. Dimostrazione. Ricordiamo che i vettori {u 1,..,u s } sono linearmente dipendenti in V se e solo se esiste una loro combinazione lineare non banale che dà il vettore nullo di V : λ 1 u 1 +.. + λ s u s = 0 V.

20 4. APPLICAZIONI LINEARI Osserviamo che, per la linearità di L B risulta: [λ 1 u 1 +.. + λ s u s ] B = λ 1 [u 1 ] B +.. + λ s [u s ] B. Passando ai vettori delle coordinate, la combinazione scritta sopra genera la seguente combinazone lineare non banale λ 1 [u 1 ] B +.. + λ s [u s ] B = [0 V ] B = 0 R n, da cui deduciamo che i vettori {[u 1 ] B,...,[u s ] B } sono linearmente dipendenti in R n. Concludiamo con il seguente risultato: Corollario 4.11. Ogni spazio vettoriale reale V di dimensione n è isomorfo allo spazio R n. Esempio 4.12. - Lo spazio vettoriale E 3 O è isomorfo a R3. - Lo spazio vettoriale M R (2) è isomorfo a R 4. - Lo spazio vettoriale M R (m,n) è isomorfo a R mn. 4. Applicazioni lineari e matrici. D ora in poi consideriamo spazi vettoriali di dimensione finita e fissiamo una base in ciascun spazio. Dimostriamo la seguente proprietà fondamentale: ogni applicazione lineare L: V W è completamente determinata dalle immagini dei vettori della base di V. Piú precisamente: sia n = dim V, proviamo che fissato un sistema S W di n vettori arbitrari in W esiste un unica applicazione lineare che trasforma la base fissata B V di V in S W. Proposizione 4.12. Siano V e W due spazi vettoriali reali di dimensione finita. Siano B V = {v 1,v 2,..,v n } una base di V e {w 1,..,w n } un insieme di n vettori di W. Esiste un unica applicazione lineare L: V W tale che L(v i ) = w i, i = 1,..,n. Dimostrazione. Definiamo l applicazione L: V W nel seguente modo: v V L(v) = x 1 w 1 +... + x n w n, dove x 1,x 2,..,x n sono le coordinate di v nella base fissata B V = {v 1,..,v n }, cioè x 1,x 2,..,x n sono gli scalari che compaiono nella scrittura: v = x 1 v 1 +... + x n v n. Proviamo che L è lineare. Siano v = x 1 v 1 +... + x n v n e u = y 1 v 1 +... + y n v n, allora: v + u = (x 1 + y 1 )v 1 +... + (x n + y n )v n, quindi abbiamo L(v + u) = (x 1 + y 1 )w 1 +.. + (x n + y n )w n =

4. APPLICAZIONI LINEARI E MATRICI. 21 = (x 1 w 1 +... + x n w n ) + (y 1 w 1 +... + y n w n ) = L(v) + L(u). Siano ora v = x 1 v 1 +... + x n v n e α R, allora: per cui abbiamo: αv = (αx 1 )v 1 +... + (αx n )v n, L(αv) = (αx 1 )w 1 +... + (αx n )w n = α(x 1 w 1 +... + x n w n ) = αl(v). Inoltre, i = 1,..,n risulta: L(v i ) = 0w 1 + 0w 2 +.. + 1w i +.. + 0w n = w i. Proviamo infine l unicità: verifichiamo che se T : V W è un applicazione lineare che verifica le condizioni T(v i ) = w i, i = 1,..n, allora T coincide con l applicazione L. Infatti, v V abbiamo per la linearità di T: T(v) = T(x 1 v 1 +... + x n v n ) = x 1 T(v 1 ) +...x n T(v n ) = = x 1 w 1 +...x n w n = L(v), poiché T(v) = L(v) v V, le applicazioni coincidono. NOTA BENE: Un applicazione lineare L: V W è univocamente determinata conoscendo le immagini dei vettori della base scelta in V!! Esempio 4.13. Fissata la base canonica {e 1,e 2 } di R 2, determinare l operatore lineare L: R 2 R 2 tale che: L(e 1 ) = e 1 + 2e 2 L(e 2 ) = e 1. Ricordiamo che ogni vettore v R 2 si scrive in uno e un solo modo come combinazione lineare di e 1 e e 2 : v = xe 1 + ye 2. L unico operatore lineare L che soddisfa le condizioni precedenti è il seguente: L(v) = xl(e 1 ) + yl(e 2 ) = x(e 1 + 2e 2 ) + y( e 1 ) = (x y)e 1 + 2xe 2, da cui ricaviamo l spressione di L ( x L y ) = ( x y 2x ). Ricordiamo che fissare una base B in uno spazio vettoriale reale di dimensione n significa associare ad ogni vettore una n-upla di scalari, le coordinate del vettore nella base fissata, quindi un vettore di R n. Il vantaggio di usare le coordinate è che ogni applicazione lineare può essere scritta in forma matriciale, si ha infatti il fondamentale risultato:

22 4. APPLICAZIONI LINEARI Teorema 4.13. Siano V e W due spazi vettoriali reali di dimensione finita. Siano B V = {v 1,v 2,...,v n } una base di V e B W = {w 1,w 2,...,w m } una base di W. Data un applicazione lineare L: V W esiste un unica matrice A M R (m,n) tale che l espressione di L in coordinate è la seguente: Y = AX, dove X è il vettore delle coordinate di v nella base B V ed Y è il vettore delle coordinate di L(v) nella base B W : X = [v] BV Y = [L(v)] BW. La matrice A è detta matrice associata a L o matrice di rappresentazione di L nelle basi B V e B W. Sia A i la i-esima colonna della matrice A, A i è costituita dalle coordinate del vettore L(v i ) nella base B W, i = 1,2..,n: A i = [L(v i )] BW, i = 1,..,n. Dimostrazione. Siano L(v 1 ), L(v 2 ),... L(v n ) le immagini dei vettori della base B V fissata in V. Consideriamo il vettore delle coordinate di L(v j ) nella base B W fissata in W: A j = [L(v j )] BW, j = 1,...,n, otteniamo in questo modo una matrice A = (A 1,..,A n ) M R (m,n). Consideriamo l applicazione lineare L A : V W così definita: L A (v) = w Y = AX, X = [v] BV, Y = [L(v)] BW, dove X e Y sono rispettivamente i vettori delle coordinate di v e L(v) nelle basi fissate in V e W. Proviamo che le applicazioni lineari L e L A coincidono. A tal fine è sufficiente verificare che le due applicazioni coincidono sui vettori della base fissata {v 1,...,v n } di V. Per ogni j = 1,..,n, osserviamo che risulta: [v j ] BV = e j, Ae j = A j, dove e j indica il j-esimo vettore della base canonica di R m ; dalle relazioni precedenti ricaviamo che [L A (v j )] BW = A j. Poiché, per ipotesi, A j = [L(v j )] BW, allora j = 1,.,n abbiamo l uguaglianza [L A (v j )] BW = [L(v j )] BW. Possiamo quindi affermare che j = 1,.,n risulta L(v j ) = L A (v j ), il teorema precedente ci peremette allora di concludere che L = L A.

4. APPLICAZIONI LINEARI E MATRICI. 23 NOTA BENE: La matrice A dipende dalla scelta delle basi in V e in W!!!!! Esempio 4.14. (1) Sia L: R 2 R 3 l applicazione lineare data da: ( ) x L = x 2y x + y. y 4x Scriviamo la matrice associata a L nelle basi canoniche di R 2 e R 3. Fissata B = {e 1,e 2 } la base standard di R 2, abbiamo: ( ) 1 L(e 1 ) = L = 1 ( ) 1 0 L(e 0 2 ) = L = 2 1. 1 4 0 La matrice associata a L è la matrice A M R (3,2) le cui colonne sono le coordinate, nella base canonica di R 3, di L(e 1 ) e L(e 2 ): A = 1 2 1 1. 4 0 (2) Sia I V : V V l operatore identità di V. Fissata una stessa base B V = {v 1,v 2,..,v n } nel dominio e codominio, scriviamo la matrice associata a I V. Abbiamo: I V (v 1 ) = v 1,I V (v 2 ) = v 2...I V (v n ) = v n, da cui ricaviamo il vettore delle coordinate di I V (v i ), per ogni i = 1,..,n: [I V (v i )] BV = [v i ] BV = e i, dove e i indica l i-esimo vettore della base canonica di R n. Possiamo concludere che la matrice associata a I V è la matrice identità di ordine n: A = I n. In altre parole, l operatore identità in V è sempre rappresentato dalla matrice 1 0 0 0 0 1 0 0 0 0 1 0...... 0 0 1 purché la base usata sia la stessa nel dominio e nel codominio. (3) Sia L: E 2 O E2 O la rotazione in senso antiorario attorno all origine dell angolo θ = π 2. Verifichiamo che L è un operatore lineare di E2 O e fissata la base canonica di E 2 O scriviamo la rappresentazione matriciale di L.

24 4. APPLICAZIONI LINEARI Verifichiamo che L è lineare. Siano v 1,v 2 E 2 O, consideriamo il parallelogramma P di lati v 1 e v 2. Sia L(P) il parallelogramma di lati L(v 1 ) e L(v 2 ). Osserviamo che la diagonale per O del parallelogramma L(P) è la rotazione della diagonale per O del parallelogramma P, quindi abbiamo: L(v 1 + v 2 ) = L(v 1 ) + L(v 2 ), v 1,v 2 E 2 O. Siano ora α R e v E 2 O, osserviamo che la rotazione del vettore αv ha la direzione della rotazione di v, in particolare si verifica che risulta: L(αv) = αl(v), α R, v E 2 O. Sia B = {e 1,e 2 } la base canonica di E 2 O. Calcoliamo le immagini dei vettori della base: L(e 1 ) = e 2 L(e 2 ) = e 1. Sia A M R (2) la matrice associata a L nella base fissata B, le colonne di A sono rispettivamente i vettori delle coordinate di L(e 1 ) e L(e 2 ) nella base B: A 1 = [L(e 1 )] B = [e 2 ] B, A 2 = [L(e 2 )] B = [ e 1 ] B, da cui ricaviamo ( ) 0 1 A =. 1 0 Nella base fissata B l operatore L ha la seguente espressione matriciale: ( ) 0 1 Y = X, X R 1 0 2. La rappresentazione matriciale di un applicazione lineare ci consente di lavorare negli spazi R n, tale rappresenatzione ci consente di ricavare le seguenti proprietà degli spazi nucleo e immagine: Proprietà 4.14. Sia L: V W un applicazione lineare tra due spazi vettoriali reali di dimensione finita. Siano B V = {v 1,..,v n } e B W = {w 1,..,w m } rispettivamenete una base di V e una base di W e A M R (m,n) la matrice associata a L nelle basi fissate. Risulta allora: (1) KerL = {v V [v] BV = X A X = 0 R m}; (2) ImL = {w W [w] BW = Y Y = AX, X R n }; (3) dim(im L) = rg(a). Dimostrazione. Indicati con X e Y rispettivamente i vettori delle coordinate di v e L(v) nelle basi fissate in V e W, si ha: Y = AX. Ricordiamo la definizione del sottospazio nucleo di L: abbiamo quindi: Ker L = {v V L(v) = 0 V },

4. APPLICAZIONI LINEARI E MATRICI. 25 v Ker L L(v) = 0 V Y = 0 R m A X = 0 R m. Ricordiamo la definizione del sottospazio imagine di L Im L = {w W v V : L(v) = w}, poniamo X = [v] BV e Y = [w] BW, abbiamo che w Im L se e solo se Y = AX, con X R n. Ricordiamo infine che ImL = span(l(v 1 ),...,L(v n )), inoltre per ogni i = 1,..,n, la colonna A i della matrice A è il vettore delle coordinate di L(v i ) nella base B W : A i = [L(v i )] BW, i = 1,..,n. Per concludere la dimostrazione basta provare che gli spazi vettoriali hanno la stessa dimensione: span(l(v 1 ),...,L(v n )) e span(a 1,..,A n ) dim(span(l(v 1 ),...,L(v n ))) = dim(span(a 1,..,A n )) = rg(a). Ma ciò segue dalla ben nota proprietà (4.10): i vettori {u 1,...,u s } sono linearmente dipendenti in W se e solo se i vettori delle loro coordinate {[u 1 ] BW,...,[u s ] BW } sono linearmente dipendenti in R m. Esempio 4.15. Sia L: R 3 R 3 l operatore lineare dato da L x y z = 2x y + z y + z x + z. (1) Scrivere la matrice associata a L rispetto alla base canonica di R 3 ; (2) calcolare le dimensioni degli spazi KerL e Im L; (3) scrivere le equazioni degli spazi Ker L e Im L. Sia B = {e 1,e 2,e 3 } la base standard di R 3. Determiniamo le immagini dei vettori della base: L(e 1 ) = 2 0 L(e 2 ) = 1 1 L(e 3 ) = 1 1, 1 0 1 la matrice associata a L è quindi la seguente matrice A M R (3): A = 2 1 1 0 1 1. 1 0 1

26 4. APPLICAZIONI LINEARI L espressione matriciale di L è la seguente: L x y z = A x y z Osserviamo che risulta A = 0, inoltre le colonne A 1 e A 2 sono linearmente indipendenti. Possiamo quindi concludere che dim(iml) = rg(a) = 2 e quindi Im L è un piano per l origine in R 3, piú precisamente. Im L = span(a 1,A 2 ) = span(l(e 1 ),L(e 2 )). Abbiamo quindi la seguente rappresentazione parametrica di Im L: x = 2t s, y = s, z = t, s,t R, da cui ricaviamo l equazione cartesiana di ImL: x + y 2z = 0. Applicando il teorema delle dimensioni (4.6) abbiamo: da cui ricaviamo: dim R 3 = dim(ker L) + dim(im L), dim(ker L) = 3 dim(im L) = 1. Possiamo concludere che Ker L è una retta per l origine in R 3. Per ottenere le equazioni cartesiane di Ker L, osserviamo che i punti di Ker L sono le soluzioni del sistema lineare omogeneo: A x y z = 0 0 0 dato dalle 3 equazioni seguenti: 2x y + z = 0 y + z = 0 x + z = 0. Osserviamo che le prime due equazioni sono indipendenti e la terza equazione è combinazione lineare delle altre, quindi è superflua. Le equazioni cartesiane di Im L sono quindi: { 2x y + z = 0 y + z = 0.,

4. APPLICAZIONI LINEARI E MATRICI. 27 Osservazione 4.16. Siano L A : R n R m e L B : R m R p due applicazioni lineari definite rispettivamente dalle matrici A M R (n,m) e B M R (m,p). Ricordiamo che la composizione delle applicazioni L B ed L A è l applicazione definita nel modo seguente: L B L A : R n R p, X R n : X AX B(AX) = (BA)X. La composizione L B L A è quindi l applicazione lineare L BA definita dalla matrice BA. Sia L A : R n R n l operatore lineare definito dalla matrice A M R (n). Ricordiamo che L A è un operatore invertibile se e solo se è iniettivo, se e solo se Ker L A = {0 R n}, se e solo se rg(a) = n, se e solo se la matrice A è invertibile. Proviamo che l operatore lineare L A 1 definito dalla matrice A 1 è l operatore inverso di L A. Infatti, dall osservazione precedente (4.16) risulta: L A L A 1 = L AA 1 = L In, poiché L In risulta essere l operatore identità di R n, segue la tesi. I risultati che abbiamo appena verificato valgono in generale per la composizione di applicazioni lineari tra spazi vettoriali di dimensione finita. Abbiamo infatti il risultato seguente che ci limitiamo ad enunciare: Proposizione 4.15. (1) Siano L 1 : V W e L 2 : W U due applicazioni lineari tra spazi vettoriali reali di dimensioni finite. Fissate le basi B V, B W e B U, siano A M R (n,m) e B M R (m,p) le matrici associate rispettivamente alle applicazioni lineari L 1 ed L 2. La composizione L 2 L 1 : V U è un applicazione lineare e la matrice ad essa associata nelle basi fissate è la matrice BA. (2) Sia L: V W un applicazione lineare tra due spazi vettoriali reali di dimensione n. Fissate le basi B V e B W sia A M R (n) la matrice associata ad L. L è un isomorfismo se e solo se la matrice A è invertibile. L applicazione inversa di L, L 1 : W V, è un applicazione lineare e la matrice ad essa associata nelle basi fissate è la matrice A 1. Osservazione 4.17. - Osserviamo che se L 1 : V W e L 2 : W U sono isomorfismi, allora lo loro composizione L 2 L 1 è un isomorfismo di V in U. - Osserviamo che se L: V W è un isomorfismo, allora L 1 : W V è un isomorfismo.

28 4. APPLICAZIONI LINEARI Corollario 4.16. Due spazi vettoriali reali di uguale dimensione sono isomorfi. Dimostrazione. Siano V 1 e V 2 due spazi vettoriali reali di dimensione n 1, proviamo che: V 1 V 2. Fissiamo rispettivamente le basi B 1 e B 2 di V 1 e V 2, esse definiscono gli isomorfismi: L B1 : V 1 R n L B2 : V 2 R n. In particolare, anche L 1 B2 : R n V 2 è un isomorfismo. Quindi la composizione L 1 B2 L B1 : V 1 V 2 è un isomorfismo di V 1 in V 2. Possiamo quindi concludere che V 1 V 2. 5. Matrici associate alla stessa applicazione lineare Abbiamo visto che ad ogni applicazione lineare tra due spazi vettoriali di dimensione finita, fissate una base in ciascuno spazio, possiamo associare una matrice e scrivere l applicazione in forma matriciale. La matrice associata dipende quindi dalla scelta della base in ciascun spazio, in generale coppie di basi diverse danno matrici diverse. Vediamo in dettaglio un semplice esempio. Esempio 4.18. Fissato R(O,î,ĵ), sistema di riferimento cartesiano ortogonale nel piano, sia L: E 2 O E2 O l operatore lineare che associa ad un vettore applicato del piano v = OP il vettore L(v) = OP dove P è il simmetrico di P rispetto alla bisettrice del I e III quadrante. Fissiamo la base canonica di E 2 O : B 1 = {î,ĵ}. Abbiamo: L(î) = ĵ L(ĵ) = î, otteniamo quindi che la matrice associata a L nella base fissata B 1 è la seguente: ( ) 0 1 A =. 1 0 Consideriamo ora una base B 2 = {v 1,v 2 } di E 2 O data da due vettori indipendenti: v 1 = a 1 î + b 1 ĵ v 2 = a 2 î + b 2 ĵ. Abbiamo: L(v 1 ) = L(a 1 î + b 1 ĵ) = a 1 L(î) + b 1L(ĵ) = a 1ĵ + b 1î, L(v 2 ) = L(a 2 î + b 2 ĵ) = a 2 L(î) + b 2L(ĵ) = a 2ĵ + b 2î. La matrice associata a L nella base B 2 è la seguente: ( ) b1 b B = 2. a 1 a 2 Osserviamo che se b 1 0 e a 2 0, le matrici A e B non coincidono.

5. MATRICI ASSOCIATE ALLA STESSA APPLICAZIONE LINEARE 29 Sia L: V W un applicazione lineare tra due spazi vettoriali di dimensione finita. Siano A M R (m,n) la matrice associata a L rispetto alle basi B V e B W e B M R (m,n) la matrice associata a L rispetto alle basi B V e B W. Ci proponiamo di ricavare una relazione tra le matrici A e B. Per ogni vettore v V, consideriamo i vettori delle coordinate di v nelle basi fissate in V : X = [v] BV X = [v] B V. Indicata con N GL(n, R) la matrice invertibile che realizza il cambiamento di basi in V, i vettori delle coordinate nelle due basi sono legati dalla relazione: X = NX. Analogamente, per ogni vettore L(v) Im L, consideriamo i vettori delle coordinate di L(v) nelle basi fissate in W: Y = [L(v)] BW Y = [L(v)] B W. Indicata con M GL(m, R) la matrice invertibile che realizza il cambiamento di basi in W, i vettori delle coordinate nelle due basi sono legati dalla relazione: Y = MY. Ricordiamo infine che, fissate rispettivamenta in V e W le basi B V e B W, l espressione matriciale di L è la seguente: mentre fissate le basi B V e B W Y = AX, l espressione matriciale di L è la seguente: Y = BX. Sostituendo nella prima espressione matriciale di L le relazioni X = NX e Y = MY otteniamo: NY = A(MX ), moltiplicando entrambi i membri a sinistra per la matrice N 1 otteniamo: Y = (N 1 AM)X. Poiché la matrice associata a L nelle basi B V e B W è univocamente determinata, abbiamo necessariamente l uguaglianza: B = N 1 AM. Abbiamo quindi provato il seguente risultato: Proposizione 4.17. Sia L: V W un applicazione lineare tra spazi vettoriali reali di dimensione finita. Siano A M R (m,n) la matrice associata a L rispetto alle basi B V e B W e B M R (m,n) la matrice associata a L rispetto alle basi B V e B W. La relazione tra le matrici A e B è la seguente: (4.4) B = N 1 AM, dove N GL(n, R) è la matrice invertibile che realizza il cambiamento di basi in V e M GL(m, R) la matrice invertibile che realizza il cambiamento di basi in W.

30 4. APPLICAZIONI LINEARI Corollario 4.18. Sia L: V V un operatore lineare di uno spazio vettoriale V di dimensione n. Siano A M R (n) la matrice associata a L rispetto alla base B V e B M R (n) la matrice associata a L rispetto alla base B V. La relazione tra le matrici A e B risulta essere la seguente: B = N 1 AN, dove N GL(n, R) è la matrice invertibile che realizza il cambiamento di basi in V. Nel seguito studieremo in dettaglio le proprietà di un operatore lineare e saremo particolarmente interessati a cercare cambiamenti di base che ne possano semplificare l espressione matriciale. Per questo motivo ci soffermiamo sulla relazione che abbiamo ora ricavato. Definizione 4.5. Siano A,B M R (n) due matrice quadrate reali di ordine n, B è simile ad A se esiste una matrice invertibile N GL(n, R) tale che B = N 1 AN. Osservazione 4.19. Nell anello M R (n) la relazione di similitudine di matrici ora introdotta gode delle seguenti proprietà: (1) Proprietà riflessiva: ogni matrice A è simile a se stessa. Basta prendere N = I n. (2) Proprietà simmetrica: se B è simile ad A, anche A è simile a B. Infatti dall uguaglianza B = N 1 AN, moltiplicando a destra per la matrice N 1 e a sinistra per la matrice N, otteniamo: NBN 1 = A. (3) Proprietà transitiva: se B è simile ad A e A è simile a C, allora B è simile a C. Abbiamo per definizione: B = N 1 AN A = M 1 CM, N,M GL(n, R). Sostituendo la seconda espressione nella prima otteniamo: B = N 1 (M 1 CM)N = (N 1 M 1 )C(MN) = (MN) 1 C(MN), da cui ricaviamo che B è simile a C. Grazie alla proprietà di simmetria, d ora in poi diremo semplicemente che le matrici A e B sono simili. Possiamo quindi affermare che la relazione di similitudine tra matrici quadrate è una relazione di equivalenza. Osservazione 4.20. Siano A,B M R (n), ossiamo che A e B sono simili se e solo se rappresentano lo stesso operatore lineare in basi diverse. Abbiamo verificato che se A e B sono le matrici associate ad un operatore in basi diverse allora A e B sono simili.

5. MATRICI ASSOCIATE ALLA STESSA APPLICAZIONE LINEARE 31 Viceversa, siano ora A e B due matrici simili. Consideriamo l operatore L A : R n R n dato da L A (X) = AX. La matrice A è la matrice associata a L A nella base canonica B di R n. Consideriamo ora il cambiamento di coordinate in R n di equazione X = NX, che corrisponde a fissare la nuova base B = {N 1,..,N n }, dove N 1,..,N n R n sono i vettori colonna della matrice N. La matrice associata all operatore L A nella base B è la matrice B = N 1 AN. Le matrici rappresentano quindi lo stesso operatore lineare in basi diverse. Per le prossime considerazioni, ci serve un risultato molto utile che sintetizziamo nel seguente Lemma 4.19. Siano A,B M R (n) matrici quadrate di ordine n reali. Allora la traccia del prodotto fra le matrici non dipende dall ordine delle matrici nel prodotto, ossia (4.5) tr(a B) = tr(b A). Dimostrazione. Ricordiamo che la traccia di una matrice M M R (n) si ottiene sommando gli elementi lungo la diagonale, ossia n (4.6) tr M = M ii. i=1 Inoltre, per la definizione del prodotto righe per colonne fra matrici, possiamo scrivere n n n tr(a B) = (A B) ii = ( A ij B ji ) = = i=1 n j=1 i=1 i=1 n A ij B ji = n (B A) jj j=1 = tr(b A), j=1 j=1 n n ( B ji A ij ) dove abbiamo usato le proprietà della sommatoria (indice muto) e, a più riprese, le proprietà associativa e commutativa dell addizione. associativa i=1 Studiamo ora le proprietà comuni a due matrici simili: Proprietà 4.20. Siano A,B M R (n) due matrici simili, allora si ha: (1) rg(a) = rg(b); (2) A = B ; (3) tr A = tr B.

32 4. APPLICAZIONI LINEARI Dimostrazione. Verifichiamo immediatamente le prime due proprietà. (1) Poiché le matrici sono simili, rappresentano lo stesso operatore lineare L: R n R n in due basi diverse. Ricordiamo che, se L si rappresenta con una matrice A, la dimensione dello spazio immagine Im L è il rango della matrice A. Quindi otteniamo: rg(a) = dim(im L) = rg(b), da cui deduciamo che le due matrici hanno lo stesso rango. (2) Poiché le matrici sono simili, esiste una matrice invertibile M GL(n, R) che verifica l uguaglianza B = M 1 AM. Calcolando il determinante a sinistra e a destra nell uguaglianza e applicando la regola di Binet otteniamo: B = M 1 AM = M 1 A M. Ricordiamo ora che il determinante di una matrice quadrata è un numero reale, per cui applicando la proprietà commutativa del prodotto si ha: B = A M 1 M, ricordando ora che M 1 = M 1, si ottiene che A = B. Per dimostrare la proprietà (3), ricordiamo il Lemma (4.19); con la matrice M come al punto precedente, possiamo scrivere tr B = tr(m 1 AM) = tr(amm 1 ) = tr(ai(n)) = tr A. Osserviamo che le proprietà che abbiamo enunciato sono condizioni necessarie ma non sufficienti per garantire la similitudine tra due matrici, come mostreremo nei seguenti esempi. Esempio 4.21. (1) Consideriamo le seguenti matrici reali quadrate di ordine 2: ( ) ( ) 1 1 1 0 A = B = I 0 1 2 =. 0 1 Osserviamo che risulta: A = B = 1, rg(a) = rg(b) = 2, tr A = tr B = 2. Tuttavia le matrici non sono simili. Infatti, supponiamo per assurdo che esista una matrice invertibile M GL(2, R) tale che poiché B = I 2, si avrebbe A = M 1 BM, A = M 1 I 2 M = M 1 M = I 2,