Appunti di Algebra Lineare. Antonino Salibra

Documenti analoghi
Sistemi lineari. Lorenzo Pareschi. Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara

Rette e piani in R 3

CORSO DI LAUREA IN INGEGNERIA MECCANICA A.A PROVA SCRITTA DI GEOMETRIA DEL Compito A Corso del Prof.

Anno Accademico 2015/2016

2 Sistemi lineari. Metodo di riduzione a scala.

Matematica Domande di Algebra e Geometria Analitica

DIARIO DEL CORSO DI MATHEMATICS FOR DATA SCIENCE TRENTO, A.A. 2018/19 DOCENTI: ANDREA CARANTI, SIMONE UGOLINI

Algebra Lineare. Antonino Salibra. October 30, 2017

Appunti di Algebra Lineare. Antonino Salibra

(V) (FX) L unione di due basi di uno spazio vettoriale è ancora una base dello spazio vettoriale.

Matematica II

18 aprile Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA...

Algebra Lineare. Antonino Salibra. October 13, 2017

GEOMETRIA svolgimento di uno scritto del 11 Gennaio 2012

Capitolo 3 Matrici. Marco Robutti. Facoltà di ingegneria Università degli studi di Pavia. Anno accademico

Note per il corso di Geometria Corso di laurea in Ing. Edile/Architettura. 4 Sistemi lineari. Metodo di eliminazione di Gauss Jordan

Corso di Geometria, a.a Ing. Informatica e Automatica Esercizi VI: soluzioni

10 luglio Soluzione esame di geometria - Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA...

3. Elementi di Algebra Lineare.

Matematica per Analisi dei Dati,

Geometria BAER I canale Foglio esercizi 2

FONDAMENTI DI ALGEBRA LINEARE E GEOMETRIA INGEGNERIA INDUSTRIALE 27 GENNAIO 2014

INGEGNERIA EDILE ARCHITETTURA ELEMENTI DI ALGEBRA LINEARE E GEOMETRIA 17 SETTEMBRE 2012

MATRICI E OPERAZIONI

Esercizi svolti. Geometria analitica: rette e piani

Algebra lineare. Laboratorio di programmazione e calcolo CdL in Chimica. Pierluigi Amodio

Spazi vettoriali euclidei.

Applicazioni eliminazione di Gauss

Geometria BAER Canale I Esercizi 11

Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof. Fabio Perroni. 3. Sistemi di equazioni lineari

CORSO DI LAUREA IN INGEGNERIA MECCANICA A.A PROVA SCRITTA DI GEOMETRIA DEL Corsi dei Proff. M. BORDONI, A.

Corso di Geometria BIAR, BSIR Esercizi 10: soluzioni

Coordinate cartesiane e coordinate omogenee

Argomento 13 Sistemi lineari

a + 2b + c 3d = 0, a + c d = 0 c d

Esame scritto di Geometria I

Sommario lezioni di geometria

MATRICI. Matrici Una matrice A con n-righe e m-colonne, ad elementi reali, è una tabella con la seguente forma: a 2 m. a n m) i j R, 1 i n, 1 j m.

MATRICI E SISTEMI LINEARI

a a 1n A = a n1... a nn a 11 x a 1n x n = b 1 a n1 x a nn x n = b n ] sono determinati. 2- La matrice A = [ a ij

Elementi di Algebra Lineare Matrici e Sistemi di Equazioni Lineari

Registro Lezioni di Algebra lineare del 15 e 16 novembre 2016.

CORSO DI LAUREA IN INGEGNERIA DELLE TELECOMUNICAZIONI

Federica Gregorio e Cristian Tacelli

Geometria BAER I canale Foglio esercizi 2

4. Sottospazi vettoriali Piani e rette in E 3 O

P z. OP x, OP y, OP z sono le proiezioni ortogonali di v sugli assi x, y, z, per cui: OP x = ( v i) i. k j. P x. OP z = ( v k) k

Corso di Matematica e Statistica 3 Algebra delle matrici. Una tabella rettangolare: la matrice. Una tabella rettangolare: la matrice

Corso di Geometria, a.a Ing. Informatica e Automatica Esercizi VII: soluzioni

Geometria BAER Canale A-K Esercizi 9

Argomenti trattati nella settimana novembre Il libro cui faccio riferimento, se non specificato altrimenti, è Lang, Algebra lineare

Note sull algoritmo di Gauss

0. Introduzione al linguaggio matematico

r 2 r 2 2r 1 r 4 r 4 r 1

Analisi Matematica 1 e Matematica 1 Geometria Analitica: Rette

(x B x A, y B y A ) = (4, 2) ha modulo

Algebra delle matrici

I Compito di Geometria - Ingegneria Edile - 25 ottobre 2000 Tra parentesi [ ] è indicato il punteggio di ogni esercizio.

5 febbraio Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA...

CORSI DI LAUREA IN MATEMATICA E FISICA

MATRICI E SISTEMI LINEARI

misura. Adesso, ad un arbitrario punto P dello spazio associamo una terna di numeri reali x

misura. Adesso, ad un arbitrario punto P dello spazio associamo una terna di numeri reali x

= (cioè le due terne di numeri direttori ( devono essere ) proporzionali). Tale uguaglianza non è verificata, poiché risulta ρ

DIARIO DEL CORSO DI GEOMETRIA E ALGEBRA LINEARE

REGISTRO DELLE ESERCITAZIONI

Soluzioni dello scritto di Geometria del 28 Maggio 2009

Corso di Geometria BIAR, BSIR Esercizi 2: soluzioni

ESERCIZI DI MATEMATICA DISCRETA ANNO 2006/2007

Geometria BAER Canale I Esercizi 10

NOME COGNOME MATRICOLA CANALE

Elementi di Algebra Lineare

LE EQUAZIONI LINEARI LE IDENTITA ( )( ) 5. a Cosa hanno in comune le seguenti uguaglianze? Uguaglianza (1) a

x 1 Fig.1 Il punto P = P =

Algebra lineare Geometria 1 15 luglio 2009

Esercizi di Geometria e Algebra per Ingegneria Aerospaziale (nuovo ordinamento)

Possiamo scrivere le tre precedenti espressioni in un'unica equazione matriciale:

Si noti che la matrice trasposta A ha lo stesso determinante. Questa proprietà è generale;

1 Ampliamento del piano e coordinate omogenee

Prova scritta di Geometria 1 Docente: Giovanni Cerulli Irelli 20 Gennaio 2017

INGEGNERIA EDILE ARCHITETTURA ELEMENTI DI ALGEBRA LINEARE E GEOMETRIA 25 FEBBRAIO a a. A a = 1 a 0

Corso di Geometria BIAR, BSIR Esercizi 8: soluzioni

Ferruccio Orecchia. esercizi di GEOMETRIA 1

0.1 Coordinate in uno spazio vettoriale

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria.

0. Introduzione al linguaggio matematico

Matematica II, aa

CORSO DI LAUREA IN INGEGNERIA DELLE TELECOMUNICAZIONI

15 luglio Soluzione esame di geometria - Ing. gestionale - a.a COGNOME... NOME... N. MATRICOLA... ISTRUZIONI

12 gennaio Commenti esame di geometria - Ing. gestionale - a.a

Nozioni e notazioni: concetti primitivi di insieme, elemento ed appartenenza.

0. Introduzione al linguaggio matematico

Lezione 10 27/11/09. = 0 = x y + 2z = 0. Le componenti del vettore v devono essere quindi soluzione del sistema linere omogeneo. { x y +2z = 0 x z = 0

APPUNTI DI ALGEBRA LINEARE

Capitolo 1 Vettori applicati e geometria dello spazio

Corso di Matematica Generale M-Z Dipartimento di Economia Universitá degli Studi di Foggia ALGEBRA LINEARE. Giovanni Villani

A.A. 2014/2015 Corso di Algebra Lineare

Transcript:

Appunti di Algebra Lineare Antonino Salibra January 11, 2016

2 Libro di testo: Gilbert Strang, Algebra lineare, Edizioni Apogeo 2008 Programma di Algebra Lineare (2015/16) (da completare): 1. Campi numerici. Esempi di campi numerici: il campo dei numeri reali; il campo dei numeri complessi; il campo dei numeri modulo 2; il campo dei numeri modulo p per un numero primo p. 2. Numeri complessi: parte reale ed immaginaria, coniugato di un numero complesso. Modulo e norma. Prodotto e somma di numeri complessi. Rappresentazione trigonometrica: piano complesso. Rappresentazione esponenziale. 3. Introduzione ai vettori. Grandezze fisiche e vettori. La definizione di spazio vettoriale con somma vettoriale e prodotto per uno scalare. 4. Prodotto interno (o scalare) di due vettori. Proprietà del prodotto interno. Lunghezza di un vettore. Disuguaglianza di Schwartz. Caratterizzazione della perpendicolarità con il prodotto interno. Caratterizzazione del coseno dell angolo formato da due vettori con il prodotto interno. 5. Rette nel piano. Equazione di una retta. Equazione parametrica di una retta. Retta passante per l origine e perpendicolare ad un dato vettore. Retta parallela ad una retta passante per l origine. Retta passante per un punto e parallela (alla retta determinata da) ad un dato vettore. Retta passante per due punti. 6. Rette e piani nello spazio. Equazione del piano. Equazione parametrica del piano. Piano passante per l origine e perpendicolare ad un dato vettore. Piano parallelo ad un piano passante per l origine. Piano passante per tre punti non allineati. 7. Sistema Lineari. Il metodo di eliminazione di Gauss. Criteri da applicare nel metodo di eliminazione di Gauss. 8. Matrici. Matrice simmetrica, diagonale, triangolare superiore e inferiore. Trasposta di una matrice. Lo spazio vettoriale delle matrici m n. Prodotto di matrici. Proprietà del prodotto. Moltiplicazione di matrici a blocchi. 9. Matrici e sistemi lineari. Matrici elementari e triangolari e metodo di eliminazione di Gauss. Matrice Inversa. Invertibilità delle matrici

elementari. Il metodo di Gauss-Jordan per il calcolo dell inversa di una matrice. Matrici a gradini. Matrici equivalenti per riga (e per colonna). 10. Spazi vettoriali. Sottospazi. Vettori linearmente dipendenti e linearmente indipendenti. Basi e dimensione di uno spazio vettoriale. Basi ortogonali e ortonormali. Spazi ortogonali. 11. Applicazioni lineari e matrici. Teorema della dimensione. Matrice da una applicazione lineare. Applicazione lineare da una matrice. Isomorfismi e cambi di base. 12. Determinanti. Regola di Cramer. Calcolo del determinante. Calcolo della matrice inversa con il determinante. 13. Autovalori e autovettori. Polinomio caratteristico. Radici del polinomio caratteristico. Matrici simili hanno lo stesso polinomio caratteristico. Autospazi. Diagonalizzazione di una matrice. Teorema fondamentale. Esempi: algoritmo di Google. Numeri di Fibonacci. 3

4

Chapter 1 Campi Numerici Un campo è un insieme di numeri chiuso rispetto alle quattro operazioni: addizione, moltiplicazione, sottrazione e divisione. Definition 1.0.1. Un campo numerico è una quintupla (X, +,, 0,, 1, 1), dove X è un insieme, + e sono operazioni binarie,, 1 sono operazioni unarie, e 0, 1 costanti che soddisfano le seguenti equazioni: 1. Proprietà associativa: x+(y +z) = (x+y)+z; x (y z) = (x y) z. 2. Proprietà commutativa: x + y = y + x; x y = y x. 3. Elemento neutro: x + 0 = x; x 1 = x. 4. Proprietà distributiva: x (y + z) = (x y) + (x z). 5. Opposto: x + ( x) = 0. 6. Inverso: Se x 0, allora x x 1 = 1. 7. Prodotto per 0: x 0 = 0 = 0 x. Scriveremo xy al posto di x y; x y al posto di x + ( y); x/y per x y 1. Inoltre, il prodotto lega più della somma. Per esempio, x + yz significa x + (yz). La quadrupla (X, +,, 0) è un gruppo commutativo rispetto alla somma, mentre (X \ {0},, 1, 1) è un gruppo commutativo rispetto al prodotto. 5

6 CHAPTER 1. CAMPI NUMERICI Example 1. I seguenti insiemi sono campi numerici: L insieme dei numeri razionali Q; L insieme dei numeri reali R; L insieme dei numeri complessi C; L insieme dei bits B = {0, 1} con le operazioni di somma e prodotto definiti come segue: e 0 + 2 0 = 1 + 2 1 = 0; 0 + 2 1 = 1 + 2 0 = 1; 0 2 0 = 0 2 1 = 1 2 0 = 0; 1 2 1 = 1. L opposto di 1 è uno, cioé 1 = 1. Questo campo numerico rappresenta l aritmetica dei numeri modulo 2. Sia p un numero primo. Allora l insieme dei numeri {0, 1,..., p 1} con le operazioni di addizione + p e moltiplicazione p modulo p è un campo numerico. Se x, y p 1, allora abbiamo: { x + y if x + y p 1 x + p y = r if x + y = p + r per un certo r. { x y if x y p 1 x p y = r if x y = q p + r con 0 r p 1. Per esempio, se p = 5, abbiamo 3 + 5 2 = 0 e 3 + 5 3 = 1, mentre 3 5 3 = 4 e 4 5 4 = 1. 1.1 Il campo dei numeri complessi Si consulti il Capitolo 7 degli Appunti del Professor Gianfranco Niesi, Dipartimento di Matematica, Università di Genova: Appunti per il corso di Matematica Discreta, C.S. in Informatica, Anno Accademico 2005-2006. Link: http://www.dima.unige.it/ niesi/eml/md05appunti.pdf oppure si consultino le tre sezioni ai seguenti indirizzi http:// college.cengage.com/mathematics/larson/elementary linear/4e/shared/downloads/c08s1.pdf college.cengage.com/mathematics/larson/elementary linear/4e/shared/downloads/c08s2.pdf college.cengage.com/mathematics/larson/elementary linear/4e/shared/downloads/c08s3.pdf

Chapter 2 Introduzione agli spazi vettoriali 2.1 Introduzione ai vettori ed al prodotto interno In Fisica ma anche nella vita di tutti i giorni dobbiamo continuamente misurare qualcosa. Alcune di queste grandezze le possiamo misurare con un numero reale: saldo del conto corrente, altezza, età, etc. Ad altre grandezze corrisponde non solo una quantità rappresentata da un numero ma anche una direzione (con/senza verso). Per esempio, La forza di gravità terrestre, la cui direzione e verso vanno dal punto in cui vi trovate verso il centro della terra; La forza di gravità su Giove (molto maggiore della forza di gravità terrestre); Ha una grandezza, una di- La forza esercitata in un punto preciso. rezione ed un verso ben precisi; La velocità istantanea di un automobile. Non conta soltanto il valore, per esempio 120 Km/ora, ma anche la direzione e verso di marcia. I vettori sono una rappresentazione astratta delle grandezze che hanno una direzione (e talvolta verso). È importante distinguere tra vettore liberi e vettore applicati. Se in automobile viaggiamo a velocità costante lungo una linea retta, al tempo t ci troveremo in un determinato punto P della retta, mentre al tempo successivo t + 10 ci troveremo in un altro punto Q. Se misuriamo la velocità istantanea 7

8 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI nel punto P (velocità misurata + direzione) e poi nel punto Q, otterremo lo stesso risultato. Lo stesso vettore è applicato prima nel punto P e poi nel punto Q. In generale un vettore è caratterizzato da (a) lunghezza (o grandezza, o modulo, o quantità) che è misurata da un valore in un campo numerico (vedi Capitolo 1); (b) direzione. Possiamo sempre moltiplicare un vettore per uno scalare, che è un elemento del campo numerico con cui misuriamo le lunghezze: Se A è un vettore e c uno scalare, allora ca rappresenta il vettore che ha la stessa direzione di A ma lunghezza c volte la lunghezza di A. Possiamo misurare la direzione ed il verso? La direzione di un vettore non è misurabile con un numero. Possiamo soltanto sapere quando due vettori A e B hanno la stessa direzione: A e B hanno la stessa direzione se esiste uno scalare c del campo numerico tale che A = cb. Se il campo numerico è totalmente ordinato, come nel caso dei numeri reali oppure i numeri razionali, possiamo dire anche se hanno lo stesso verso: A e B hanno stessa direzione e verso se esiste uno scalare c > 0 tale che A = cb. A e B hanno stessa direzione ma verso opposto se esiste c < 0 tale che A = cb. Il campo dei numeri complessi non ha un ordinamento naturale. Quindi i vettori complessi hanno una direzione, ma non un verso. Oltre alla moltiplicazione per uno scalare, i vettori ammettono un altra operazione, che è detta somma o addizione di vettori. Per spiegare la somma vettoriale, immaginiamo di effettuare il seguente esperimento. Appoggiamo una palla enorme in un punto preciso del piano (campo di calcio). Immaginiamo che due persone Pinco e Pallino spingano la palla con forza, Pinco in direzione Nord e Pallino in direzione Ovest. La palla riceve una spinta rappresentata dal vettore A (grandezza, direzione, verso) verso nord e un altra spinta rappresentata dal vettore B verso ovest. In che direzione si muoverà la palla? Se le lunghezze dei due vettori sono uguali (cioé, pari spinta), allora la palla comincerà a muoversi verso la direzione nordovest, che è la direzione della retta che biseca l angolo di novanta gradi formato dalla retta Nord e la retta Ovest. La spinta totale che riceve la palla è rappresentata dal vettore A + B. Se la lunghezza del vettore A è 1 (si scrive A = 1) e se B = 1, allora la lunghezza del vettore A + B è 2 (non 2 come si potrebbe pensare). Se Pinco spinge da sud verso nord e Pallino da nord verso sud con una stessa forza, la palla non si muove nonostante lo sforzo di entrambi. La

2.2. SPAZI VETTORIALI 9 somma di due vettori di pari lunghezza e direzione ma di verso opposto è nulla! Figure 2.1: Forza e vettori 2.2 Spazi vettoriali Un punto v nello spazio di assi Cartesiani xyz è rappresentato da una terna v = (v x, v y, v z ) di numeri reali, le sue coordinate Cartesiane. La prima coordinata v x si ottiene proiettando perpendicolarmente il punto v nel piano z=0, ottenendo il vettore v xy poi proiettando il punto ottenuto sull asse delle x. Similmente per le altre due coordinate v y e v z. Figure 2.2: Coordinate del punto v

10 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI Un punto P determina univocamente un vettore 0P che va dall origine degli assi al punto P. Questo vettore si indicherà con il punto P stesso. Quindi parleremo di vettore P intendendo il vettore 0P. I vettori possono essere sommati coordinata per coordinata. Per esempio, se P = (2, 3, 4) e Q = (1, 2, 3) allora P + Q = (3, 5, 7). Geometricamente il punto P + Q si ottiene costruendo il parallelogramma di vertici P, 0 e Q. Il quarto vertice è proprio P + Q. Si veda Figura 3.1. Figure 2.3: Somma di vettori I vettori possono essere moltiplicati per uno scalare. Se P è un vettore nello spazio allora rp è un altro vettore che sta sempre nella retta, passante per l origine, determinata dal vettore P. Per esempio, se P = (3, 2, 1) allora 5P = (15, 10, 5). In generale, possiamo considerare in maniera astratta un insieme di vettori che possono essere sommati tra loro e moltiplicati per uno scalare che è un elemento di un campo numerico. Definition 2.2.1. Sia F un campo numerico. Uno spazio vettoriale su F è

2.2. SPAZI VETTORIALI 11 un insieme V di vettori con somma vettoriale + : V V V e prodotto per uno scalare : F V V che soddisfano gli assiomi seguenti: SV1: P + (Q + R) = (P + Q) + R; SV2: P + Q = Q + P ; SV3: 0 + P = P ; SV4: P + ( P ) = 0; SV5: (r + s)p = rp + sp ; SV6: (rs)p = r(sp ); SV7: r(p + Q) = rp + rq. Si noti che il vettore nullo viene indicato con 0 e che per brevità scriviamo rp al posto di r P. Si noti anche che l assioma (SV4) deriva da (SV5): P + ( P ) = (1 + ( 1))P = 0P = 0. Figure 2.4: Vettori

12 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI 2.3 Prodotto interno In questa sezione definiamo il prodotto interno di vettori di R 3. Analoghe definizioni possono essere date per vettori di R n con n arbitrario. Un punto A dello spazio rappresenta anche il vettore che va dall origine delle coordinate Cartesiane sino al punto A. Quindi in seguito parleremo di punto A oppure di vettore A senza alcuna distinzione. Se A = (a 1, a 2, a 3 ) e B = (b 1, b 2, b 3 ) sono due vettori nello spazio, allora il prodotto interno di A e B è definito come segue: A B = a 1 b 1 + a 2 b 2 + a 3 b 3. Per esempio, se A = (1, 3, 2) e B = ( 1, 4, 3) allora A B = 1+12+6 = 17. Il prodotto interno verifica le seguenti proprietà. PS1 A B = B A; PS2 A (B + C) = A B + A C = (B + C) A; PS3 Se x è uno scalare (numero) (xa) B = x(a B) = A (xb); PS4 Se 0 è il vettore nullo, allora 0 0 = 0; in ogni altro caso A A > 0. La lunghezza del vettore A è definita come A = A A. La parte restante di questa sezione ha lo scopo di determinare il significato geometrico del prodotto interno: A B = A B cos(θ), dove θ è l angolo formato dai vettori A e B (ovvero l angolo ÂOB). Lemma 2.3.1. (Disuguaglianza di Schwartz) (A B) 2 (A A)(B B). Proof. Siano x e y numeri reali. Applicando la proprietà (PS4) abbiamo: Sviluppando otteniamo: 0 (xa + yb) (xa + yb). 0 x 2 (A A) + 2xy(A B) + y 2 (B B).

2.3. PRODOTTO INTERNO 13 Sostituendo x = B B and y = A B si ricava 0 (B B) 2 (A A) 2(B B)(A B) 2 +(B B)(A B) 2 (B B) = (B B) 2 (A A) (B B)(A B) 2. Dividiamo per B B, da cui 0 (B B)(A A) (A B) 2. Riportando al primo membro (A B) 2 si ottiene la tesi. Corollary 2.3.2. A B A B. Lemma 2.3.3. A + B A + B ed inoltre xa = x A, Proof. Sviluppiamo (A + B) (A + B) = A A + 2(A B) + B B = A 2 + 2(A B) + B 2 A 2 + 2 A B + B 2 = ( A + B ) 2. Distanza tra due punti e perpendicolarità La lunghezza del vettore A è pari alla distanza del punto A dall origine delle coordinate Cartesiane. Se A e B sono due punti dello spazio, la distanza tra A e B è la lunghezza del vettore applicato che va da A a B. Se riportiamo questo vettore applicato nell origine delle coordinate Cartesiane, cioè consideriamo il punto B A, otteniamo che la distanza tra A e B è B A. Quando due vettori sono perpendicolari od ortogonali? Proposition 2.3.4. Due vettori A e B sono perpendicolari sse il loro prodotto interno A B è 0. Proof. Due vettori A e B sono perpendicolari se e solo se la distanza tra A e B e la distanza tra A e B sono uguali (l angolo formato dai vettori A e B è uguale all angolo formato dai vettori A e B). Questo significa che Calcoliamo con i quadrati: A B = A ( B) = A + B. (A B) (A B) = (A A) 2(A B) + (B B) = (A A) + 2(A B) + (B B). Semplificando otteniamo da cui segue A B = 0. 4(A B) = 0,

14 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI Figure 2.5: Prodotto interno dei vettori A e B Proposition 2.3.5. Siano A e B due vettori, e sia θ l angolo da essi formato. Allora si ha: A B = A B cos(θ). Proof. Sia θ l angolo formato dai vettori A e B. Se proiettiamo il vettore A sulla retta che contiene B, otteniamo un vettore cb (per un certo c R) che ha la stessa direzione di B. Dalla trigonometria elementare si ha che la lunghezza c B di cb è uguale a A cos(θ), mentre la lunghezza di A cb è uguale a A sen(θ) ed è perpendicolare al vettore B. Utilizzando la Proposizione 2.3.4 si ha: da cui Quindi, da (A cb) B = A B c(b B) = 0 c = (A B)/(B B) = (A B)/ B 2. c B = A cos(θ) sostituendo a c il suo valore otteniamo: Semplificando ricaviamo: da cui si ha la tesi. ((A B)/ B 2 ) B = A cos(θ). (A B)/ B = A cos(θ). Due vettori sono allineati se cos(θ) = +1 oppure cos(θ) = 1, da cui si ha: A B = A B.

Chapter 3 Rette e piani Definition 3.0.1. Un equazione lineare nelle incognite x 1,..., x n a coefficienti nel campo numerico F è un equazione: a 1 x 1 + + a n x n = b con a 1,..., a n, b F. Gli elementi a i sono detti coefficienti, mentre b è il termine noto. Se b = 0, l equazione è detta lineare omogenea. Una soluzione dell equazione lineare è una n-pla (ordinata) (r 1,..., r n ) di elementi di F tale che a 1 r 1 + + a n r n = b. In genere utilizzeremo come campo numerico l insieme R dei numeri reali. 3.1 Rette nel piano Retta perpendicolare ad un dato vettore Siano x, y variabili. Cosa descrive l equazione 3x+2y = 0? L equazione 3x+2y = 0 esprime che il prodotto interno (3, 2) (x, y) = 0 è nullo. Ossia il vettore (x, y) è perpendicolare al vettore (3, 2). Quindi l equazione esprime l insieme di tutti i vettori perpendicolari al vettore (3, 2). Il luogo dei punti {(x, y) : 3x + 2y = 0} è la retta passante per l origine e perpendicolare al vettore (3, 2). Per esempio, il punto (2, 3) appartiene alla retta. Se conosciamo un punto sulla retta, per esempio il punto (2, 3), allora tutti gli altri possono essere ottenuti moltiplicando il vettore (2, 3) per lo scalare t numero reale arbitrario (equazione parametrica della retta): x = 2t; y = 3t, al variare del reale t. 15

16 CHAPTER 3. RETTE E PIANI Retta di equazione ax + by = c con c 0 Per capire l equazione 3x + 2y = 5, consideriamo un vettore, per esempio P = (1, 1), tale che (3, 2) (1, 1) = 3 1 + 2 1 = 5. Consideriamo un qualsiasi vettore, per esempio (2, 3) che sta nella retta 3x + 2y = 0 passante per l origine e perpendicolare al vettore (3, 2). Allora, l insieme dei punti (1, 1) + t(2, 3) = (1 + 2t, 1 3t) sono tutti e soli i punti che verificano l equazione 3x + 2y = 5. Quindi la seguente equazione parametrica descrive la retta: x = 1 + 2t; y = 1 3t, al variare del reale t. La retta data è parallela alla retta di equazione 3x + 2y = 0 e passa per il punto (1, 1). Figure 3.1: Retta (non passante per l origine) perpendicolare al vettore in rosso

3.1. RETTE NEL PIANO 17 Figure 3.2: Rette nel piano Dato un vettore A ed un punto P nel piano, determinare l equazione della retta passante per P e parallela alla retta determinata dal vettore A Sia A = (3, 2) e P = (1, 1). Prima determiniamo l equazione della retta passante per (0, 0) e per A. L equazione della retta è ax + by = 0. Dobbiamo scoprire i valori di a e b. Siccome A sta nella retta abbiamo 3a + 2b = 0, da cui b = (3/2)a. Scegliamo a = 2 e quindi b = 3. Allora l equazione della retta che contiene il vettore A è La nuova retta avrà equazione 2x 3y = 0. 2x 3y = c per un certo c 0. Il punto P sta in questa retta, quindi c = 2 3( 1) = 5. Quindi l equazione della retta passante per P e parallela

18 CHAPTER 3. RETTE E PIANI alla retta di direzione il vettore A è: 2x 3y = 5. Dati due punti distinti A e B nel piano, determinare l equazione della retta passante per A e B Sia A = (2, 2) e B = ( 2, 6). La retta passante per A e B conterrà il vettore applicato AB. Riportiamo tale vettore nell origine tramite il punto B A = ( 4, 4). Quindi il vettore AB avrà la stessa lunghezza e direzione del vettore B A. Equazione della retta contenente il vettore B A = ( 4, 4): dall equazione generica ax + by = 0 e dal fatto che B A sta nella retta si ricava che 4a + 4b = 0 da cui a = b. Scegliamo a = b = 1. Quindi l equazione è x + y = 0. Equazione della retta parallela alla retta di equazione x + y = 0 e contenente il punto B = ( 2, 6): Da x+y = c sostituendo le coordinate del punto B si ricava c = 2 + 6 = 4. Quindi l equazione della retta è x + y = 4. Anche il punto A sta nella retta in quanto 2 + 2 = 4. Come passare dall equazione parametrica di una retta all equazione ax + by = c Se descriviamo una retta con un equazione parametrica, per esempio x = 5 + 2t; y = 2 + t ricaviamo t da una delle due equazioni e lo sostituiamo nell altra. Da t = y 2 si ottiene x = 5 + 2(y 2) da cui x 2y = 1. 3.2 Rette e piani nello spazio Piano passante per l origine e perpendicolare ad un dato vettore Nello spazio abbiamo tre coordinate. Consideriamo tre variabili x, y, z. Cosa descrive l equazione 3x + 2y + z = 0? Un piano passante per l origine. Consideriamo il vettore (3, 2, 1) ed il vettore (x, y, z). L equazione 3x + 2y + z = 0 esprime che il prodotto interno (3, 2, 1) (x, y, z) = 0 è nullo. Ossia il vettore (x, y, z) è perpendicolare al vettore (3, 2, 1). Quindi l equazione esprime l insieme di tutti i vettori perpendicolari al vettore (3, 2, 1). Il luogo dei punti {(x, y, z) : 3x + 2y + z = 0}

3.2. RETTE E PIANI NELLO SPAZIO 19 è il piano passante per l origine e perpendicolare al vettore (3, 2, 1). L equazione parametrica del piano si ottiene come segue. Consideriamo due punti P e Q nel piano che non siano allineati rispetto alle rette del piano passanti per l origine degli assi (non possiamo considerare soltanto un punto perché il piano è bidimensionale). Per esempio, P = (1, 1. 1) e Q = ( 1, 0, 3). Allora tutti i punti del piano si ottengono come combinazione lineare di P e Q: tp + rq, al variare di r, t numeri reali, In altri termini tutti i punti del tipo x = t r; y = t; z = t + 3r. (3.1) Piano di equazione ax + by + cz = d con d 0 L equazione 3x + 2y + z = 4 descrive invece un piano parallelo al piano 3x+2y +z = 0. Se R = (1, 1, 1) è un punto del piano 3x+2y +z = 4, allora i punti del nuovo piano si ottengono parametricamente da (3.1) come segue: x = 1 + t r; y = 1 t; z = 1 t + 3r. Piano passante per tre punti non allineati Siano P, Q, R tre punti non allineati (cioé, per i tre punti non passa una retta). Consideriamo i vettori applicati P Q e P R. Li riportiamo all origine degli assi, considerando il vettore Q P ed il vettore R P. Questi due vettori non sono allineati per l ipotesi iniziale che i tre punti non sono allineati. Il piano passante per l origine e contenente i vettori Q P e R P ha la seguente equazione parametrica: t(q P ) + r(r P ), al variare di r, t numeri reali, Allora il piano passante per P, Q, R è descritto da P + t(q P ) + r(r P ), al variare di r, t numeri reali, Infatti, ponendo r = t = 0 si ottiene il punto P, con t = 1 e r = 0 si ottiene Q, ed infine con t = 0 e r = 1 si ha il punto R. Esempio: P = (1, 1, 1), Q = (1, 2, 1) ed R = (5, 0, 7). Il piano passante per l origine ha equazione parametrica: x = 4r; y = t r; z = 6r.

20 CHAPTER 3. RETTE E PIANI Il piano passante per i tre punti ha equazione parametrica: x = 1 + 4r; y = 1 + t r; z = 1 + 6r. Trasformiamo l equazione parametrica in una non parametrica: r = (x 1)/4, da cui z = 1 + 6(x 1)/4 = 1 + 3(x 1)/2. Infine si ha 2z = 3x 3 + 2 = 3x 1: 3x + 2z = 1

Chapter 4 Sistemi lineari Definition 4.0.1. Un sistema lineare di m equazioni nelle incognite x 1,..., x n è un insieme di equazioni lineari: a 11 x 1 + + a 1n x n = b 1 a 21 x 1 + + a 2n x n = b 2......... a m1 x 1 + + a mn x n = b m Il sistema lineare è omogeneo se b i = 0 per ogni i. Una soluzione del sistema è una n-pla (r 1,..., r n ) di elementi del campo numerico tali che a 11 r 1 + + a 1n r n = b 1 a 21 r 1 + + a 2n r n = b 2......... a m1 r 1 + + a mn r n = b m 4.1 Due equazioni in due variabili Consideriamo il sistema seguente: 3x + 2y = 5 x + 4y = 3 La prima è l equazione di una retta parallela alla retta di equazione 3x + 2y = 0 (passante per l origine e perpendicolare al vettore A = (3, 2)). La seconda è l equazione di una retta parallela alla retta di equazione x + 4y = 0 (passante per l origine e perpendicolare al vettore B = (1, 4)). Cerchiamo le soluzioni comuni alle due equazioni: un vettore (x,y) il cui prodotto interno con (3,2) dà come risultato 5; e con (1, 4) dà come risultato 3. 21

22 CHAPTER 4. SISTEMI LINEARI Numero di possibili soluzioni in generale. Il sistema ammette un unica soluzione se le due rette non sono parallele. Se le rette sono parallele, allora non abbiamo soluzioni se le rette sono distinte, mentre abbiamo infinite soluzioni se le due rette coincidono. Numero delle soluzioni nel caso particolare. Per sapere se le rette sono parallele oppure no, calcoliamo il prodotto interno di A e B (si veda Sezione 2.3): A B = (3, 2) (1, 4) = 3 + 8 = 11. Siccome A = 13 e B = 17, abbiamo per l angolo tra i vettori A e B: cos(θ) = (A B)/ 13 17 = 11/ 221 = 121/221 < 1. Quindi le rette non sono parallele. Se lo fossero cos(θ) sarebbe +1 oppure 1. Calcolo dell unica soluzione con il metodo di eliminazione di Gauss. Calcoliamo l unica soluzione del sistema 3x + 2y = 5 x + 4y = 3 L idea è di trasformare il sistema lineare dato in uno equivalente in cui la variabile x non compare nella seconda equazione. Moltiplichiamo la prima equazione per 1/3 ed otteniamo il nuovo sistema x + 2 3 y = 5 3 x + 4y = 3 La retta descritta dall equazione equazione x + 2y = 5 è la stessa 3 3 descritta dall equazione 3x + 2y = 5 (Perché?). A questo punto la seconda equazione x+4y = 3 e la nuova equazione x+ 2y = 5 hanno lo 3 3 stesso termine in x. Sottraiamo la prima equazione dalla seconda per ottenere il sistema x + 2y = 5 3 3 10 3 y = 4 3 da cui y = 2 5. Sostituendo nella prima equazione si ottiene x = 7 5. La soluzione è quindi x = 7 5 ; y = 2 5.

4.1. DUE EQUAZIONI IN DUE VARIABILI 23 Un altro esempio con il metodo di eliminazione di Gauss. Consideriamo un altro esempio: x + 2y = 3 4x + 5y = 6 Calcoliamo il numero delle soluzioni. Sia A = (1, 2) e B = (4, 5). Allora abbiamo: cos(θ) = (A B)/ A B = 14/ 5 41 = 14/ 205 = 196/221 < 1. Quindi le due rette non sono parallele ed esiste un unica soluzione. Calcoliamo la soluzione. Moltiplichiamo la prima equazione per 4 e la sottraiamo alla seconda. Si ottiene il sistema: x + 2y = 3 3y = 6 da cui si ricava y = 2 e, sostituendo 2 per y nella prima equazione, si ottiene x = 1. Un esempio di sistema con infinite soluzioni. Consideriamo il seguente sistema lineare: x + 2y = 3 2x + 4y = 6 Calcoliamo il numero delle soluzioni. Sia A = (1, 2) e B = (2, 4). Allora abbiamo: cos(θ) = (A B)/ A B = 10/ 5 20 = 10/ 100 = 10/10 = 1. Quindi le due rette sono parallele, anzi sono uguali. La seconda equazione si scrive come 2(x + 2y) = 2 3. Quindi il sistema lineare ammette infinite soluzioni. Un esempio di sistema con nessuna soluzione. Consideriamo il seguente sistema lineare: x + 2y = 3 2x + 4y = 12 Calcoliamo il numero delle soluzioni. Sia A = (1, 2) e B = (2, 4). Allora come prima abbiamo cos(θ) = 1. Quindi le due rette sono parallele, ma non uguali. La seconda equazione si scrive come 2(x + 2y) = 2 6 e corrisponde alla retta x + 2y = 6 che è parallela alla retta della prima equazione. Quindi il sistema lineare non ammette soluzione.

24 CHAPTER 4. SISTEMI LINEARI Criteri da applicare nel metodo di eliminazione di Gauss. Abbiamo applicato i seguenti criteri: Se ax + by = c è l equazione di una retta, moltiplicando per una stessa costante d entrambi i membri dell uguaglianza si ottiene un equazione dax + dby = dc che descrive la stessa retta. Se il prodotto interno di (a, b) (x, y) = c allora il prodotto interno (da, db) (x, y) = dc. Il vettore (da, db) sta nella stessa retta contenente il vettore (a, b). Quindi in un sistema lineare possiamo sostituire l equazione ax + by = c con l equazione dax + dby = dc senza che cambino le soluzioni del sistema. Consideriamo il sistema lineare: a 1 x + b 1 y = c 1 a 2 x + b 2 y = c 2 Possiamo, per esempio, sostituire la prima equazione con una combinazione lineare delle due equazioni senza che le soluzioni del sistema cambino. In altre parole, sostituiamo l equazione a 1 x+b 1 y = c 1 con l equazione d 1 (a 1 x + b 1 y) + d 2 (a 2 x + b 2 y) = d 1 c 1 + d 2 c 2, ottenendo il nuovo sistema lineare: (d 1 a 1 + d 2 a 2 )x + (d 2 a 2 + d 2 b 2 )y = d 1 c 1 + d 2 c 2 a 2 x + b 2 y = c 2 4.2 Due o tre equazioni in tre variabili 1. Consideriamo il sistema lineare seguente: 3x + 2y + z = 0 x + 4y + 3z = 0 x + y + z = 0 Il sistema è omogeneo perché il vettore dei termini noti è il vettore nullo (0, 0, 0). La prima è l equazione di un piano passante per l origine e perpendicolare al vettore A = (3, 2, 1). La seconda è l equazione di un piano passante per l origine e perpendicolare al vettore B = (1, 4, 3). La terza è l equazione di un piano passante per l origine e perpendicolare al vettore C = (1, 1, 1).

4.2. DUE O TRE EQUAZIONI IN TRE VARIABILI 25 (i) L intersezione dei tre piani è un piano sse i tre piani sono coincidenti (lo stesso piano) sse i tre vettori A, B e C sono collineari (nella stessa retta per l origine); (ii) L intersezione dei tre piani è una retta sse i tre vettori A, B e C non sono collineari ma si trovano in uno stesso piano passante per l origine; (iii) L intersezione dei tre piani è un punto sse (1) i vettori A e B non si trovano nella stessa retta; (2) il vettore C non si trova nel piano generato dai vettori A e B. Ritorniamo al sistema lineare omogeneo precedente. Calcoliamo se i piani sono paralleli. Siano A = (3, 2, 1), B = (1, 4, 3) e C = (1, 1, 1). Allora abbiamo: cos(θ AB ) = (A B)/ A B = 14/ 14 26 = 14/ 364 < 1. Quindi A e B non sono collineari ma generano un piano. Se C fosse nel piano generato da A e B, allora esisterebbero c e d tali che c(3, 2, 1) + d(1, 4, 3) = (1, 1, 1), da cui si ha 3c + d = 1, 2c + 4d = 1 e c + 3d = 1. Sottraendo la seconda dalla prima si ricava: c = 3d. Sostituendo nella terza si ottiene 3d + 3d = 0, cioé d = 0 e quindi c = 0. Si ottiene così che C non si trova nel piano generato da A e B. Quindi l unica soluzione è il vettore nullo. 2. Consideriamo il sistema seguente: 3x + 2y + z = 5 x + 4y + 3z = 3 x + y + z = 0 La prima è l equazione di un piano parallelo al piano di equazione 3x + 2y + z = 0 (passante per l origine e perpendicolare al vettore A = (3, 2, 1)). La seconda è l equazione di un piano parallelo al piano di equazione x + 4y + 3z = 0 (passante per l origine e perpendicolare al vettore B = (1, 4, 3)). La terza è l equazione del piano passante per l origine e perpendicolare al vettore C = (1, 1, 1). L intersezione dei tre piani è un punto se (1) i vettori A e B non si trovano nella stessa retta; (2) il vettore C non si trova nel piano generato dai vettori A e B. Dai fatti calcoli fatti nel punto precedente per il sistema omogeno si ottiene che C non si trova nel piano generato da A e B. Quindi la soluzione è un punto. Applichiamo il metodo di eliminazione di Gauss.

26 CHAPTER 4. SISTEMI LINEARI Scambiamo la prima equazione con la terza. Si ottiene il sistema: x + y + z = 0 3x + 2y + z = 5 x + 4y + 3z = 3 Facciamo scomparire x dalla seconda e terza equazione. Sottraiamo 3 volte la prima equazione dalla seconda; Sottraiamo la prima equazione dalla terza; Si ottiene: x + y + z = 0 y 2z = 5 3y + 2z = 3 Facciamo scomparire y dalla terza equazione sommando tre volte la seconda: x + y + z = 0 y 2z = 5 4z = 18 Quindi z = 9/2, y = 4 e infine dalla prima equazione x = 4 + 9/2 = 1/2. 3. Consideriamo il sistema seguente: 3x + 2y + z = 5 x + 4y + 3z = 3 La prima è l equazione di un piano parallelo al piano di equazione 3x + 2y + z = 0 (passante per l origine e perpendicolare al vettore A = (3, 2, 1)). La seconda è l equazione di un piano parallelo al piano di equazione x + 4y + 3z = 0 (passante per l origine e perpendicolare al vettore B = (1, 4, 3)). L intersezione di due piani, se non paralleli, è una retta. Cerchiamo le soluzioni comuni alle due equazioni: un vettore (x, y, z) il cui prodotto interno con (3, 2, 1) dà come risultato 5; e con (1, 4, 3) dà come risultato 3. Calcoliamo se i piani sono paralleli. Sia A = (3, 2, 1) e B = (1, 4, 3). Allora abbiamo: cos(θ) = (A B)/ A B = 14/ 14 26 = 14/ 364 < 1.

4.2. DUE O TRE EQUAZIONI IN TRE VARIABILI 27 Quindi i due piani non sono paralleli. Applichiamo il metodo di eliminazione di Gauss. Scambiamo la prima e la seconda equazione ottenendo x + 4y + 3z = 3 3x + 2y + z = 5 Sottraiamo alla seconda equazione tre volte la prima equazione ottenendo: x+4(2-4z)/5 +3z = 3 x + 4y + 3z = 3 10y 8z = 4 da cui si ha y = 2 4z 5. Sostituiamo nella prima equazione per ottenere le soluzioni in termini del parametro z: x = (3 (16/5))z + (3 (8/5)); y = 2 4z. 5

28 CHAPTER 4. SISTEMI LINEARI

Chapter 5 Matrici 5.1 Lo spazio vettoriale delle matrici Cominciamo con l introdurre il concetto di matrice. Definition 5.1.1. Una matrice A = (A i,j ) con m righe ed n colonne (in breve una matrice m n) sul campo F è una famiglia di m n elementi di F. Ciascun elemento ha un indice di riga ed un indice di colonna. L elemento A i,j ha indice di riga i ed indice di colonna j con 1 i m e 1 j n. La matrice si rappresenta come segue: A = a 11 a 12... a 1n a 21 a 22... a 2n............ a m1 a m2... a mn Se A è una matrice m n, denotiamo con A i il vettore che è la riga i della matrice, e con A j il vettore che è la colonna j della matrice: a 1j A i = [ ] a i1 a i2... a in ; A j = a 2j... a mj Una matrice è quadrata se il numero di righe è uguale al numero di colonne. Una matrice quadrata A è 1. simmetrica se A ij = A ji per ogni i, j. 2. diagonale se A ij = 0 per i j. 29

30 CHAPTER 5. MATRICI 3. la matrice identità se è diagonale e A ii = 1 per ogni i (la matrice identità si indica con I). 4. triangolare superiore se A ij = 0 per ogni i > j. La trasposta di una matrice A è una matrice A t le cui righe sono le colonne di A e le cui colonne sono le righe di A. In altre parole, A t ij = A ji per ogni i e j. Se A è una matrice m n allora la sua trasposta è una matrice n m. Proposition 5.1.1. Sia A una matrice. Allora si ha: 1. (A t ) t = A. 2. Se A è simmetrica e quadrata allora A t = A. Example 2. Le seguenti matrici sono rispettivamente simmetrica, diagonale e la matrice identità: 3 2 1 3 0 0 1 0 0 A = 2 4 4 B = 0 4 0 I = 0 1 0 1 4 2 0 0 2 0 0 1 A 2 = [ 2 4 4 ] ; A 3 = La trasposta della matrice simmetrica A coincide con A, mentre la matrice C qui di seguito non è simmetrica e la sua trasposta non coincide con C. 3 2 7 3 1 22 C = 1 4 9 C t = 2 4 1 22 1 0 7 9 0 La seguente matrice D è triangolare superiore: 3 2 7 D = 0 4 9 0 0 5 1 4 2 Proposition 5.1.2. L insieme delle matrici m n a coefficienti in un campo F costituisce uno spazio vettoriale rispetto all operazioni di somma componente per componente e prodotto per uno scalare: a 11 a 12... a 1n b 11 b 12... b 1n a 11 + b 11 a 12 + b 12... a 1n + b 1n a 21 a 22... a 2n............ + b 21 b 22... b 2n............ = a 21 + b 21 a 22 + b 22... a 2n + b 2n............ a m1 a m2... a mn b m1 b m2... b mn a m1 + b m1 a m2 + b m2... a mn + b mn

5.2. PRODOTTO DI UNA MATRICE PER UN VETTORE 31 Figure 5.1: Altri due esempi di matrice triangolare superiore Example 3. 2 3 1 5 + 3 2 a 11 a 12... a 1n ca 11 ca 12... ca 1n c a 21 a 22... a 2n............ = ca 21 ca 22... ca 2n............ a m1 a m2... a mn ca m1 ca m2... ca mn 1 2 3 4 = 5 6 3 5 4 1 8 8 4 2 3 1 5 = 3 2 8 12 4 20 12 8 5.2 Prodotto di una matrice per un vettore Forma matriciale di un sistema lineare Consideriamo il sistema lineare: a 11 x 1 + + a 1n x n = b 1 a 21 x 1 + + a 2n x n = b 2......... a m1 x 1 + + a mn x n = b m Definiamo la matrice A dei coefficienti del sistema ed i vettori colonna delle incognite e dei termini noti: a 11 a 12... a 1n x 1 b 1 A = a 21 a 22... a 2n............ ; x = x 2... ; b = b 2... a m1 a m2... a mn x n b m Allora si vede facilmente che la prima equazione lineare a 11 x 1 + +a 1n x n = b 1 si ottiene prendendo il prodotto interno del vettore riga x 1 A 1 = [ ] a 11 a 12... a 1n e del vettore colonna x 2... e ponendolo uguale x n

32 CHAPTER 5. MATRICI a b 1. Similmente per le altre equazioni lineari. I prodotti interni di questo tipo si rappresentano con il prodotto di matrici: a 11 a 12... a 1n x 1 a 11 x 1 + + a 1n x n a 21 a 22... a 2n x 2............... = a 21 x 1 + + a 2n x n... a m1 a m2... a mn x n a m1 x 1 + + a mn x n Quindi il sistema lineare si rappresenta globalmente come segue a 11 a 12... a 1n x 1 b 1 a 21 a 22... a 2n x 2............... = b 2... a m1 a m2... a mn x n b m Example 4. La matrice quadrata dei coefficienti del sistema lineare 3x + 2y = 5 x + 4y = 3 è una matrice 2 2: [ 3 2 1 4 Il sistema lineare si può scrivere in notazione matriciale come segue: [ ] [ ] [ ] 3 2 x 5 = 1 4 y 3 I due vettori [x, y] e [5, 3] sono stati scritti come vettori colonna, cioè come matrici 2 1. [ ] x Il prodotto interno 3x+2y del vettore [3, 2] con il vettore è il prodotto y interno [ ] della prima riga della matrice con l unica colonna del vettore colonna x. Allo stesso modo il prodotto interno x + 4y del vettore [1, 4] con il y [ ] x vettore è il prodotto interno della seconda riga della matrice con l unica y [ ] x colonna del vettore colonna. Quindi abbiamo: y [ ] [ ] [ ] 3 2 x 3x + 2y = 1 4 y x + 4y ]

5.3. PRODOTTO DI MATRICI 33 Example 5. Il sistema 3x + 2y + z = 5 x + 4y + 3z = 3 x + y + z = 0 si rappresenta in notazione matriciale come segue: 3 2 1 x 5 1 4 3 y = 3 1 1 1 z 0 Come prima facciamo il prodotto interno tra la prima (rispettivamente seconda e terza) riga della matrice con l unica colonna del vettore y per x z ottenere 3 2 1 x 3x + 2y + z 5 1 4 3 y = x + 4y + 3z = 3 1 1 1 z x + y + z 0 La precedente equazione matriciale si può anche scrivere come combinazione lineare di vettori colonna: 3 2 1 5 x 1 + y 4 + z 3 = 3 = b 1 1 1 0 con b il vettore di coordinate (5, 3, 0). Cosa significa questa equazione? Ci chiediamo se il vettore b si può scrivere come combinazione lineare dei vettori 3 2 1 1, 4 and 3. L equazione vettoriale ha soluzione perché con tre 1 1 1 vettori linearmente indipendenti possiamo ottenere ogni punto dello spazio. In particolare, anche il punto b (si veda il Capitolo 7). 5.3 Prodotto di matrici Tutte le trasformazioni sulle matrici della precedente sezione si ottengono anche utilizzando il prodotto matriciale che ci accingiamo a definire. Definition 5.3.1. Sia A = (a ij ) una matrice m k e B = (b ij ) una matrice k n. Il prodotto AB di A e B è una nuova matrice m n le cui componenti

34 CHAPTER 5. MATRICI sono ottenute come segue (per ogni i e j): (AB) ij = prodotto interno della riga A i per la colonna B j = k a ir b rj. Osserviamo che sia la riga i di A che la colonna j di B hanno k elementi. Proposition 5.3.1. Il prodotto tra matrici è associativo ed ammette l elemento neutro che è la matrice identica I: A(BC) = (AB)C; IA = AI = A. Il prodotto distribuisce rispetto alla somma: r=1 A(B + C) = (AB) + (AC); (B + C)A = (BA) + (CA). Il prodotto non è in generale commutativo. Esistono matrici A e B tali che AB BA. Abbiamo inoltre per le matrici trasposte: Infine se c è uno scalare: a 1 (AB) t = B t A t. (ca)b = A(cB) = c(ab). Se a = a 2... e b = b 2... sono vettori colonna di Rn, allora il prodotto a n b 1 b n interno si può scrivere con il prodotto matriciale a t b = a 1 b 1 + + a n b n. Figure 5.2: Prodotto interno come prodotto di matrici 1 n e n 1 Example 6. In questo esempio consideriamo tre matrici: [ ] [ ] 1 2 1 1 2 3 2 5 A = B = C = 4 2 1 4 3 2 2 4 2 2 3

5.3. PRODOTTO DI MATRICI 35 e controlliamo che (AB)C = A(BC). Abbiamo: [ ] [ ] 7 2 13 41 36 44 AB = (AB)C = 18 2 32 74 104 116 [ ] [ ] 5 20 20 41 36 44 BC = A(BC) = 18 8 12 74 104 116 Example 7. In questo esempio verifichiamo che il prodotto non è commutativo: [ ] [ ] [ ] 1 2 3 2 7 2 = 4 3 2 2 18 2 mentre [ ] [ ] [ ] 3 2 1 2 11 12 = 2 2 4 3 6 2 Example 8. [ 1 0 0 1 ] [ ] 3 2 = 2 2 [ ] 3 2 = 2 2 [ 3 2 2 2 ] [ ] 1 0 0 1 Example 9. Un grafo G = (V, E) è costituito da un insieme finito V = {v 1, v 2,..., v n } di vertici (o nodi) e da un insieme di archi o frecce definite tramite una relazione binaria E V. Se (v, u) E allora esiste un arco orientato che si diparte dal vertice v ed arriva al vertice u: v u. Un cammino in un grafo è una sequenza di nodi u 0, u 1,..., u k tali che (u i, u i+1 ) E for every 0 i < k. La matrice di adiacenza del grafo G è una matrice A di dimensione n n: { 1 se (v i, v j ) E A ij = 0 altrimenti. La somma degli elementi della riga A i è pari al numero di archi che escono dal vertice v i. Definiamo prodotti matriciali ripetuti della matrice A: A 1 = A e A k+1 = A k A (da non confondersi con i vettori colonna di A!). Proviamo per induzione su k che (A k ) ij è uguale al numero di cammini di lunghezza k dal nodo v i al nodo v j. Il risultato è vero per A 1 = A. Un cammino di lunghezza 1 da v i a v j è un arco orientato che connette v i a v j. L arco esiste sse A ij = 1 sse (v i, v j ) E.

36 CHAPTER 5. MATRICI Supponiamo che il risultato sia vero per A k e dimostriamolo per A k+1 : (A k+1 ) ij = n (A k ) ir A rj. r=1 Infatti, un cammino di lunghezza k + 1 da v i a v j lo possiamo spezzare come un cammino di lunghezza k da v i ad un vertice intermedio v r ed un arco da v r a v j. Se calcoliamo quanti sono questi cammini di lunghezza k + 1 con nodo intermedio v r, essi sono pari al numero (A k ) ir di cammini di lunghezza k da v i a v r se esiste un arco da v r a v j, oppure sono 0 se tale arco non esiste. In ogni caso è pari a (A k ) ir A rj. Ne segue la conclusione. Quindi, per ogni k, (A k ) ij è uguale al numero di cammini di lunghezza k da v i a v j. Figure 5.3: Prodotto di Matrici 5.4 Moltiplicazione di matrici a blocchi La moltiplicazione tra matrici si semplifica a volte se utilizziamo la moltiplicazione a blocchi.

5.4. MOLTIPLICAZIONE DI MATRICI A BLOCCHI 37 Siano A e B matrici m n e n p, e sia r un numero minore o uguale ad n. Possiamo decomporre le due matrici in blocchi: A = [C D]; B = [E F ], dove C è di tipo m r, D è m (n r), E è r p e F è (n r) p. Allora il prodotto matriciale può essere calcolato come segue: AB = CE + DF. Se dividiamo A e B in quattro blocchi [ ] [ ] C D C D A = ; B = E F E F, allora la moltiplicazione matriciale si esegue come se A e B fossero matrici 2 2: [ ] CC AB = + DE CD + DF EC + F E ED + F F. [ ] [ ] C D C D Example 10. Sia A = una matrice 2 3 e sia B = E F E F una matrice 3 [ 4. Supponiamo ] [ che ] C = [1, 0], D = [5], E = [0, 1], F = [3] da un 2 3 1 1 lato e C =, D 4 8 =, E 0 0 = [1, 0], F = [1, 0] dall altro. Allora si ha: [ ] 2 3 1. CC = [1, 0] = [2, 3] e DE 4 8 = [5][1, 0] = [5, 0], da cui CC + DE = [2, 3] + [5, 0] = [7, 3]. [ ] 1 1 2. CD + DF = [1, 0] + [5][1, 0] = [1, 1] + [5, 0] = [6, 1]. 0 0 3. EC + F E = [7, 8]. 4. ED + F F = [3, 0]. Quindi AB = [ 7 3 6 ] 1 7 8 3 0

38 CHAPTER 5. MATRICI

Chapter 6 Matrici e sistemi lineari 6.1 Matrici triangolari e metodo di eliminazione Ritorniamo al sistema lineare 3 2 1 x 5 1 4 3 y = 3 1 1 1 z 0 e rivediamo i passi effettuati per ottenere la soluzione: 1. Scambia la prima riga con la terza riga; 2. Sottrai la prima equazione dalla seconda; 3. Sottrai 3 volte la prima equazione dalla terza; 4. Somma alla terza equazione un terzo della seconda equazione. Scriviamo qui di seguito le varie matrici che si ottengono con i vari passaggi 1 1 1 x 0 1. 1 4 3 y = 3 3 2 1 z 5 1 1 1 x 0 2. 0 3 2 y = 3 3 2 1 z 5 1 1 1 x 0 3. 0 3 2 y = 3 0 1 2 z 5 39

40 CHAPTER 6. MATRICI E SISTEMI LINEARI 4. 1 1 1 x 0 0 3 2 y = 3 0 0 4/3 z 6 La matrice dei coefficienti è diventata triangolare superiore e la soluzione si ottiene facilmente. Una matrice arbitraria può essere trasformata in una matrice triangolare superiore con il prodotto matriciale. Definition 6.1.1. Una matrice è elementare se ha uno dei seguenti tre formati: 1. Matrice di tipo I che moltiplicando a sinistra una matrice A effettua lo scambio di una riga di A con un altra riga di A: 0 0 1 0 0 0 0 1 0 E 1,3 = 0 1 0 E 2,3 = 0 1 1 E 1,2 = 1 1 0 1 0 0 0 1 0 0 0 0 2. Matrice di tipo II che moltiplicando a sinistra una matrice A effettua la moltiplicazione di una riga di A per uno scalare c: c 0 0 1 0 0 1 0 0 E1 c = 0 1 0 E2 c = 0 c 0 E3 c = 0 1 0 0 0 1 0 0 1 0 0 c 3. Matrice di tipo III che, moltiplicando a sinistra una matrice A, somma un multiplo di una data riga di A ad un altra riga data: 1 0 0 1 0 0 1 0 0 E21 c = c 1 0 E23 c = 0 1 0 E3 c = 0 1 0 0 0 1 c 0 1 0 c 1 1 c 0 1 0 c 1 0 0 E12 c = 0 1 0 E13 c = 0 1 0 E23 c = 0 1 c 0 0 1 0 0 1 0 0 1 Ritorniamo al sistema lineare prima della definizione. Le operazioni che applichiamo ai coefficienti del sistema lineare, le applichiamo anche ai termini noti. Quindi aggiungiamo una colonna con i termini noti alla matrice A del sistema lineare.

6.1. MATRICI TRIANGOLARI E METODO DI ELIMINAZIONE 41 3 2 1 5 A = 1 4 3 3 1 1 1 0 Per scambiare la prima riga con l ultima, moltiplichiamo la matrice E 1,3, di scambio tra la riga 1 e la riga 3, per la matrice A. 0 0 1 E 1,3 = 0 1 0 1 0 0 Si noti che il vettore [0, 0, 1], riga 1 di E 1,3, farà diventare la terza riga prima riga, il vettore [0, 1, 0], riga 2 di E 1,3, manterrà intatta la seconda riga, mentre il vettore [1, 0, 0], riga 3 di E 1,3, trasferirà la riga 1 al posto della vecchia riga 3. 0 0 1 3 2 1 5 1 1 1 0 E 1,3 A = 0 1 0 1 4 3 3 = 1 4 3 3 1 0 0 1 1 1 0 3 2 1 5 Ora vogliamo sottrarre la prima equazione dalla seconda. Consideriamo la matrice E21 1 (in posizione 21 abbiamo il valore 1): Allora abbiamo E 1 21 E 1,3 A = E 1 21 = 1 0 0 1 1 0 0 0 1 1 0 0 1 1 1 0 1 1 1 0 1 1 0 1 4 3 3 = 0 3 2 3 0 0 1 3 2 1 5 3 2 1 5 Sottraiamo 3 volte la prima equazione dalla terza. Consideriamo la matrice E31 3 (in posizione 31 abbiamo il valore 3): Allora abbiamo E 3 31 E 1 21 E 1,3 A = E 3 31 = 1 0 0 0 1 0 3 0 1 1 0 0 1 1 1 0 1 1 1 0 0 1 0 0 3 2 3 = 0 3 2 3 3 0 1 3 2 1 5 0 1 2 5

42 CHAPTER 6. MATRICI E SISTEMI LINEARI Dividiamo la seconda equazione per 3 e poi sommiamo la seconda equazione alla terza. Consideriamo la matrice 1 0 0 E 1/3 32 = 0 1 0 0 1 1 3 dove in posizione 32 si ha 1/3. Allora abbiamo 1 0 0 1 1 1 0 1 1 1 0 E 1/3 32 E31 3 E21 1 E 1,3 A = = 0 1 0 0 1 3 1 0 3 2 3 0 1 2 5 0 3 2 3 0 0 4/3 6 Il fatto che il prodotto tra matrici è associativo ci permette anche di moltiplicare prima tutte le matrici E 1/3 32 E31 3 E21 1 E 1,3 e poi applicare il risultato ad A per ottenere il risultato finale. 6.2 Matrice inversa Le operazioni che abbiamo applicato alla matrice A sono tutte reversibili nel senso che ciascuna delle matrici elementari è invertibile. Definition 6.2.1. Una matrice quadrata A è invertibile se esiste una matrice B tale che AB = I = BA, dove I è la matrice identica. Esiste al più una matrice inversa di A; nel caso in cui esiste l inversa della matrice A si indica con A 1. Lemma 6.2.1. 1. La matrice inversa A 1 di una matrice A è unica. 2. (AB) 1 = B 1 A 1. 3. Se A è invertibile, l unica soluzione del sistema lineare Ax = b (con x e b vettori colonna) è x = A 1 b. Proof. (1) Supponiamo che B sia un altra inversa, cioé AB = BA = I. Allora abbiamo: B = BI = B(AA 1 ) = (BA)A 1 = IA 1 = A 1. (2) (AB)(B 1 A 1 ) = A(BB 1 )A 1 = AIA 1 = AA 1 = I. (3) A(A 1 b) = (AA 1 )b = Ib = b.

6.2. MATRICE INVERSA 43 Lemma 6.2.2. Una matrice 2 2 è invertibile sse il suo determinante ad bc è diverso da 0. In tal caso si calcola facilmente: [ ] 1 a b = c d 1 ad bc [ d ] b c a Proof. [ a ] [ b d c d ad bc c ad bc b ad bc a ad bc ] = [ ] 1 0 0 1 Lemma 6.2.3. Una matrice diagonale è invertibile sse nessun elemento nella diagonale è 0. Lemma 6.2.4. Una matrice triangolare superiore è invertibile se nessun elemento nella diagonale è 0. L inversa (se esiste) è una matrice triangolare superiore. Lo stesso risultato vale per le matrici triangolari inferiori. Example 11. Analizziamo prima il caso in cui gli elementi sulla diagonale sono tutti 1. Sia 1 a b A = 0 1 c 0 0 1 Allora abbiamo: 1 a ac b 1 a b 1 0 0 A 1 A = 0 1 c 0 1 c = 0 1 0 0 0 1 0 0 1 0 0 1 Example 12. Sia d a b A = 0 e c 0 0 f con d, e, f 0. Si consideri la matrice trasposta di A: d 0 0 A t = a e 0 b c f Per calcolare l elemento A 1 ij, si cancellino la riga i e la colonna j di At. Resta una matrice 2 2 A ij, il cui determinante si calcola con le regole descritte

44 CHAPTER 6. MATRICI E SISTEMI LINEARI nel Lemma 6.2.2. Allora (A 1 ) ij = ( 1) i+j Det(A ij ). Per esempio, l elemento Det(A) (A 1 ) 13 è : [ ] a e (A 1 ) 13 = det b c Det(A) = ac be Det(A) Siccome det(a) = edf (si veda più avanti per il calcolo del determinante di una matrice arbitraria), abbiamo: 1 a ac be A 1 d ed edf d a b 1 0 0 A = 1 c 0 e ef 0 e c = 0 1 0 1 0 0 0 0 f 0 0 1 f 6.2.1 Invertibilità delle matrici elementari Le matrici elementari sono tutte invertibili. Example 13. La matrice E 1,3 (che scambia la riga 1 e la riga 3) è invertibile con inversa la matrice stessa: 0 0 1 0 0 1 1 0 0 E 1,3 E 1,3 = 0 1 0 0 1 0 = 0 1 0 = I 1 0 0 1 0 0 0 0 1 È infatti chiaro che scambiare due volte di seguito la riga uno e la riga tre riporta alla situazione iniziale. Example 14. La matrice E32 c è invertibile con inversa E32 c : 1 0 0 1 0 0 1 0 0 0 1 0 0 1 0 = 0 1 0 0 c 1 0 c 1 0 0 1 Ritornando al sistema lineare di Sezione 6.1, definiamo B = E 1,3 A e ricordiamo che abbiamo: 1 1 1 0 E 1/3 32 E31 3 E21 1 B = 0 3 2 3 = U 0 0 4/3 6 La matrice U è la matrice triangolare risultante. Se moltiplichiamo ambo i membri della precedente uguaglianza per le matrici inverse delle matrici elementari (nel giusto ordine), si ha: L = (E 1 21 ) 1 (E 3 31 ) 1 (E 1/3 32 ) 1

6.2. MATRICE INVERSA 45 otteniamo LU = B. Che tipo di matrice è L? È una matrice triangolare inferiore (se non facciamo scambi di righe): 1 0 0 1 0 0 1 0 0 1 0 0 L = 1 1 0 0 1 0 0 1 0 = 1 1 0 0 0 1 3 0 1 0 1 1 3 1 1 3 3 Fassata una matrice B, se riusciamo a scomporla come prodotto di una matrice triangolare inferiore L ed una matrice triangolare superiore U, allora possiamo risolvere il sistema Bx = b (x vettore colonna incognito e b vettore colonna dei termini noti) con i seguenti passi: Trovare un vettore c tale che Lc = b; Trovare un vettore d tale che Ud = c; Bd = LUd = L(Ud) = Lc = b e quindi x = d. Example 15. Consideriamo il sistema [ ] [ ] 2 1 x1 = 2 3 x 2 [ ] 5 = b 3 Allora [ ] 2 1 = 2 3 [ 1 0 1 1 ] [ ] 2 1 = LU 0 4 Risolvendo Lc = b, si ottiene c 1 = 5 e c 2 = 8, mentre per l equazione Ux = c si ha x 2 = 2 e x 1 = 3 2. Se una matrice è invertibile possiamo trovare facilmente la soluzione di un problema. Il seguente esempio spiega il motivo. Example 16. Trovare una soluzione del seguente sistema lineare: 2 1 1 x 1 1 2 3 y = 2 1 2 2 z 3

46 CHAPTER 6. MATRICI E SISTEMI LINEARI 6.3 Il metodo di Gauss-Jordan per il calcolo di A 1 Spieghiamo il metodo con un esempio. Consideriamo la matrice A da invertire: 2 1 1 A = 4 6 0 2 7 2 Ricordiamo che la matrice A si scompone come prodotto di una matrice triangolare inferiore ed una matrice triangolare superiore: A = LU. Aggiungiamo la matrice identica in fondo: 2 1 1 1 0 0 4 6 0 0 1 0 2 7 2 0 0 1 L idea è di eseguire le solite operazioni di triangolarizzazione sulla matrice 3 6 in maniera tale da arrivare ad una matrice 1 0 0 b 11 b 12 b 13 0 1 0 b 21 b 22 b 23 0 0 1 b 31 b 32 b 33 Allora la matrice 3 3 in fondo sarà l inversa di A. Cominciamo sottraendo il doppio della prima riga alla seconda riga: 2 1 1 1 0 0 0 8 2 2 1 0 2 7 2 0 0 1 Sommiamo la prima riga all ultima riga: 2 1 1 1 0 0 0 8 2 2 1 0 0 8 3 1 0 1 Sommiamo la seconda riga all ultima: 2 1 1 1 0 0 0 8 2 2 1 0 0 0 1 1 1 1

6.4. MATRICI A GRADINI 47 Abbiamo ottenuto la matrice triangolare superiore U nella prime tre colonne. Le ultime tre colonne costituiscono la matrice L 1, cioé la matrice delle operazioni inverse: 2 1 1 1 0 0 0 8 2 2 1 0 = [ U L ] 1 0 0 1 1 1 1 Ora cerchiamo di azzerare le componenti 12 e 22, sottraendo la terza riga alla prima: 2 1 0 2 1 1 0 8 2 2 1 0 0 0 1 1 1 1 e sommando due volte la terza alla seconda: 2 1 0 2 1 1 0 8 0 4 3 2 0 0 1 1 1 1 Per azzerare la componente 12 si procede sommando unottavo della seconda alla prima: 12 2 0 0 5 6 8 8 8 0 8 0 4 3 2 0 0 1 1 1 1 Infine si divide la prima riga per 2, la seconda per 8: 12 1 0 0 5 6 16 16 16 4 0 1 0 3 2 8 8 8 0 0 1 1 1 1 Quindi la matrice inversa è: 6.4 Matrici a gradini 12 5 6 16 16 16 A 1 = 4 3 2 8 8 8 1 1 1 Definition 6.4.1. Una matrice a gradini m n è una matrice che verifica le seguenti condizioni: 1. Tutte i vettori riga nulli sono nella parte bassa della matrice;

48 CHAPTER 6. MATRICI E SISTEMI LINEARI 2. Il primo elemento in una riga non nulla è un 1; 3. Date due righe successive i e i + 1 non nulle, il primo elemento non nullo della riga i + 1 si trova a destra del primo elemento non nullo della riga i. Una matrice a gradini ridotta è una matrice a gradini che verifica anche la seguente condizione: 4. Se una colonna contiene il primo elemento non nullo di una riga, allora tutte gli altri elementi della colonna sono nulli. Example 17. Matrici in forma a gradini: 1 3 0 2 5 4 0 1 0 5 6 7 0 0 0 1 7 7 0 0 0 0 1 0 0 0 0 0 0 0 Matrici in forma ridotta a gradini: 1 0 0 0 0 4 0 1 0 0 0 7 0 0 0 1 0 7 0 0 0 0 1 0 0 0 0 0 0 0 Definition 6.4.2. Due matrici A e B di dimensione m n sono equivalenti per riga, e scriviamo A r B, se la matrice B può essere ottenuta dalla matrice A applicando operazioni elementari (di tipo I, II, III). Si noti che la relazione r è una relazione di equivalenza perché le matrici elementari sono invertibili e quindi anche il prodotto di matrici elementari è invertibile: se B = EA allora A = E 1 B. Proposition 6.4.1. Ogni matrice non nulla è equivalente ad una matrice in forma ridotta a gradini. Proof. Sia A la matrice di partenza. Come ottenere una matrice equivalente a gradini: Consideriamo la prima colonna (da sinistra) con almeno un elemento diverso da zero. Sia j l indice di colonna e supponiamo che il primo elemento non nullo dall alto si trovi nella riga i. Scambiamo la riga i con la riga 1, ottenendo

6.4. MATRICI A GRADINI 49 la matrice B. Così b 1j 0. Dividiamo la riga 1 di B per b 1j. ottenendo la matrice C, dove c 1j = 1. Successivamente, per ogni elemento c sj (2 s m) diverso da zero, sommiamo c sj volte la prima riga alla riga s. Otteniamo una matrice D in cui tutti gli elementi della colonna j sono nulli tranne il primo che è 1. Consideriamo la sottomatrice di D ottenuta eliminando la prima riga di D. Applichiamo la stessa procedura alla sottomatrice. Iterando il ragionamento alla fine arriviamo ad una matrice in forma a gradini. Come ottenere una matrice in forma ridotta da una matrici a gradini: Sia H una matrice a gradini. Applica la procedura seguente dall alto verso il basso. Considera una riga non nulla, diciamo la riga i. Allora il primo elemento da sinistra della riga i è un 1. Supponiamo che si trovi nella colonna j, cioé, h ij = 1. Allora, per ogni riga k (1 k < i) con elemento non nullo in posizione kj, cioé h kj 0, somma h kj volte la riga i alla riga k. Alla fine nella colonna j avremo tutti elementi nulli tranne un 1 in posizione ij. Corollary 6.4.2. Siano Ax = b e Bx = d due sistemi lineari ciascuno con m equazioni in n incognite. Se le matrici aumentate A b e B d sono equivalenti allora i due sistemi hanno le stesse soluzioni. Proof. Moltiplicare per una matrice elementare non cambia le soluzioni del sistema. Riduciamo prima B d ad A b. Riduciamo poi la matrice A b in forma ridotta a gradini (si veda Proposizione 6.4.1), ottenendo la matrice C di dimensione m (n + 1). Le soluzioni di C ci danno le soluzioni dei due sistemi lineari. Un sistema lineare è omogeneo se il vettore dei termini noti è il vettore nullo. Corollary 6.4.3. Se A e B sono matrici equivalenti, allora i sistemi omogenei Ax = 0 e Bx = 0 hanno le stesse soluzioni. Proposition 6.4.4. Un sistema omogeneo Ax = 0 di m equazioni in n incognite ammette sempre una soluzione non nulla se n > m. Proof. Riduciamo A in forma ridotta a gradini ottenendo la matrice B. Siano r il numero di righe non nulle di B. Allora la matrice C di dimensione r n, formata dalle prime r righe di B, non ha righe nulle. Siccome r m < n possiamo risolvere il sistema con le prime r incognite che dipendono dalle altre n r. Queste ultime possono prendere valori arbitrari.

50 CHAPTER 6. MATRICI E SISTEMI LINEARI

Chapter 7 Spazi vettoriali Prima di proseguire nel capitolo invitiamo il lettore a rileggersi la definizione di spazio vettoriale in Sezione 2.2. Riportiamo nel seguito alcuni esempi non-standard di spazi vettoriali. Example 18. (Spazio vettoriale dei polinomi reali) Un polinomio reale è una funzione p : R R che è esprimibile come p(x) = a 0 x n + a 1 x n 1 + + a n 1 x + a n con coefficienti a i numeri reali. Per esempio, i seguenti sono polinomi: 3x+2, x 2 + 5x + 1, etc. I polinomi costituiscono uno spazio vettoriale reale. Example 19. (Spazio vettoriale delle sequenze infinite di reali) L insieme di tutte le successioni (a n ) n 0 di numeri reali è uno spazio vettoriale sul campo reale. Example 20. (Spazio vettoriale delle funzioni a valori in un campo) Sia X un insieme. Allora l insieme di tutte le funzioni da X ad F, dove F è un campo, è uno spazio vettoriale. Se f, g : X F sono funzioni e c è uno scalare, allora definiamo: (f + g)(x) = f(x) + g(x); (cf)(x) = c f(x), for all x X. Example 21. (I numeri complessi come spazio vettoriale reale) L insieme dei numeri complessi costituisce uno spazio vettoriale sul campo R. Example 22. (I numeri complessi come spazio vettoriale sul campo C) L insieme dei numeri complessi costituisce anche uno spazio vettoriale sul campo C. Example 23. Ogni campo numerico F costituisce uno spazio vettoriale su se stesso. 51

52 CHAPTER 7. SPAZI VETTORIALI 7.1 Sottospazi Definition 7.1.1. Sia V uno spazio vettoriale sul campo F. Un sottoinsieme U di V è un sottospazio vettoriale di V se la somma vettoriale di vettori di U è ancora in U e lo stesso accade per il prodotto di un vettore di U per un arbitrario scalare: x, y U x + y U; x U c F cx U. Un sottospazio vettoriale è uno spazio vettoriale. Lemma 7.1.1. L intersezione di due o più sottospazi vettoriali di V è ancora un sottospazio vettoriale. Proof. Siano W e U due sottospazi. Si vede facilmente che, se x, y W U, allora anche x + y W U e cx W U per ogni scalare c. Sia X V un sottoinsieme di uno spazio vettoriale V sul campo F. Definiamo X il sottospazio di V generato da X. Abbiamo X = {c 1 v 1 + + c k v k : c 1,... c k F e v 1,... v k X} Example 24. Si consideri lo spazio vettoriale R 2 e (2, 3) un vettore. retta di equazione 2x + 3y = 0 è un sottospazio vettoriale di R 2 : La Se (x 1, x 2 ) e (y 1, y 2 ) appartengono alla retta (i.e., 2x 1 + 3x 2 = 0 e 2y 1 + 3y 2 = 0), allora anche (x 1 + y 1, x 2 + y 2 ) appartiene alla retta (2(x 1 + y 1 ) + 3(x 2 + y 2 ) = 0). Se (x 1, x 2 ) appartiene alla retta (i.e., 2x 1 + 3x 2 = 0), allora anche c(x 1, x 2 ) = (cx 1, cx 2 ) appartiene alla retta (i.e., c(2x 1 + 3x 2 ) = 0). Ogni retta passante per l origine è un sottospazio vettoriale di R 2. Le rette che non passano per l origine NON sono sottospazi vettoriali, perché per esempio il vettore nullo non appartiene alla retta. Example 25. Si consideri lo spazio vettoriale R 3 e (2, 3, 4) un vettore. Il piano di equazione 2x + 3y + 4z = 0 è un sottospazio vettoriale di R 3. Ogni piano passante per l origine è un sottospazio vettoriale di R 3, mentre i piani che non passano per l origine NON sono sottospazi vettoriali. Le rette passanti per l origine sono anch esse sottospazi vettoriali di R 3 in quanto intersezione di due piani per l origine (Si veda il Lemma 7.1.1). Example 26. Si consideri lo spazio vettoriali delle matrici n n sul campo F. I seguenti sono sottospazi vettoriali:

7.1. SOTTOSPAZI 53 L insieme delle matrici triangolari superiori; L insieme delle matrici diagonali; L insieme delle matrici simmetriche. Example 27. Si consideri la matrice 2 1 1 A = 4 6 0 4 2 2 L insieme delle combinazioni lineari dei vettori colonna della matrice 2 1 1 c 1 4 + c 2 6 + c 3 0 4 2 2 costituisce un sottospazio vettoriale W di R 3. a Se il vettore b appartiene al sottospazio W allora il sistema lineare c 2 1 1 x a 4 6 0 y = b 4 2 2 z c ammette soluzione. Example 28. L insieme dei polinomi di grado minore o uguale ad n è un sottospazio vettoriale dello spazio dei polinomi. Ricordiamo che un sistema lineare è omogeneo se il vettore dei termini noti è il vettore nullo. Proposition 7.1.2. L insieme delle soluzioni di un sistema lineare omogeneo di m equazioni in n incognite è un sottospazio vettoriale dello spazio R n. Proof. Sia A una matrice, x, y vettori tali che Ax = 0 e Ay = 0. Allora A(x + y) = Ax + Ay = 0 + 0 = 0 ed inoltre A(cx) = c(ax) = c0 = 0. Se A è la matrice del sistema, denotiamo con N(A) il sottospazio delle soluzioni del sistema omogeneo associato.

54 CHAPTER 7. SPAZI VETTORIALI 7.2 Vettori linearmente indipendenti Sia V uno spazio vettoriale e x 1,..., x n V vettori. Un vettore v V è una combinazione lineare dei vettori x 1,..., x n se esistono scalari c 1,..., c n tali che v = c 1 x 1 + + c n x n. Proposition 7.2.1. Sia V uno spazio vettoriale e x 1,..., x n V vettori. L insieme delle combinazioni lineari di x 1,..., x n è un sottospazio vettoriale di V. Proof. Se v = c 1 x 1 +... c n x n e w = d 1 x 1 +... d n x n, allora v + w = (c 1 + d 1 )x 1 +... (c n + d n )x n e mv = mc 1 x 1 +... mc n x n per ogni scalare m. 0 5 Example 29. Siano x 1 = 1 e x 2 = 4 due vettori nello spazio tridimensionale. Allora le combinazioni lineari di x 1 e x 2 2 3 0 5 c 1 1 + c 2 4 2 3 costituiscono un piano di equazione x 2y + z = 0 (perché?), che è un sottospazio vettoriale di R 3. Example 30. Siano p(x) = x + 3 e q(x) = x 2 + 2 due polinomi. Allora le combinazioni lineari di p e q costituiscono un sottospazio vettoriale dello spazio vettoriale dei polinomi reali: il sottospazio dei polinomi c 0 x 2 + c 1 x + (2c 0 + 3c 1 ) al variare di c 0, c 1 tra i reali. [ ] [ ] [ ] 2 0 0 1 0 0 Example 31. Siano A =, B = e C = tre matrici. 0 0 0 0 0 4 L insieme delle combinazioni lineari di A, B e C determina il sottospazio delle matrici che hanno la seguente forma (c 1, c 2, c 3 arbitrari numeri reali): [ ] c1 c 2 0 c 3 Definition 7.2.1. I vettori x 1,..., x n di uno spazio vettoriale V si dicono linearmente dipendenti se il vettore nullo 0 è una combinazione lineare di x 1,..., x n con coefficienti scalari non tutti nulli, altrimenti si dicono linearmente indipendenti.

7.2. VETTORI LINEARMENTE INDIPENDENTI 55 Example 32. Riconsideriamo i tre vettori colonna dell Esempio 27. sono linearmente dipendenti perché 2 1 1 3 4 2 6 + 8 0 = 0. 4 2 2 Essi Quindi il sistema omogeneo 2 1 1 3 0 4 6 0 2 = 0 4 2 2 8 0 ammette soluzioni diverse dal vettore nullo 0. Infatti si vede facilmente che la terza riga della matrice è un multiplo della prima, così il sistema lineare ammette una retta di soluzioni che sono l intersezione del piano 2x+y+z = 0 (che è lo stesso piano di equazione 4x 2y 2z = 0) e del piano 4x 6y = 0. Si noti che se i vettori colonna sono lineramente dipendenti, anche i vettori riga [2, 1, 1], [4, 6, 0] e [ 4, 2, 2] lo sono: 2[2, 1, 1] + 0[4, 6, 0] + [ 4, 2, 2] = 0. Quest ultima uguaglianza la possiamo scrivere anche così: [ ] 2 1 1 2 0 1 4 6 0 = [ 0 0 0 ] 4 2 2 Oppure prendendo le matrici trasposte: 2 4 4 2 0 1 6 2 0 = 0 1 0 2 1 0 Proposition 7.2.2. Se A = (a ij ) è una matrice m n e x = x 1... un vettore colonna non nullo di lunghezza n, allora le seguenti condizioni sono equivalenti: 1. Ax = 0; 2. x è un vettore perpendicolare agli m vettori riga della matrice: n Prodotto interno: A i x = a ij x j = 0, per ogni 1 i m. j=1 x n

56 CHAPTER 7. SPAZI VETTORIALI 3. Gli n vettori colonna di A sono linearmente dipendenti: a 11 a 12 x 1 A 1 + + x n A n = x 1... + x 2 + + x n a m1... a m2 a 1n... a mn = 0. Corollary 7.2.3. Sia A = (A ij ) una matrice m n. Le colonne di A sono linearmente indipendenti sse il sistema Ax = 0 ammette il vettore nullo come unica soluzione. Corollary 7.2.4. Sia A = (A ij ) una matrice m n con n > m. Allora le colonne di A sono linearmente dipendenti. Proof. Segue dalla Proposizione 7.2.2 e dalla Proposizione 6.4.4. Example 33. Consideriamo la matrice 3 4 2 A = 4 6 0 1 2 2 2 I tre vettori colonna 4, 1 Come possiamo dimostrarlo? 7.3 Basi 1 e 6 2 1 sono linearmente indipendenti. Definition 7.3.1. Una base di uno spazio vettoriale V è un insieme finito di vettori linearmente indipendente che generano tutto lo spazio. Sia x 1,..., x n una base. Allora ogni vettore v dello spazio si scrive in maniera unica come combinazione lineare della base. Infatti se v = a 1 x 1 +... a n x n = b 1 x 1 +... b n x n allora 0 = (a 1 b 1 )x 1 +... (a n b n )x n. Siccome x 1,..., x n sono linearmente indipendenti, si ricava a i b i = 0 per ogni i, da cui a i = b i. Se v = a 1 x 1 +... a n x n allora (a 1,..., a n ) è il vettore delle coordinate di v rispetto alla base data. Example 34. I vettori e 1 = (1, 0, 0), e 2 = (0, 1, 0) e e 3 = (0, 0, 1) sono la base canonica di R 3. Tre vettori qualsiasi linearmente indipendenti costituiscono sempre una base di R 3. 0 2

7.3. BASI 57 Example 35. Lo spazio dei polinomi reali non ammette una base finita, ma soltanto una base infinita 1, x, x 2,..., x n,... Il sottospazio dei polinomi di grado 5 ammette una base finita: 1, x, x 2, x 3, x 4, x 5. Lo stesso risultato vale per il sottospazio dei polinomi di grado n. Example 36. Sia C lo spazio vettoriale dei numeri complessi sul campo reale. Allora, i vettori 1 e i = 1 costituiscono una base. Example 37. Sia C lo spazio vettoriale dei numeri complessi sul campo complesso. Allora, il vettore 1 è una base. Proposition 7.3.1. Sia V uno spazio vettoriale sul campo F di base v 1,..., v m. Allora ogni insieme di elementi w 1,..., w n con n > m è linearmente dipendente. In particolare, due basi qualsiasi di uno spazio vettoriale hanno lo stesso numero di vettori. Questo numero si dice dimensione dello spazio vettoriale e si indica con dim V. Proof. Rappresentiamo w i come combinazione lineare della base v 1,..., v m : w i = m a ji v j = a 1i v 1 + a 2i v 2 +... a mi v m. (7.1) j=1 I coefficienti a ji costituiscono una matrice A di dimensione m n, per cui si ha: a 11... a 1m... a 1n [w 1,..., w n ] = [v 1,..., v m ]............... a m1... a mm... a mn Si noti che (i) ogni colonna della matrice A ha almeno qualche coefficiente diverso da zero; (ii) i coefficienti della matrice sono elementi del campo F, mentre le sequenze [v 1,..., v m ] e [w 1,..., w n ] hanno elementi in V. Risolviamo il sistema lineare omogeneo: a 11... a 1m... a 1n x 1.................. = a m1... a mm... a mn x n 0... 0

58 CHAPTER 7. SPAZI VETTORIALI nello spazio vettoriale F n (cioé, x 1,..., x n F). La soluzione non banale b 1... esiste perché n > m (Proposizione 6.4.4). Allora abbiamo: b n b 1 [w 1,..., w n ]... = [v 1,..., v m ] b n a 11... a 1m... a 1n............... a m1... a mm... a mn E quindi i vettori w 1,..., w n sono linearmente dipendenti. Questa seconda dimostrazione non utilizza i sistemi lineari. b 1... b n = [v 1,..., v m ] Proof. Supponiamo per assurdo che w 1,..., w n siano linearmente indipendenti. Dimostriamo per induzione su r (0 r m) che w 1,..., w r, v r+1,..., v m è una base. Se r = 0, abbiamo per ipotesi che v 1,..., v m è una base. Supponiamo che w 1,..., w r 1, v r,..., v m sia una base e dimostriamo che w 1,..., w r 1, w r, v r+1..., v m è una base. Scriviamo l elemento w r come combinazione lineare dei vettori w 1,..., w r 1, v r,..., v m, che per ipotesi d induzione costituiscono una base: r 1 w r = a j w j + j=1 m a j v j. (7.2) Se m j=r a jv j = 0 allora i vettori w 1,..., w r 1, w r sarebbero linearmente dipendenti contraddicendo l ipotesi iniziale della prova. Quindi non tutti i coefficienti a j (r j m) sono nulli. Possiamo supporre che sia il primo coefficiente a r ad essere diverso da 0. Quindi j=r v r = w r r 1 j=1 a jw j m j=r+1 a jv j a r è combinazione lineare di w 1,..., w r, v r+1,..., v m. Siccome la base w 1,..., w r 1, v r,..., v m genera tutto lo spazio V, anche i vettori w 1,..., w r, v r+1,..., v m generano lo spazio V. Rimane da provare che i vettori precedenti sono linearmente indipendenti. Se b 1 w 1 + + b r w r + b r+1 v r+1 + + b m v m = 0, 0 =... 0

7.3. BASI 59 allora sostituendo al posto di w r la combinazione lineare (7.2), otteniamo r 1 b 1 w 1 + + b r ( a j w j + j=1 m a j v j ) + b r+1 v r+1 + + b m v m = 0, j=r da cui (b 1 +b r a 1 )w 1 + +(b r 1 +b r a r 1 )w r 1 +b r a j v r +(b r+1 +b r a r+1 )v r+1 + +(b m +b r a m )v m = 0. Si ha che b r = 0 e si ottiene: b 1 w 1 + + b r 1 w r 1 + b r+1 v r+1 + + b m v m = 0. da cui si ricava anche b i = 0 per tutti gli i. Quindi, i vettori w 1,..., w r, v r+1,..., v m sono linearmente indipendenti e costituiscono una base. Abbiamo provato che w 1,..., w r, v r+1,..., v m è una base per ogni 0 r m. In particolare, w 1,..., w m è una base. Quindi w m+1 è combinazione lineare di w 1,..., w m, che contraddice l ipotesi iniziale che w 1,..., w n sono linearmente indipendenti. Example 38. R 3 ha dimensione 3; La base canonica di R 3 è costituita 1 0 0 dai vettori 0, 1 e 0. Ogni altra base è costituita da tre vettori 0 0 1 1 1 2 linearmente indipendenti. Per esempio, i tre vettori 1, 1 e 0 1 0 3 sono linearmente indipendenti e quindi costituiscono una base, perché il sottospazio vettoriale delle soluzioni del sistema lineare omogeneo 1 1 2 x 0 1 1 0 y = 0 1 0 3 z 0 è costituito solo dal vettore nullo. Si che le coordinate di un punto del piano dipendono dalla base scelta. Per esempio, se il punto P del piano 1 ha coordinate P = 1 rispetto alla base canonica, allora le coordinate 1 dellostesso punto rispetto alla base non canonica definita prima sono: 1 P = 0 Quindi il concetto di coordinata è dipendente dalla base. 0

60 CHAPTER 7. SPAZI VETTORIALI Lo spazio vettoriale reale C dei numeri complessi ha dimensione 2. La base canonica sono i vettori 1 e i = 1. Altre basi sono, per esempio, 5 e 3i; oppure 2 + 3i e 1 + i. Lo spazio vettoriale dei numeri complessi sul campo C ha dimensione 1. La base canonica è data dal vettore 1. Lo spazio delle matrici m n ha dimension mn. La base canonica è costituita dalle matrici A m n per cui esistono indici ij tali che a ij = 1 mentre tutte le altre componenti a hk = 0 per h i e k j. Lo spazio delle matrici 3 3 triangolari superiori ha dimensione 6. Lo spazio dei polinomi di grado 3 ha dimensione 4 ed ha come base canonica i polinomi 1, x, x 2, x 3. Proposition 7.3.2. Ogni insieme di vettori linearmente indipendenti può essere esteso ad una base. Qualsiasi insieme di generatori dello spazio può essere ridotto ad una base. 7.4 Basi ortogonali e matrici ortogonali Una base ortogonale di R n è una base w 1,..., w n tale che il prodotto interno w i w j = 0 per ogni i j. Una base ortogonale è ortonormale se w i w i = 1. La base canonica e 1 = (1, 0,..., 0),..., e n = (0,..., 0, 1) di R n è ortonormale. Una matrice n n A è ortogonale se le colonne costituiscono una base ortonormale di R n. Proposition 7.4.1. Se A è ortogonale, allora (i) la matrice inversa di A è la matrice trasposta A t di A; (ii) A preserva le lunghezze. In altre parole, se x è un vettore di R n abbiamo Ax = x. Ax 2 = (Ax) t (Ax) = x t A t Ax = x t x = x 2. 7.5 Sottospazi ortogonali Due sottospazi X e Y di R n sono ortogonali se il prodotto interno di vettori dei due spazi è sempre nullo: ( x X)( y Y )(x y = 0).

7.5. SOTTOSPAZI ORTOGONALI 61 Lo spazio ortogonale ad un sottospazio X è definito come X = {v V : ( x X)(v x = 0)}. Proposition 7.5.1. Sia X un sottospazio di uno spazio vettoriale reale V. Allora dim X + dim X = dim V. Proof. Sia v 1,..., v k una base di X e w 1,..., w r una base di X. Consideriamo il sottospazio Y generato dai vettori v 1,..., v k, w 1,..., w r. È sufficiente provare che Y = V.

62 CHAPTER 7. SPAZI VETTORIALI

Chapter 8 Applicazioni lineari e matrici 8.1 Applicazioni lineari Definition 8.1.1. Siano V e W spazi vettoriali sullo stesso campo. Una funzione f : V W è una applicazione lineare se verifica le seguenti proprietà: 1. f(x + y) = f(x) + f(y); 2. f(cx) = cf(x). Si noti che ponendo c = 0 nella seconda identità si ricava f(0) = 0. Una funzione f è una applicazione lineare sse f(c 1 v 1 + c 2 v 2 ) = c 1 f(v 1 ) + c 2 f(v 2 ) per tutti gli scalari c 1, c 2 e vettori v 1, v 2. Lemma 8.1.1. 1. La funzione identica I : V V, definita da è un applicazione lineare. I(v) = v, per ogni vettore v V 2. La composizione g f : V U di due applicazioni lineari f : V W e g : W U, definita da è un applicazione lineare. (g f)(v) = g(f(v)), per ogni vettore v V 3. La somma f + g : V W di due applicazioni lineari f : V W e g : V W, definita da (f + g)(v) = f(v) + g(v), per ogni vettore v V è un applicazione lineare. 63

64 CHAPTER 8. APPLICAZIONI LINEARI E MATRICI 4. La moltiplicazione per uno scalare cf : V W di una applicazione lineare f : V W, definita da è un applicazione lineare. (cf)(v) = c f(v), per ogni vettore v V L insieme delle applicazioni lineari da V in W costituisce uno spazio vettoriale rispetto all operazione di somma f + g di applicazioni lineari f, g : V W e moltiplicazione per uno scalare cf di una applicazione scalare f : V W. Example 39. Fissato un vettore x, il prodotto interno y R 3 y x R (8.1) è una applicazione lineare da R 3 ad R. Richiamiamo dalla Sezione 2.3 le proprietà del prodotto interno che dimostrano la linearità della funzione descritta in (8.1): (y + z) x = (y x) + (z x) e (cy) x = c(y x). Consideriamo come esempio concreto il vettore x = (3, 2, 2). La funzione f : R 3 R definita da è un applicazione lineare. f(x, y, z) = (x, y, z) (3, 2, 2) = 3x + 2y 2z f(x + x, y + y, z + z ) = (x + x, y + y, z + z ) (3, 2, 2) = 3(x + x ) + 2(y + y ) 2(z + z ) = (3x + 2y 2z) + (3x + 2y 2z ) = f(x, y, z) + f(x, y, z ). f(c(x, y, z)) = f(cx, cy, cz) = 3cx + 2cy 2cz = c(3x + 2y 2z) = cf(x, y, z). Example 40. Sia Pol lo spazio vettoriale dei polinomi. La funzione f : Pol R 2 definita da: f(a 0 x n + a 1 x n 1 + + a n 1 x + a n ) = (a n 1, a n ), è un applicazione lineare. La funzione g : Pol R definita da g(a 0 x n + a 1 x n 1 + + a n 1 x + a n ) = a 0 non è una applicazione lineare. Infatti, g(2x 2 + 3x + 1) = 2, mentre g(2x 2 ) + g(3x + 1) = 2 + 3 = 5.

8.1. APPLICAZIONI LINEARI 65 Sia f : V W un applicazione lineare. L immagine di f è definita come mentre il nucleo di f è Im(f) = {w W : v V f(v) = w}, ker(f) = {v V : f(v) = 0}. Proposition 8.1.2. Il nucleo di una applicazione lineare f : V W è un sottospazio di V, mentre l immagine di f è un sottospazio di W. Si ha la seguente relazione: dim V = dim ker(f) + dim Im(f). Proof. Dimostriamo che il nucleo è un sottospazio. Siano v, t V vettori e c uno scalare. Se f(v) = 0 e f(t) = 0 allora f(v + t) = f(v) + f(t) = 0 + 0 = 0 e f(cv) = cf(v) = c0 = 0. Proviamo ora la relazione tra dimensione del nucleo e dimensione dell immagine. Sia v 1,..., v k V una base del nucleo e sia w 1,..., w r W una base dell immagine di f. Consideriamo r elementi v k+1,..., v k+r V tali che f(v k+i ) = w i. I vettori v 1,..., v k, v k+1,..., v k+r sono linearmente indipendenti. Infatti se c 1 v 1 +... c k v k + c k+1 v k+1 + + c k+r v k+r = 0, allora 0 = f(c 1 v 1 + + c k v k + c k+1 v k+1 + + c k+r v k+r ) = c 1 f(v 1 ) + + c k f(v k ) + c k+1 f(v k+1 ) + + c k+r f(v k+r ) = c 1 0 + + c k 0 + c k+1 w 1 + + c k+r w r = c k+1 w 1 + + c k+r w r E quindi i vettori w 1,..., w r W oppure i vettori v 1,..., v k V sarebbero linearmente dipendenti. Assurdo. Verifichiamo che i vettori v 1,..., v k, v k+1,..., v k+r generano lo spazio V. Sia x V. Se f(x) = 0 allora x è combinazione lineare di v 1,..., v k, altrimenti f(x) 0 = d 1 w 1 + +d r w r. E quindi f(x (d 1 v k+1 +... d r v k+r )) = 0. Scriviamo quindi x (d 1 v k+1 +... d r v k+r ) come combinazione lineare di v 1,..., v k ed otteniamo il risultato. Lemma 8.1.3. Sia f : V W una applicazione lineare. 1. f è iniettiva sse ker(f) = {0}. 2. Se f è iniettiva, allora

66 CHAPTER 8. APPLICAZIONI LINEARI E MATRICI dim V = dim Im(f). Se v 1,..., v n sono linearmente indipendenti, allora f(v 1 ),..., f(v n ) sono linearmente indipendenti. Proof. (1) Abbiamo f(x) = f(y) sse f(x y) = 0. Lemma 8.1.4. Sia V uno spazio vettoriale di base v 1,..., v n. Ogni applicazione lineare f : V W è univocamente determinata dai valori f(v 1 ),..., f(v n ) assunti dai vettori della base. Se v V ha coordinate c 1,..., c n rispetto alla data base allora f(v) = c 1 f(v 1 ) + + c n f(v n ). (8.2) Viceversa, ogni funzione g : {v 1,..., v n } W può univocamente essere estesa tramite (8.2) ad una applicazione lineare da V a W. Example 41. Si consideri l applicazione lineare f : R 3 R dell Esempio 39 definita da f(x) = 3x 1 +2x 2 2x 3. La dimensione del nucleo di f è 2 perché il nucleo è il piano ortogonale al vettore (3, 2, 2) di equazione 3x 1 +2x 2 2x 3 = 0, per cui dalla Proposizione 8.1.2 la dimensione dell immagine deve essere 1. Example 42. Consideriamo lo spazio vettoriale infinito dimensionale Pol dei polinomi reali e fissiamo un numero reale, per esempio 3. Allora la funzione f : Pol R, definita come segue (per ogni polinomio p(x) = a 0 x n +a 1 x n 1 + + a n 1 x + a n ): f(a 0 x n + a 1 x n 1 + + a n 1 x + a n ) = a 0 3 n + a 1 3 n 1 + + a n 1 3 1 + a n, è un applicazione lineare. Per esempio, se p(x) = x 2 + 5x 1 allora f(x 2 + 5x 1) = 3 2 + 5 3 1 = 23. Il nucleo di f è il sottospazio vettoriale determinato dall insieme dei polinomi p(x) che ammettono 3 come radice: p(3) = 0. L immagine di f è tutto R. Example 43. Sia V uno spazio di dimensione 2 con base v 1, v 2 e W uno spazio di dimensione 3 con base w 1, w 2, w 3. Dal Lemma 8.1.4 la funzione f : V W definita da f(v 1 ) = 3w 1 + 5w 2 2w 3 ; f(v 2 ) = w 1 + w 3 è estendibile ad una applicazione lineare.

8.2. MATRICE DA APPLICAZIONE LINEARE 67 8.2 Matrice da applicazione lineare Sia f : V W una applicazione lineare. Fissiamo una base v 1,..., v n di V ed una base w 1,..., w m di W. Allora, l immagine f(v j ) di ogni vettore della base di V deve essere combinazione lineare dei vettori della base di W : f(v j ) = a 1j w 1 + + a mj w m, per ogni 1 j n. Consideriamo la matrice A di dimensione m n la cui colonna j è determinata dai coefficienti a 1j a 2j... dalle coordinate di f(v j). a mj Per ogni vettore v V, consideriamo le sue coordinate come vettore colonna c = Allora c 1 c 2... c n rispetto alla base v 1,..., v n (cioé, v = c 1 v 1 + + c n v n ). f(v) = f(c 1 v 1 + + c n v n ) = c 1 f(v 1 ) + + c n f(v n ) = c 1 (a 11 w 1 + + a m1 w m ) + + c n (a 1n w 1 + + a mn w m ) = (c 1 a 11 + c 2 a 12 + + c n a 1n )w 1 + + (c 1 a m1 + c 2 a m2 + + c n a mn )w m Quindi le coordinate di f(v) si calcolano come segue A 1 c Ac = A 2 c... A m c Proposition 8.2.1. Siano f : R n R m e g : R m R k applicazioni lineari. Sia A la matrice di f e B la matrice di g rispetto alle basi canoniche. Allora BA (prodotto di matrici) è la matrice di g f : R n R k. Sia A la matrice di f : R n R m e sia B la matrice di g : R n R m rispetto alle basi canoniche. Allora A + B è la matrice di f + g e ca è la matrice di cf. Example 44. Sia f : R 2 R 3 l applicazione lineare definita da f(v 1 ) = 4w 1 + w 2 + w 3 ; f(v 2 ) = w 1 + 3w 2,

68 CHAPTER 8. APPLICAZIONI LINEARI E MATRICI con v 1, v 2 base di R 2 e w 1, w 2, w 3 base di R 3. Allora la matrice dell applicazione lineare è: 4 1 1 3 1 0 Se v = 5v 1 + 3v 2 è un vettore di R 2, allora 4 1 [ ] 23 1 3 5 = 14 3 1 0 5 Quindi f(v) = 23w 1 + 14w 2 + 5w 3. Ogni applicazione lineare f : V W assume una forma matriciale veramente semplice se si scelgono le basi di V e W opportunamente. Denotiamo con I n la matrice identica di dimensione n n e con 0 m,n la matrice nulla di dimensione m n. Proposition 8.2.2. Sia f : V W una applicazione lineare dallo spazio vettoriale V di dimensione n allo spazio vettoriale W di dimensione m. Supponiamo che r = dim Im(f) e k = dim ker(f) con n = k + r. Allora esistono basi di V e W tali che la matrice A (di dimensione m n) di f rispetto a queste basi assume la forma [ ] Ir 0 A = r,k 0 m r,r 0 m r,k Proof. Sia v 1,..., v k una base del nucleo di f. Completiamo v 1,..., v k ad una base di V : u 1,..., u r, v 1,..., v k con r + k = n. Le immagini f(u 1 ),..., f(u r ) tramite f dei vettori u 1,..., u r sono non nulle e costituiscono una base di Im(f). Completiamo f(u 1 ),..., f(u r ) ad una base di W : f(u 1 ),..., f(u r ), w 1,..., w m r. La matrice A di f rispetto a queste due basi verifica le condizioni della proposizione. Remark 1. Supponiamo che gli spazi di partenza e di arrivo dell applicazione lineare f della Proposizione 8.2.2 coincidono: f : V V. Allora la matrice A di f assume la forma della proposizione soltanto per opportune basi distinte di V. La forma descritta non sarà in generale assunta se la base di partenza coincide con la base di arrivo.

8.3. APPLICAZIONE LINEARE DA MATRICE 69 8.3 Applicazione lineare da matrice Cominciamo con un esempio e poi sviluppiamo la teoria generale. Example 45. Consideriamo la matrice 3 4: 3 4 2 1 A = 4 6 0 0 1 2 2 2 La matrice A determina: (i) Una applicazione lineare f A : R 4 R 3 rispetto alle basi canoniche di R 4 e R 3, che è definita tramite il prodotto matriciale a destra. Per 1 esempio, f A ( 0 3 ) si calcola con il prodotto matriciale: 5 1 3 4 2 1 4 6 0 0 0 14 3 = 12 1 2 2 2 5 5 Attenzione: Se consideriamo una base diversa di R 4, la matrice A definisce un altra applicazione lineare! (ii) Una applicazione lineare A f : R 3 R 4 rispetto alle basi canoniche di R 4 e R 3, che è definita tramite il prodotto matriciale a sinistra. Per esempio, A f([0, 1, 2) si calcola con il prodotto matriciale: 3 4 2 1 [0, 1, 2] 4 6 0 0 = [6, 2, 4, 4] 1 2 2 2 (iii) Il sottospazio di R 3 generato dai vettori colonna A 1 = 3 4, A 2 = 1 4 2 1 6, A 3 = 0 e A 4 = 0 le cui coordinate sono le colonne 2 2 2 della matrice. Tale sottospazio è denotato con A 1, A 2, A 3, A 4. Il sottospazio A 1, A 2, A 3, A 4 di R 3 coincide con il sottospazio Im(f A ) perché Im(f A ) = {Ac : c R 4 } = {c 1 A 1 +c 2 A 2 +c 3 A 3 +c 4 A 4 : c R 4 } = A 1, A 2, A 3, A 4.

70 CHAPTER 8. APPLICAZIONI LINEARI E MATRICI (iv) Il sottospazio di R 4 generato dai vettori riga A 1 = [3, 4, 2, 1], A 2 = [4, 6, 0, 0] e A 3 = [1, 2, 2, 2] le cui coordinate sono le righe della matrice. Tale sottospazio è denotato con A 1, A 2, A 3. Il sottospazio A 1, A 2, A 3 di R 4 è il sottospazio ortogonale allo spazio ker(f A ) perché ker(f A ) = {c : Ac = 0} = {c : A i c = 0 per ogni 1 i 3} = A 1, A 2, A 3. Dalla Proposizione 8.1.2 e dalla Proposizione 7.5.1 si ha 4 = dim ker(f A ) + dim Im(f A ) = dim ker(f A ) + dim spazio colonne = dim ker(f A ) + dim spazio righe Quindi la dimensione dello spazio delle colonne coincide con la dimensione dello spazio delle righe. Ora sviluppiamo la teoria generale. Sia V uno spazio di base v 1,..., v n e W uno spazio di base w 1,..., w m sullo stesso campo numerico. Sia A = (a ij ) una matrice m n ad elementi nel campo. La matrice A determina 1. Il sottospazio di V generato dai vettori di V le cui coordinate sono le righe della matrice. Tale sottospazio è denotato con A 1,..., A m. 2. Il sottospazio di W generato dai vettori di W le cui coordinate sono le colonne della matrice. Tale sottospazio è denotato con A 1,..., A n. 3. Una applicazione lineare f A : V W definita come segue. Per ogni vettore v V, consideriamo le sue coordinate come vettore colonna c = c 1 c 2... rispetto alla base v 1,..., v n (cioé, v = c 1 v 1 + + c n v n ). c n Definiamo le coordinate di f A (v) rispetto alla base w 1,..., w m con il prodotto matriciale: c 1 A 1 c n i=1 Ac = A c 2... = A 2 c... = c c n ia 1i 1A 1 + + c n A n = i=1 c ia 2i... c n A m c n i=1 c ia mi

8.3. APPLICAZIONE LINEARE DA MATRICE 71 Così si ha f A (v) = ( n i=1 c ia 1i )w 1 + + ( n i=1 c ia mi )w m. f A è lineare per le proprietà del prodotto matriciale: A(x + y) = Ax + Ay; Dalla Proposizione 8.1.2 si ha: A(cx) = c(ax); n = dim ker(f A ) + dim Im(f a ) = dim ker(f a ) + dim A 1,..., A n dove A 1,..., A n = Im(f A ) è il sottospazio di W generato dai vettori colonna della matrice A. Il sottospazio generato dai vettori riga A 1,..., A m è lo spazio ortogonale al sottospazio ker(f A ), cioé A 1,..., A m = ker(f A ). Abbiamo A 1 c Ac = A 2 c... = 0 sse A m c (d 1 A 1 + +d m A m ) c = d 1 (A 1 c)+ +d m (A m c) = d 1 0+ +d m 0 = 0 Quindi, n = numero delle colonne = dim(spazio nullo di f a ) + dim(spazio delle righe) = dim(spazio nullo di f a ) + dim(spazio delle colonne). E quindi lo spazio delle colonne e quello delle righe hanno la stessa dimensione. 4. Una applicazione lineare g A : W V definita come segue. Per ogni vettore w W, consideriamo le sue coordinate come vettore riga d = [d 1, d 2,..., d m ]. Definiamo le coordinate di g A (w) rispetto alla base v 1,..., v n con il prodotto matriciale: da = [d 1, d 2,..., d m ]A = [da 1, da 2,..., da n ] = d 1 A 1 + + d m A m = m m m [ d i a i1, d i a i2,..., c i a in ] i=1 i=1 Si vede facilmente che g A è lineare per le proprietà del prodotto matriciale: (x + y)a = xa + ya; (cx)a = c(xa). Valgono proprietà analoghe al punto (3): m = numero delle righe = dim(spazio nullo di g A ) + dim(spazio delle colonne) = dim(spazio nullo di g A ) + dim(spazio delle righe). i=1

72 CHAPTER 8. APPLICAZIONI LINEARI E MATRICI 8.4 Isomorfismi e cambi di base Una applicazione lineare è un isomorfismo se è bigettiva. Due spazi vettoriali sono isomorfi se esiste un isomorfismo tra di loro. La funzione inversa f 1 : W V di un isomorfismo f : V W è anch essa un isomorfismo lineare. Proposition 8.4.1. Due spazi vettoriali sullo stesso campo sono isomorfi sse hanno la stessa dimensione. Proof. Supponiamo che V e W abbiano la stessa dimensione. Sia v 1,..., v n una base di V e w 1,..., w n una base di W. Se il vettore v V, allora possiamo rappresentare v in maniera unica tramite le sue coordinate: v = c 1 v 1 + + c n v n per opportuni scalari c 1,..., c n. Allora definiamo f(v) = c 1 w 1 + + c n w n. Proviamo che f è un isomorfismo. Siano v = c 1 v 1 + + c n v n e t = d 1 v 1 + + d n v n due vettori di V. f è iniettiva: Se f(v) = f(t), allora c 1 w 1 + +c n w n = d 1 w 1 + +d n w n. Per la indipendenza lineare dei w i si ha c i = d i per ogni i e quindi v = t. f è surgettiva: Se w = e 1 w 1 + + e n w n W allora f(e 1 v 1 + + e n v n ) = w. f(v + t) = f(c 1 v 1 + + c n v n + d 1 v 1 + + d n v n ) = f((c 1 + d 1 )v 1 + + (c n + d n )v n ) = (c 1 + d 1 )w 1 + + (c n + d n )w n = c 1 w 1 + + c n w n + d 1 w 1 + + d n w n = f(v) + f(t). f(mv) = f(m(c 1 v 1 + + c n v n )) = f(mc 1 v 1 + + mc n v n ) = mc 1 w 1 + + mc n w n = m(c 1 w 1 + + c n w n ) = mf(v). Proposition 8.4.2. Sia V uno spazio di dimensione n e W uno spazio di dimensione m. Allora lo spazio vettoriale delle applicazioni lineari da V a W è isomorfo allo spazio vettoriale delle matrici m n.

8.4. ISOMORFISMI E CAMBI DI BASE 73 Proof. Fissiamo una base v 1,..., v n di V ed una base w 1,..., w m di W. All applicazione lineare f : V W associamo la matrice A f = [A 1,..., A n ] con m righe ed n colonne (A i è la colonna i della matrice A f ) tale che w 1 f(v i ) = A i... w m Viceversa, ad una matrice A con m righe ed n colonne associamo l applicazione lineare f A : V W definita da m f A (v i ) = a ki w k. k=1 Proposition 8.4.3. Sia V un arbitrario spazio vettoriale di dimensione n di base v 1,..., v n, ed A una matrice quadrata di dimensione n n. La matrice A è invertibile sse l applicazione lineare f A : V V, definita da f A (v i ) = n k=1 a kiv k, è un isomorfismo. In tal caso, la matrice inversa A 1 di A è la matrice dell applicazione lineare f 1. Proof. ( ) Sia f A un isomorfismo e I V : V V la funzione identica. Allora f 1 A è un applicazione lineare tale che f A f 1 A = I V = f 1 A f A. Sia B la matrice dell applicazione lineare f 1 A. Allora si ha AB = I = BA con I matrice identica. Quindi A è invertibile e B = A 1. ( ) Sia A è invertibile. Il lettore è invitato a completare la prova. 8.4.1 Cambio di base Sia V uno spazio vettoriale di dimensione n, sia v 1,..., v n una prima base e t 1,..., t n una seconda base. Consideriamo l applicazione lineare identica I : V V. Rappresentiamo l identità con la matrice quadrata A (n n) del cambio di base: v i = a 1i t 1 + + a ni t n Se lecoordinate del vettore v = c 1 v 1 + + c n v n sono il vettore colonna c = c n 1 i=1 c 2 a n 1ic i... nella prima base, allora le coordinate di v saranno Ac = i=1 a 2ic i... c n n i=1 a nic i nella seconda base.

74 CHAPTER 8. APPLICAZIONI LINEARI E MATRICI La matrice di un cambio di base è invertibile, perché il cambio di base inverso è rappresentato dalla matrice inversa. Definition 8.4.1. Due matrici A e B, n n sullo stesso campo, si dicono simili sse esiste una matrice n n invertibile P tale che B = P AP 1. Proposition 8.4.4. Una applicazione lineare f : V V è rappresentata dalle matrici A e B (rispetto a basi possibilmente diverse) sse A e B sono matrici simili. Example 46. Consideriamo la base canonica e 1 = (1, 0) e e 2 = (0, 1) su R 2 e la base t 1 = (1, 1), t 2 = (3, 2). Allora e 1 = 2t 1 + t 2 ; e 2 = 3t 1 t 2 Quindi la matrice sarà [ 2 ] 3 1 1 Allora il vettore di coordinate [ ] 4 rispetto alla seconda base non canonica: 0 [ ] [ ] 2 3 4 = 1 1 4 [ ] 4 rispetto alla base canonica avrà coordinate 4 [ ] 4 = 4t 0 1. Il vettore è lo stesso, cambiano solo le coordinate. Proposition 8.4.5. Sia V uno spazio vettoriale reale. Il prodotto scalare v w di due vettori v, w V è indipendente dalla scelta della base. 8.4.2 Matrici elementari Le matrici elementari rappresentano o dei cambiamenti di base oppure degli isomorfismi. Cominciamo con i cambiamenti di base. Le matrici elementari di tipo I scambiano le componenti di una base. Per esempio, la matrice 0 0 1 E 1,3 = 0 1 0 1 0 0 fa passare dalla base v 1, v 2, v 3 alla base v 3, v 2, v 1.

8.5. SISTEMI LINEARI ED APPLICAZIONI LINEARI 75 Le matrici elementari di tipo II moltiplicano per uno scalare un componente della base. Per esempio, c 0 0 E1 c = 0 1 0 0 0 1 fa passare dalla base v 1, v 2, v 3 alla base cv 1, v 2, v 3. Infine le matrici elementari di tipo III, sostituiscono un componente della base con una sua combinazione lineare. Per esempio, 1 0 0 E21 c = c 1 0 0 0 1 fa passare dalla base v 1, v 2, v 3 alla base v 1, v 2 + cv 1, v 3. In tutti i casi precedenti le matrici elementari rappresentano l applicazione lineare identica. Dalla Proposizione 8.4.3 segue che le matrici elementari in quanto invertibili rappresentano degli isomorfismi. Fissata la base v 1, v 2, v 3, la matrice E 1,3 di tipo I rappresenta l isomorfismo f E1,3 (v 1 ) = v 3 ; f E1,3 (v 2 ) = v 2 ; f E1,3 (v 3 ) = v 1. La matrice elementare di tipo II E c 1 rappresenta l isomorfismo f E c 1 (v 1 ) = cv 1 ; f E c 1 (v 2 ) = v 2 ; f E c 1 (v 3 ) = v 3. Infine la matrice elementare E c 21 di tipo III rappresenta l isomorfismo f E c 21 (v 1 ) = v 1 ; f E c 21 (v 2 ) = v 2 + cv 1 ; f E c 21 (v 3 ) = v 3. 8.5 Sistemi lineari ed applicazioni lineari Consideriamo un sistema lineare omogeneo: a 11 a 12... a 1n a 21 a 22... a 2n............ a m1 a m2... a mn x 1 x 2... x n = di m equazioni in n incognite. Fissiamo le basi canoniche in R n e R m. Allora la matrice A rappresenta una applicazione lineare f A : R n R m. Abbiamo 0 0... 0

76 CHAPTER 8. APPLICAZIONI LINEARI E MATRICI una soluzione non banale del sistema omogeneo sse ker(f A ) {0}. Ricordiamo dalla Proposizione 8.1.2 che n = dim R n = dim ker(f A ) + dim Im(f A ). Se n > m, sicuramente il sistema ha soluzione (altrimenti, n = dim Im(f A ) m). b 1 Dato il vettore non nullo b = b 2... Rm, il sistema lineare b m a 11 a 12... a 1n a 21 a 22... a 2n............ a m1 a m2... a mn x 1 x 2... x n = ammette soluzione se b Im(f A ). Spieghiamo ora il sistema di eliminazione di Gauss in termini di composizione di applicazioni lineari. Sia A una matrice m n e sia f A : R n R m l applicazione lineare associata alla matrice (rispetto alle basi canoniche). Se g : R m R m è un arbitrario isomorfismo rappresentato dalla matrice quadrata B di dimensione m m, allora b 1 b 2... b m Ax = 0 sse x ker(f A ) sse x ker(g f A ) sse BAx = 0. Se il sistema lineare ha un vettore b di termini noti non tutti nulli, si ha: Ax = b sse b Im(f A ) sse g(b) Im(g f A ) sse BAx = Bb. L isomorfismo g che utilizziamo nel metodo di eliminazione di Gauss è composizione di isomorfismi determinati da matrici elementari.

Chapter 9 Determinanti Proprietà del determinante Sia A una matrice n n sul campo numerico K. Ad A possiamo associare il suo determinante det(a) K, che possiamo anche denotare con le colonne di A: det(a 1,..., A n ) (oppure le righe). Il determinante è univocamente determinato dalle seguenti tre proprietà: (i) Il determinante come funzione di una colonna è lineare: det(a 1,..., B+C,..., A n ) = det(a 1,..., B,..., A n )+det(a 1,..., C,..., A n ); det(a 1,..., ca j,..., A n ) = c det(a 1,..., A j,..., A n ). (ii) Se due colonne contigue sono uguali, cioé A j = A j+1, allora det(a) = 0. (iii) det(i) = 1, dove I è la matrice identica. Per semplicità di notazione scriveremo det(a) = A. Example 47. Il determinante di una matrice diagonale è il prodotto degli elementi della diagonale: a 0 0 b = (i) a 1 0 0 b = (i) ab 1 0 0 1 = (iii) ab. Analizziamo le conseguenze delle tre proprietà (i)-(iii). Proposition 9.0.1. (iv) Se due colonne contigue sono scambiate, il determinante cambia di segno. 77

78 CHAPTER 9. DETERMINANTI (v) Se le colonne A i e A j det(a) = 0. (con i j) della matrice A sono uguali allora (vi) Se si somma ad una colonna un multiplo scalare di un altra colonna il valore del determinante non cambia. Proof. (iv) Per semplicità consideriamo le prime due colonne. Si ha det(a 1 + A 2, A 1 + A 2,... ) = 0 perché due colonne contigue sono uguali. Per linearità si ottiene: 0 = det(a 1 + A 2, A 1 + A 2,... ) = det(a 1, A 1 + A 2,... ) + det(a 2, A 1 + A 2,... ) = det(a 1, A 1,... ) + det(a 1, A 2,... ) + det(a 2, A 1 + A 2,... ) = 0 + det(a 1, A 2,... ) + det(a 2, A 1 + A 2,... ) = det(a 1, A 2,... ) + det(a 2, A 1,... ) + det(a 2, A 2,... ) = det(a 1, A 2,... ) + det(a 2, A 1,... ) + 0 = det(a 1, A 2,... ) + det(a 2, A 1,... ). da cui si ha la conclusione. (v) Applicando (iv) si scambiano colonne sino a quando le due colonne uguali sono contigue. Poi si applica (ii). (vi) Sia det(a) = det(..., A i,..., A j,... ), mettendo in evidenza le colonne i e j. Sommiamo alla colonna i c volte la colonna j: det(..., A i + ca j,..., A j,... ) = det(..., A i,..., A j,... ) + c det(..., A j,..., A j,... ) = det(a) + 0 = det(a). Example 48. Dal Lemma 6.2.2 una matrice quadrata 2 2 [ ] a b A = c d è invertibile sse il suo determinante det(a) = ad bc 0. Calcoliamo il determinante di A applicando le regole (i)-(vi). A = a b c d = a b 0 d + 0 b c d Inoltre, a b [ 0 d = a 0 a b 0 d + 0 0 = ad + b a a a 0 0 = ad.

79 In maniera simile, 0 b c d = 0 0 c d + 0 b c 0 = 0 b 0 0 c = bc applicando Proposizione 9.0.1(iv). Regola di Cramer e sottospazio dei vettori colonna Con la regola di Cramer possiamo risolvere il sistema lineare Ax = b utilizzando i determinanti. Theorem 9.0.2. (Regola di Cramer) Sia A una matrice n n con determinante diverso da 0. Se b è un vettore colonna e c 1,..., c n scalari tali che c 1 A 1 + + c n A n = b allora per ogni i abbiamo c i = det(a1,..., A i 1, b, A i+1,..., A n ). det(a 1,..., A n ) Proof. Si sostituisca in det(a 1,..., A i 1, b, A i+1,..., A n ) il vettore b con la combinazione lineare c 1 A 1 + + c n A n e si applichino le regole di calcolo (i)-(vi). Proposition 9.0.3. I vettori colonna A 1,..., A n sono linearmente dipendenti sse det(a 1,..., A n ) = 0. Proof. Se i vettori colonna sono linearmente dipendenti, allora possiamo scrivere un opportuno vettore colonna, per esempio il primo, come combinazione lineare degli altri. Se fosse il primo avremmo: det(a 1,..., A n ) = det(c 2 A 2 + + c n A n,..., A n ) = 0 per (i)-(vi). Supponiamo ora che det(a 1,..., A n ) = 0 e ipotizziamo per assurdo che i vettori colonna siano linearmente indipendenti. Allora A 1,..., A n generano lo spazio vettoriale K n. Sia B una matrice qualsiasi il cui determinante è 0. Allora ogni vettore colonna B i di B è combinazione lineare b i = c i 1A 1 + + c i na n. Ne segue che 0 det(b) = det(b 1,..., B n ) = det(c 1 1A 1 + + c 1 na n,..., c n 1A 1 + + c n na n ) = 0 per le regole (i)-(vi). Assurdo. Sia A una matrice m n sul campo K. Le colonne di A generano un sottospazio di K n, la cui dimensione è chiamata la caratteristica per colonne di A. Le righe di A generano un sottospazio di K m, la cui dimensione è

80 CHAPTER 9. DETERMINANTI chiamata la caratteristica per righe di A. Abbiamo già dimostrato in Sezione 8.3 che la caratteristica per righe è uguale alla caratteristica per colonne. Così possiamo parlare di caratteristica di una matrice. Se consideriamo il sistema lineare Ax = 0, allora la dimensione dello spazio delle soluzioni è n r, dove r è la caratteristica di A. Calcolo del determinante Sia A = (a ij ) una matrice quadrata n n. Fissati i e j indichiamo con A ij la matrice quadrata (n 1) (n 1) ottenuta da A cancellando la riga i e la colonna j. Calcolo del determinante di una matrice quadrata A rispetto alla riga i: A = ( 1) i+1 a i1 A i1 + + ( 1) i+n a in A in. Calcolo del determinante di una matrice quadrata A rispetto alla colonna j: A = ( 1) j+1 a 1j A 1j + + ( 1) j+n a nj A nj. Il determinante di una matrice 3 3: Figure 9.1: Determinante di una matrice 3 3 Sviluppando rispetto alla prima riga si ha: A = a(ie hf) b(di fg)+ c(dh ge) = (aei hfa) + (bfg idb) + (cdh gec) = aei + bfg + cdh gec hfa idb. Altre proprietà del determinante Proposition 9.0.4. 1. A t = A ; 2. AB = A B ; 3. A 1 = A 1 ; Calcolo matrice inversa con il determinante E j è il vettore colonna con 1 nel posto j e 0 in tutti gli altri posti.

Proposition 9.0.5. Sia A = (a ij ) una matrice quadrata con determinante non nullo. Se B = (b ij ) è la matrice inversa di A, allora applicando la regola di Cramer al sistema lineare: oppure abbiamo A b 1j b 2j... b nj = Ej b 1j A 1 + b 2j A 2 + + b nj A n = E j b ij = det(a1,..., A i 1, E j, A i+1,..., A n ). A Determinante di una applicazione lineare Sia f : V V una applicazione lineare. Sia v 1,..., v n una base e sia A la matrice n n che rappresenta f rispetto alla base v 1,..., v n. Se consideriamo un altra base di V, w 1,..., w n, allora consideriamo la matrice B che rappresenta f rispetto a questa nuova base. Dalla Sezione 8.4.1 sappiamo che esiste una matrice invertibile C che corrisponde al cambiamento di base. Così si ha: B = C 1 AC e quindi B = C 1 A C = A. Theorem 9.0.6. Il determinante di una applicazione lineare f è indipendente dalla scelta della base (e quindi della matrice che rappresenta f). Data una applicazione lineare f, possiamo scrivere quindi det(f), intendendo con questo il determinante di una qualsiasi matrice che rappresenta f. Corollary 9.0.7. Si ha per applicazioni lineari componibili g, f e per isomorfismi lineari h: det(g f) = det(g)det(f) e 1 = det(h 1 h) = det(h 1 )det(h) = det(h) 1 det(h). 81

82 CHAPTER 9. DETERMINANTI

Chapter 10 Autovettori e Autovalori Definition 10.0.1. Sia V uno spazio vettoriale ed f : V V una applicazione lineare. Un autovettore è un elemento non nullo v V per cui esiste uno scalare λ tale che f(v) = λv. Lo scalare viene detto autovalore. Lo scalare 0 è un autovalore di f sse il nucleo ker(f) {0} ha dimensione 1. Se A è una matrice che rappresenta f rispetto alla base v 1,..., v n e l autovettore v ha coordinate v = c 1 v 1 + + c n v n, allora c 1 c 1 A... = λ.... c n c n L autovalore λ e l autovettore v sono detti anche autovalore e autovettore della matrice A. Remark 2. Se V è uno spazio vettoriale sul campo reale, v è un autovettore di autovalore λ > 0 sse l applicazione lineare trasforma la retta cv (c R) in se stessa, dilatandola se λ 1 oppure contraendola se 0 λ 1. Se l autovalore è negativo abbiamo anche un ribaltamento. Proposition 10.0.1. Sia A una matrice n n sul campo K. seguenti condizioni sono equivalenti: Allora le (i) λ è un autovalore di A; (ii) A λi = 0; (iii) La matrice A λi non è invertibile. 83

84 CHAPTER 10. AUTOVETTORI E AUTOVALORI Proof. Sia x un vettore non nullo. È sufficiente osservare che Ax = λx sse (A λi)x = 0. Quindi il sistema lineare omogeneo determinato dalla matrice A λi ammette soluzioni non banali. Questo è equivalente a A λi = 0. Consideriamo il determinante A λi. Nel caso 2 2 si ha: A λi = a 11 λ a 12 a 22 λ = λ2 + c 1 λ + c 0, a 21 dove c 0 = A e c 1 = a 11 a 22. Nel caso di matrice 3 3 si ha: a 11 λ a 12 a 13 A λi = a 21 a 22 λ a 23 a 31 a 32 a 33 λ = λ3 + c 2 λ 2 + c 1 λ + c 0, dove c 0 = A ; c 2 = a 11 +a 22 +a 33 ; c 1 = a 22 a 23 a 32 a 33 a 11 a 13 a 31 a 33 a 11 a 12 a 21 a 22. Definition 10.0.2. Sia A una matrice n n. Il polinomio (di grado n) determinato dal determinante A λi si chiama polinomio caratteristico della matrice A. Proposition 10.0.2. Gli autovalori di una matrice A sono gli zeri del polinomio caratteristico di A. Si noti che la matrice A e la sua trasposta A t hanno lo stesso polinomio caratteristico, perché A λi = (A λi) t = A t λi. Example 49. Sia A = [ 1 2 3 4 Calcoliamo il polinomio caratteristico di A: A = 1 λ 2 3 4 λ = (1 λ)(4 λ) 6 = λ2 5λ 2. Le soluzioni dell equazione λ 2 5λ 2 = 0 sono: λ = 2 ± 33. Quindi la 2 matrice ha due autovalori. ]

10.1. AUTOSPAZI 85 Example 50. Sia A = 1 0 1 2 0 2 2 2 3 Il determinante della matrice A è nullo: A = 2 1 1 2 2 = 0. Ne segue che il sistema omogeneo Ax = 0 ammette soluzioni x 0 non nulle. Calcoliamo il polinomio caratteristico di A sviluppando il determinante rispetto alla prima riga e scopriremo che 0 sarà un autovalore della matrice A: A = 1 λ 0 1 2 λ 2 2 2 3 λ = (1 λ) λ 2 2 3 λ + 2 λ 2 2 = = (1 λ)( λ(3 λ) 4) + 4 + 2λ = λ 3 + 4λ 2 + 3λ. L equazione λ 3 4λ 2 3λ = 0 ammette come soluzioni gli autovalori: λ = 0 e λ = 2 ± 7. Proposition 10.0.3. Il polinomio caratteristico di una matrice A = (a ij ) triangolare superiore (o inferiore) è dato da p(λ) = (a 11 λ)(a 22 λ) (a nn λ). Gli autovalori di una matrice triangolare superiore (o inferiore) sono gli elementi della diagonale. Proposition 10.0.4. Matrici simili (si veda Definizione 8.4.1) hanno lo stesso polinomio caratteristico. Proof. Siano A e B matrici simili. Allora esiste una matrice invertibile P tale che B = P AP 1. Si ha: B λi = P AP 1 λi = P AP 1 λp IP 1 = P (A λi)p 1 = P (A λi) P 1 = A λi. Sia f : V V una applicazione lineare. Se V ha dimensione n, allora f ha al più n autovalori, perchè gli autovalori sono le radici del polinomio caratteristico di grado n, che ha al più n radici. 10.1 Autospazi Proposition 10.1.1. Sia A una matrice quadrata. Dato un autovalore λ di A, l insieme degli autovettori di autovalore λ è un sottospazio vettoriale di V che coincide con il nucleo dell applicazione lineare determinata dalla matrice A λi.

86 CHAPTER 10. AUTOVETTORI E AUTOVALORI Definition 10.1.1. Sia V uno spazio vettoriale, f : V V una applicazione lineare e λ un autovalore di f. Allora il sottospazio vettoriale E λ degli autovettori di λ si chiama autospazio. La dimensione dell autospazio E λ si dice molteplicità dell autovalore λ. 10.2 Matrici diagonalizzabili Se una matrice a coefficienti reali è diagonale e se a ii 0, allora il vettore della base canonica e i = (0,..., 1,..., 0) è un autovettore di autovalore a ii : a 11 0... 0 0 a 22... 0............ 0 0... a nn 0... 1... 0 = a ii Ogni matrice diagonale dilata (o contrae) il vettore e i della base canonica di a ii 1 (0 < a ii < 1). Se il segno di a ii è negativo, si ha anche un ribaltamento. Example 51. Matrici diagonali 2 2: [ 2 0 0 5 e [ 2 0 0 5 ] [ 1 0 ] [ 0 1 ] ] [ 1 = 2 0 [ 0 = 5 1 ] ] 0... 1... 0 Definition 10.2.1. Una matrice A è diagonizzabile se è simile ad una matrice diagonale. Sia f : R n R n l applicazione lineare associata alla matrice A rispetto alla base canonica. Dire che A è diagonizzabile significa dire che esiste un cambio di base dalla base canonica e i ad una base opportuna w i tale che l applicazione lineare f rispetto a questa nuova base ammette una matrice diagonale D. Se P è la matrice del cambio di base da w i a e i allora si ha: A = P DP. 1

10.2. MATRICI DIAGONALIZZABILI 87 Se A è diagonalizzabile e si conoscono la matrice invertibile P e la matrice diagonale D, allora è facile calcolare le potenze della matrice A: A 2 = AA = P 1 DDP = P 1 D 2 P, A 3 = AAA = P 1 D 3 P, etc. Se D = d 1 0... 0 0 d 2... 0............ 0 0... d n allora D k = d k 1 0... 0 0 d k 2... 0............ 0 0... d k n Il teorema seguente caratterizza le matrici diagonalizzabili in termini di autovettori e autovalori. Theorem 10.2.1. Sia A una matrice reale n n e λ 1,..., λ k tutti gli autovalori reali distinti di A. Allora si ha: (i) A è diagonalizzabile sse la somma delle dimensioni degli autospazi è n: dim E λ1 + + dim E λk = n. (ii) Se A è diagonalizzabile con P 1 AP = D, allora le n colonne di P possono essere suddivise in k insiemi di cardinalità dim E λ1,..., dim E λk. I vettori colonna del primo insieme sono una base del sottospazio E λ1, e così via per gli altri insiemi. Gli elementi della diagonale di D sono gli autovalori. Un autovalore occorrerà tante volte in D quanto la dimensione del suo autospazio. Example [ ] 52. Calcoliamo [ ] gli autovettori ed autovalori della matrice A = 2 1 x1. Se x = è un autovettore di autovalore λ abbiamo 3 2 x 2 (A λi)x = 0. Il precedente sistema lineare omogeneo ha soluzione non nulla sse A λi = 2 λ 1 3 2 λ = (2 λ)2 3 = 0.

88 CHAPTER 10. AUTOVETTORI E AUTOVALORI L equazione di secondo grado ha soluzioni Le due matrici che si ottengono sono: B = A (2+ 3)I = λ 2 4λ + 1 = 0 λ 1 = 2 + 3; λ 2 = 2 3. [ 3 1 3 3 ] ; C = A (2 [ 3 1 3)I = 3 3 Ora calcoliamo gli autovettori. Per λ 1 = 2 + 3 lo spazio degli autovettori, che è lo spazio delle soluzioni del sistema omogeneo Bx = 0, ha dimensione 1 ed è descritto dalla retta x 2 = 3x 1. Per λ = 2 3 lo spazio degli autovettori, che è lo spazio delle soluzioni del sistema omogeneo Cx = 0, ha dimensione 1 ed è descritto dalla retta x 2 = 3x 1. Example 53. Sia A = 1 0 0 1 2 0 1 0 2 una matrice. Vogliamo 1. Determinare gli autovalori di A e le relative molteplicità. 2. Determinare gli autospazi di A e trovare, se esiste, una base di R 3 formata da autovettori di A. 3. Calcolare una matrice P invertibile tale che P 1 AP sia diagonale. La matrice A è triangolare inferiore. Quindi gli autovalori sono gli elementi sulla diagonale: l autovalore 1 con molteplicità 1, e l autovalore 2 con molteplicità 2. Un altro modo per calcolare gli autovalori è tramite il polinomio caratteristico: 1 λ 0 0 1 2 λ 0 1 0 2 λ = (1 λ)(2 λ)2. Le radici del polinomio caratteristico (1 λ)(2 λ) 2 = 0 sono 1, 2, 2. Per trovare gli autospazi bisogna risolvere i sistemi lineari omogenei 1 1 0 0 x 1 0 0 0 x 1 0 1 2 1 0 x 2 = 1 1 0 x 2 = 0 1 0 2 1 x 3 1 0 1 x 3 0 ].

10.2. MATRICI DIAGONALIZZABILI 89 e 1 2 0 0 1 2 2 0 1 0 2 2 x 1 x 2 x 3 = 1 0 0 1 0 0 1 0 0 x 1 x 2 x 3 = Il prima sistema equivale a x 2 = x 1 e x 3 = x 1. L autospazio delle soluzioni ha come base il vettore (1, 1, 1). Il secondo sistema ha per soluzione il piano x 1 = 0, che ha per base i vettori (0, 1, 0) e (0, 0, 1). Quindi una base di R 3 fatta di autovettori è composta dai vettori (1, 1, 1), (0, 1, 0) e (0, 0, 1). Rispetto alla base composta dagli autovettori (1, 1, 1), (0, 1, 0) e (0, 0, 1) la matrice diagonale D simile ad A è: 1 0 0 D = 0 2 0 0 0 2 La matrice P tale che D = P 1 AP è diagonale, è la matrice le cui colonne sono gli autovettori: 1 0 0 P = 1 1 0 1 0 1 Example 54. Siano dati in R 3 i vettori v 1 = (0, 1, 1); v 2 = (2, 0, 1); v 3 = (1, 2, 0). 1. Verificare che esiste una unica applicazione lineare f : R 3 R 3 avente v 1, v 2, v 3 come autovettori associati, rispettivamente, agli autovalori 0, 3, 6. 2. Determinare (a) la matrice A associata ad f; (b) ker(f) e Im(f). Dobbiamo avere: f(v 1 ) = 0; f(v 2 ) = 3v 2 ; f(v 3 ) = 6v 3. I tre vettori v 1, v 2, v 3 sono linearmente indipendenti (dimostrarlo!) e quindi costituiscono una base di R 3. Ne segue che la funzione f è unica perché è definita su ogni vettore v = c 1 v 1 + c 2 v 2 + c 3 v 3 di R 3 : f(c 1 v 1 + c 2 v 2 + c 3 v 3 ) = c 1 f(v 1 ) + c 2 f(v 2 ) + c 3 f(v 3 ) = 3c 2 v 2 + 6c 3 v 3. La matrice di f rispetto alla base v 1, v 2, v 3 di autovettori è la matrice diagonale 0 0 0 D = 0 3 0 0 0 6 0 0 0

90 CHAPTER 10. AUTOVETTORI E AUTOVALORI Per calcolare la matrice A rispetto alla base canonica di R 3 dobbiamo considerare la matrice P le cui colonne sono le coordinate degli autovettori rispetto alla base canonica: 0 2 1 P = 1 0 2 1 1 0 Siccome D = P 1 AP, ricaviamo che A = P DP 1. L inversa della matrice P è: 2/3 1/3 4/3 P 1 = 2/3 1/3 1/3 1/3 2/3 2/3 E quindi A = P DP 1 = 0 2 1 1 0 2 1 1 0 = 0 0 0 0 3 0 0 0 6 2 2 2 4 8 8 2 1 1 10.3 Rotazioni del piano 2/3 1/3 4/3 2/3 1/3 1/3 1/3 2/3 2/3 = Consideriamo il piano Cartesiano con la base canonica e 1 = (1, 0) e e 2 = (0, 1). Consideriamo una rotazione R θ in senso antiorario degli assi Cartesiani di un angolo θ. Le rotazioni preservano la distanza e sono isomorfismi lineari R θ : R 2 R 2. Il vettore e 1 viene trasformato nel vettore R θ (e 1 ) = (cos θ)e 1 + (sin θ)e 2, mentre il vettore e 2 viene trasformato nel vettore R θ (e 2 ) = ( sin θ)e 1 + (cos θ)e 2. Quindi la matrice della rotazione è: [ ] cos θ sin θ sin θ cos θ Il vettore (3, 2), per esempio, viene ruotato di un angolo θ e viene trasformato nel vettore [ ] [ ] [ ] cos θ sin θ 3 3 cos θ 2 sin θ = sin θ cos θ 2 3 sin θ + 2 cos θ

10.3. ROTAZIONI DEL PIANO 91 La matrice ha determinante uguale ad 1: (cos θ) 2 + (sin θ) 2 = 1. Ogni rotazione è infatti invertibile. La matrice inversa, che corrisponde ad una rotazione oraria di un angolo θ, è: [ ] cos θ sin θ sin θ cos θ Vi è una corrispondenza bigettiva tra rotazioni e matrici [ ] a b b a con determinante a 2 + b 2 = 1. Si ricorda che un altro modo di rappresentare le rotazioni è con la moltiplicazione dei numeri complessi. Se z = cos θ + i sin θ ed u = 3 + 2i, allora zu = (3 cos θ 2 sin θ) + (3 sin θ + 2 cos θ)i.

92 CHAPTER 10. AUTOVETTORI E AUTOVALORI

Chapter 11 Esempi 11.1 Algoritmo di Google Questo esempio è la terza lezione nel sito Winter2009/RalucaRemus (che troverete con un motore di ricerca). Supponiamo di avere quattro siti web (www.page1.com, www.page2.com, www.page3.com, www.page4.com) con links tra i siti descritti dal seguente grafo: Il nodo 1 ha tre archi uscenti. Ciò significa che vi sono nella pagina p 1 Figure 11.1: Il grafo con archi pesati tre link, il primo diretto alla pagina p 2, il secondo alla pagina p 3 e l ultimo alla pagina p 4. Similmente per gli altri archi uscenti dagli altri nodi. Supponiamo che un utente si trovi nella pagina p 1. Immaginiamo che gli eventi passa alla pagina p 2, passa alla pagina p 3, passa alla pagina p 4 siano equiprobabili. Quindi se un utente si troverà nella pagina p 1 vi è una probabilità 1 3 che passi alla pagina p 2, e così via. Lo stesso discorso si applica 93

94 CHAPTER 11. ESEMPI per gli altri nodi con probabilità possibilmente diverse, che dipendono dal numero di links. Siccome il nodo 1 ha tre archi uscenti, trasferisce un terzo della sua importanza a ciascuno dei tre nodi riceventi. In generale, se un nodo ha k archi uscenti, trasferisce 1 della sua importanza a ciascuno dei nodi riceventi. k I principi sui quali si basa PageRank sono quindi i seguenti: Una pagina importante riceve links da pagine importanti. Una pagina importante ha pochi links verso altre pagine. Questi principi vengono formalizzati nella seguente formula: indicando con r(p) il rango della pagina web p (cioé la sua importanza relativa) e con p il numero di links dalla pagina p verso altre pagine, abbiamo r(p) = q p r(q) q. In questa formula, la somma è effettuata su tutte le pagine q che hanno un link verso p. Il contributo di una pagina q è quindi direttamente proporzionale all importanza (rango) di q ed inversamente proporzionale al numero di links da q verso altre pagine. La matrice A di transizione del grafo mette in ciascuna colonna A i il trasferimento di importanza dal nodo i agli altri nodi, mentre ciascuna riga A i della matrice rappresenta l importanza che il nodo i riceve dagli altri nodi. In altre parole, si ha: { 1 p a ij = j se esiste un link da p j a p i 0 altrimenti. e quindi nel nostro esempio abbiamo 0 0 1 1 2 1 A = 0 0 0 3 1 1 0 1 3 2 2 1 1 0 0 3 2 La matrice A è invertibile. Sviluppiamo il determinante rispetto alla terza colonna. 1 0 0 3 det(a) = det( 1 1 1 ) = 1 3 ( 1 4 ) = 1 12. 3 1 3 2 2 1 0 2

11.1. ALGORITMO DI GOOGLE 95 r(p 1 ) Denotiamo con r = r(p 2 ) r(p 3 ) il rango delle quattro pagine. Allora dobbiamo avere: r(p 4 ) 0 0 1 1 r(q) r(p 2 1 ) q p 1 q 1 r(q) r(p 1 ) Ar = 0 0 0 3 r(p 2 ) 1 1 0 1 r(p 3 2 2 3 ) = q p 2 q r(q) q p 1 1 3 q = r(p 2 ) r(p 3 ) 0 0 r(p 3 2 4 ) r(p 4 ) q p 4 r(q) q In altre parole, il vettore r è un autovettore di autovalore 1. Risolvendo il sistema lineare corrispondente r(p 1 ) = r(p 3 ) + r(p 4) 2 r(p 2 ) = r(p 1) 3 r(p 3 ) = r(p 1) + r(p 2) + r(p 4) 3 2 2 r(p 4 ) = r(p 1) + r(p 2) 3 2 si ottiene facilmente che abbiamo una retta di soluzioni c(12, 4, 9, 6) al variare di c. Prendendo il vettore la cui somma delle coordinate è 1 otteniamo 0.38 PageRank vector 0.12 0.29 0.19 In altre parole, la pagina p 1 ha importanza 0.38 e così via per gli altri. Su 100 utenti, 38 visiteranno la pagina p 1. Si suggerisce di cercare con un motore di ricerca il file jkhoury/google.pdf dove viene spiegato in dettaglio l algoritmo di Google.

96 CHAPTER 11. ESEMPI 11.2 Numeri di Fibonacci Questo esempio è preso da jkhoury/fibonacci.htm All inizio dell anno abbiamo una coppia di conigli maschio e femmina. Le regole sono le seguenti: Dopo due mesi ogni coppia produce una coppia mista (maschio, femmina) e da quel momento una nuova coppia mista ogni mese successivo. Nessun coniglio muore. Indichiamo con F n il numero di conigli Figure 11.2: Coppie di conigli e successione di Fibonacci dopo n mesi. Abbiamo: F 0 = 1; F 1 = 1; F n = F n 1 + F n 2. La successione cresce rapidamente. Dopo 55 mesi abbiamo F 55 = 139.583.862.445. Esiste un espressione che ci permette di trovare F n facilmente? La risposta è positiva se si conosce il processo di diagonalizzazione di una matrice. Consideriamo la matrice quadrata [ ] 1 1 A = 1 0 Allora partendo dal vettore [ F1 F 0 ] = [ ] 1 1

11.2. NUMERI DI FIBONACCI 97 si ricava che o in altri termini [ Fn+1 F n [ Fn+1 F n ] [ ] Fn = A F n 1 ] [ ] [ ] 1 1 = AA A = A n 1 1 (n-volte) La matrice A è diagonalizzabile (si veda il Capitolo 10 su autovalori e autovettori), ossia esiste una matrice invertibile P ed una matrice diagonale D tale che A = P 1 DP da cui si ricava A n = P 1 D n P. Siccome è facile calcolare una potenza D n di una matrice diagonale, è anche facile calcolare A n. Calcoliamo gli autovalori di A, per cui deve essere det(a λi) = 0: [ ] 1 λ 1 det(a λi) = det( ) = (1 λ)λ 1 = 0. 1 λ In altri termini, Le due soluzioni sono reali λ 2 λ 1 = 0. λ 1 = 1 + 5 2 ; λ 2 = 1 5. 2 Se il vettore x è un autovettore corrispondente all autovalore λ i (i = 1, 2) allora abbiamo che Ax = λ i x, che si può scrivere come (A λ i I)x = 0, che è un sistema omogeneo. Risolvendo tale sistema omogeneo si scopre che il vettore w 1 = ( 1+ 5 2, 1) è una base per lo spazio degli autovettori dell autovalore λ 1 = 1+ 5 2, mentre il vettore w 2 = ( 1 5 2, 1) è una base per lo spazio degli autovettori dell autovalore λ 2 = 1 5 2. Dal Teorema 10.2.1 si ricava che i vettori w 1, w 2 costituiscono una base di R 2. Sempre dal Teorema 10.2.1 si ricava che la matrice i cui vettori colonna sono w 1 e w 2 è la matrice invertibile che diagonalizza A: P = [ 1+ 5 2 1 5 2 1 1 ] La matrice inversa è P 1 = [ 5 1 1+ 5 2 5 1 2 1+ 5 5 2 5 ]

98 CHAPTER 11. ESEMPI mentre la matrice diagonale D è Allora si ha: [ 1+ 5 2 [ Fn+1 1 5 2 1 1 F n D = [ 1+ ] 5 0 2 1 0 5 2 ] [ ] [ ] 1 1 = A n = P D n P 1 = 1 1 ] [ ] [ ( 1+ 5) n 1 0 2 0 ( 1 5) n 2 Infine moltiplicando le matrici si ricava: ( F n = 1 5 1 + ) n+1 ( 5 2 5 1+ 5 2 5 1 2 1+ 5 5 2 5 1 ) n+1 5 2 ] [1 Un calcolatore potente in poco tempo calcola F 100 = 573147844013817084101. Il numero φ = 1 + 5 2 è la famosa sezione aurea o divina proporzione. È utilizzato in arte e architettura per dare simmetria alla rappresentazioni figurative geometriche (si consulti il libro di T. Livio: La sezione aurea). Il rettangolo aureo è un rettangolo le cui proporzioni sono basate sulla sezione aurea. Ciò significa che il rapporto fra il lato maggiore a e quello minore b, a, è identico a quello b fra il lato minore b e il segmento a b ottenuto sottraendo b dal lato maggiore a (il che implica che entrambi i rapporti siano φ). Quindi se abbiamo un rettangolo aureo di lati a e b con a > b si ha: Se a > b sono lunghezze non nulle, allora φ = a + b a = a b = b a b. 1 ]. Figure 11.3: Sezione aurea Siccome φ 2 φ 1 = 0, si ha anche che φ = 1+φ. Così il rettangolo di φ lati φ e 1 è un rettangolo aureo.

11.3. CRITTOGRAFIA 99 Si ha anche che il rapporto di due numeri di Fibonacci consecutivi tende alla sezione aurea quando l indice n tende all infinito. 11.3 Crittografia F n φ = lim n. F n 1 I caratteri dell alfabeto italiano sono 26. Aggiungiamo un ulteriore carattere che rappresenta il blank, lo spazio vuoto. Codifichiamo questi 27 caratteri con dei numeri arbitrari. Per semplificare i conti riduciamo il numero di caratteri a 11 compreso il blank: A = 345; B = 12438; C = 79; D = 987; E = 30078; F = 675; G = 5499; I = 9090; 0 = 555; R = 777; blank = 647. Allora la frase GIOCO BARO viene codificata in maniera elementare dalla seguente successione di numeri: 5499, 9090, 555, 79, 555, 647, 12438, 345, 777, 555 Consideriamo una matrice Z quadrata n n (n molto grande) che sia invertibile. Immaginiamo che la matrice Z sia conosciuta soltanto ai due interlocutori che devono scambiare il messaggio cifrato. Nel nostro esempio per ragioni di spazio prendiamo una matrice 3 3: 1 2 3 Z = 4 5 6 7 8 9 Allora suddividiamo il messaggio con la codifica elementare in vettori di lunghezza 3 avendo l accortezza di aggiungere degli spazi finale per ottenere un multiplo del 3. 5499 79 12438 555 9090, 555, 345, 647. 555 647 777 647 Mettiamo tutti questi vettori in una matrice U di dimensione 3 4 5499 79 12438 555 U = 9090 555 345 647 555 647 777 647

100 CHAPTER 11. ESEMPI Consideriamo la matrice prodotto 1 2 3 5499 79 12438 555 ZU = 4 5 6 9090 555 345 647 = 7 8 9 555 647 777 647 25344 3130 15459 3790 70776 6973 56139 9337 116208 10816 96819 14884 Allora i numeri che vengono trasmessi sono 25344, 3130, 15459, 3790, 70776, 6973, 56139, 9337, 116208, 10816, 96819, 14884 Una persona che intercetta i numeri non riesce a decodificare il messaggio, mentre il ricevente semplicemente moltiplica a sinistra la matrice ZU per Z 1 e recupera U. 11.4 Compressione di Immagini Questa sezione è presa da jkhoury/haar.htm Figure 11.4: Compressione di immagine con differenti metodi Consideriamo una immagine digitale come una matrice. Ogni componente della matrice corrisponde ad un pixel (elemento elementare della figura). Supponiamo di avere una matrice 256 256 di pixels con valori di ciascuna componente un numero da 0 (nero) a 255 (bianco). Nel mezzo varie sfumature di grigio. La tecnica JPEG divide l immagine in blocchi 8 8 e assegna una matrice ad ogni blocco. Utilizziamo l algebra lineare per massimizzare la compressione dell immagine.

11.5. ERRORI NELLA TRASMISSIONE DELL INFORMAZIONE 101 Figure 11.5: Metodo JPEG 11.5 Errori nella trasmissione dell informazione