Appunti di Geometria e Algebra

Documenti analoghi
Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria.

2. I numeri reali e le funzioni di variabile reale

M.P. Cavaliere ELEMENTI DI MATEMATICA E LOGICA MATEMATICA DISCRETA INSIEMI

X Settimana = 0 R. = 0 R x, x R. + (x 0 R. ) x 0 R = = x 0 R

FONDAMENTI DI ALGEBRA LINEARE E GEOMETRIA

misura. Adesso, ad un arbitrario punto P dello spazio associamo una terna di numeri reali x

Si consideri il sistema a coefficienti reali di m equazioni lineari in n incognite

Sapienza Università di Roma Corso di laurea in Ingegneria Energetica Geometria A.A ESERCIZI DA CONSEGNARE prof.

Elementi di Algebra Lineare Spazi Vettoriali

Vettori e geometria analitica in R 3 1 / 25

Sistemi lineari. Lorenzo Pareschi. Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara

Corso di Matematica e Statistica 3 Algebra delle matrici. Una tabella rettangolare: la matrice. Una tabella rettangolare: la matrice

ALGEBRA I: ASSIOMI DI PEANO E PROPRIETÀ DEI NUMERI NATURALI

Dipendenza e indipendenza lineare

(VX) (F) Se A e B sono due matrici simmetriche n n allora anche A B è una matrice simmetrica.

(2) Dato il vettore w = (1, 1, 1), calcolare T (w). (3) Determinare la matrice A associata a T rispetto alla base canonica.

Capitolo IV SPAZI VETTORIALI EUCLIDEI

Indice. 1 Cenni di logica. 2 Elementi di teoria degli insiemi. 3 Relazioni e funzioni. 4 Strutture algebriche

Somma diretta di sottospazi vettoriali

4 0 = 4 2 = 4 4 = 4 6 = 0.

Strutture algebriche. Leggi di composizione. Leggi di composizione. Gruppi Insiemi di numeri Polinomi

x 1 Fig.1 Il punto P = P =

SISTEMI LINEARI: APPROFONDIMENTI ED ESEMPI

Esercitazione di Analisi Matematica II

01 - Elementi di Teoria degli Insiemi

Geometria BIAR Esercizi 2

= elemento che compare nella seconda riga e quinta colonna = -4 In generale una matrice A di m righe e n colonne si denota con

1) Quali dei seguenti sottoinsiemi del campo dei numeri reali ℝ sono sottospazi vettoriali?

RELAZIONI, FUNZIONI, INSIEMI NUMERICI. 1. Relazioni. Siano X e Y due insiemi non vuoti. Si definisce il prodotto cartesiano

Gli insiemi N, Z e Q. I numeri naturali

ESERCIZI DI ALGEBRA LINEARE E COMPLEMENTI DI GEOMETRIA

Pagine di Algebra lineare. di premessa al testo Pagine di Geometria di Sara Dragotti. Parte terza: SISTEMI LINEARI

ELEMENTI di TEORIA degli INSIEMI

Appunti su Indipendenza Lineare di Vettori

Che cos è un insieme? Come si individua un insieme? 1. Scrivendone esplicitamente gli elementi: C = {2, 4, 6, 8, 10,...}.

LEZIONE 8. k e w = wx ı + w y j + w z. k di R 3 definiamo prodotto scalare di v e w il numero

REGISTRO DELLE LEZIONI

Argomenti Capitolo 1 Richiami

Dipendenza e indipendenza lineare (senza il concetto di rango)

Le matrici. Sia K un campo con elemento neutro dell addizione 0 ed elemento neutro della moltiplicazione 1.

CORSO DI AZZERAMENTO DI MATEMATICA

SOTTOSPAZI E OPERAZIONI IN SPAZI DIVERSI DA R n

Il teorema di Rouché-Capelli

Nozioni introduttive e notazioni

SISTEMI LINEARI. x y + 2t = 0 2x + y + z t = 0 x z t = 0 ; S 3 : ; S 5x 2y z = 1 4x 7y = 3

1.1 Coordinate sulla retta e nel piano; rette nel piano

LEZIONE 12. Y = f(x) = f( x j,1 f(e j ) = x j,1 A j = AX = µ A (X),

Sistemi di equazioni lineari

SISTEMI LINEARI MATRICI E SISTEMI 1

appuntiofficinastudenti.com 1. Strutture algebriche e polinomi

a + 2b + c 3d = 0, a + c d = 0 c d

Corso di Geometria Ing. Informatica e Automatica Test 1: soluzioni

Richiami sugli insiemi numerici

Esercitazione 6 - Soluzione

ii 1.20 Rango di una matrice Studio dei sistemi lineari Teoremi di Cramer e Rouché-Capelli......

Prodotto scalare e prodotto vettoriale. Elisabetta Colombo

Prodotto scalare e ortogonalità

Esercizi svolti. risolvere, se possibile, l equazione xa + B = O, essendo x un incognita reale

Inversa di una matrice

Esercizi di MATEMATICA PER RCHITETTURA prima parte: Algebra Lineare e Geometria

Corso di Geometria BIAR, BSIR Esercizi 2: soluzioni

LEZIONE Equazioni matriciali. Negli Esempi e si sono studiati più sistemi diversi AX 1 = B 1, AX 2 = R m,n, B = (b i,h ) 1 i m

FUNZIONI. }, oppure la

Applicazioni lineari e diagonalizzazione. Esercizi svolti

Programma di Algebra 1

Corso di Calcolo Numerico

01 - Elementi di Teoria degli Insiemi

SISTEMI LINEARI. x 2y 2z = 0. Svolgimento. Procediamo con operazioni elementari di riga sulla matrice del primo sistema: R 2 R 2 3R

Autovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti)

Esercizi di ripasso: geometria e algebra lineare.

Esercizi per Geometria II Geometria euclidea e proiettiva

Corso di Analisi Matematica I numeri reali

Geometria analitica del piano pag 12 Adolfo Scimone

Prontuario degli argomenti di Algebra

Precorsi di matematica

Analisi Matematica 1 e Matematica 1 Geometria Analitica: Rette

Gli insiemi e le relazioni. Elementi di logica

( ) TEORIA DELLE MATRICI. A. Scimone a.s pag 1

FUNZIONI. y Y. Def. L insieme Y è detto codominio di f. Es. Siano X = R, Y = R e f : x y = 1 x associo il suo inverso). (ad un numero reale

Alcuni esercizi sulla diagonalizzazione di matrici. campo dei reali. Se lo è calcolare una base spettrale e la relativa forma diagonale di A.

10 dicembre Soluzione esame di geometria - Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA...

DISPENSE SU TEORIA DEGLI INSIEMI E NUMERI

Lezione 4 - Esercitazioni di Algebra e Geometria - Anno accademico

APPLICAZIONI LINEARI

Esercizi di Algebra Lineare. Claretta Carrara

1 Ampliamento del piano e coordinate omogenee

Prodotto interno (prodotto scalare definito positivo)

ALGEBRE DI BOOLE. (d) x, y X x y oppure y x.

Introduciamo ora un altro campo, formato da un numero finito di elementi; il campo delle classi resto modulo n, con n numero primo.

SPAZI VETTORIALI. Esercizi Esercizio 1. Sia V := R 3. Stabilire quale dei seguenti sottoinsiemi di V sono suoi sottospazi:

QUADERNI DIDATTICI. Dipartimento di Matematica. Esercizi di Geometria ealgebralinearei Corso di Studi in Fisica

Prodotto scalare e norma

RETTE E PIANI. ove h R. Determinare i valori di h per cui (1) r h e α sono incidenti ed, in tal caso, determinare l angolo ϑ h da essi formato;

Transcript:

Appunti di Geometria e Algebra (per la facoltà di Ingegneria) Francesco D Andrea Dipartimento di Matematica e Applicazioni R. Caccioppoli Università di Napoli Federico II, P.le Tecchio 80 80125 Napoli v1: 12 giugno 2011. Note Appunti del corso di Geometria e Algebra (6 CFU) per i corsi di laurea in Ingegneria Elettrica e Ingegneria Gestionale della Logistica e della Produzione (canale A-COP) dell Università di Napoli Federico II, a.a. 2010-2011. (Attenzione: questo materiale è destinato esclusivamente agli studenti del corso, con preghiera di non divulgazione.) Testi consigliati [Lom] L.A. Lomonaco, Un introduzione all algebra lineare, Ed. Aracne (Roma). [Pel1] S. Pellegrini, A. Benini e F. Morini, Algebra Lineare 1, Ed. F. Apollonio (Brescia). [Pel2] S. Pellegrini, A. Benini e F. Morini, Algebra Lineare 2, Ed. F. Apollonio (Brescia). [BruLan] M. Brundu e G. Landi, Note di Algebra Lineare e Geometria (2011), on-line. [Par] G. Parigi e A. Palestini, Manuale di Geometria: esercizi e temi d esame svolti, Ed. Pitagora (Bologna).

Indice 1 Elementi di teoria degli insiemi (16/03/2011) 1 1.1 Notazioni................................... 1 1.2 Insiemi privi di struttura.......................... 2 1.3 Applicazioni tra insiemi........................... 3 2 Strutture algebriche: gruppi, anelli, campi (18/03/2011) 7 2.1 Operazioni di un insieme.......................... 7 2.2 Gruppi, anelli, campi............................ 9 3 Sistemi lineari: definizioni e prime proprietà (23/03/2011) 12 3.1 Premesse................................... 12 3.2 Generalità sui sistemi lineari........................ 13 3.3 Matrici.................................... 14 3.4 Operazioni elementari su un sistema lineare................ 15 3.5 Esame dei casi più semplici di equazioni e sistemi lineari......... 16 3.6 Esercizi.................................... 19 4 Spazi vettoriali e sottospazi (25/03/2011) 21 4.1 Introduzione................................. 21 4.2 Proprietà elementari............................. 24 4.3 Sottospazi.................................. 26 4.4 Operazioni su sottospazi........................... 28 5 Esercitazione su vettori e matrici (30/03/2011) 30 5.1 Esercizi su spazi e sottospazi........................ 30 5.2 Esercizi su matrici 2 2........................... 32 5.3 Determinante di una matrice 3 3..................... 33 5.4 Determinante di una matrice n n..................... 35 6 Dipendenza e indipendenza lineare (06/04/2011) 38 6.1 Dipendenza e indipendenza lineare..................... 38 6.2 Basi e componenti.............................. 40 7 Esercitazione su basi e dimensione (08/04/2011) 45 7.1 Proprietà delle basi............................. 45 7.2 Esercizi.................................... 47 8 Spazi metrici (13/04/2011) 51 8.1 Lunghezze, angoli e proiezioni in R 2.................... 51 8.2 Aree di triangoli e determinante...................... 53 i

8.3 Definizione astratta di prodotto scalare e sue proprietà.......... 54 8.4 Proiezioni ortogonali............................. 57 8.5 Esercizi.................................... 59 9 Basi ortonormali e metodo di Gram-Schmidt (15/04/2011) 61 9.1 Basi ortonormali............................... 61 9.2 Metodo di Gram-Schmidt.......................... 62 9.3 Sottospazi ortogonali............................ 63 9.4 Esercizi.................................... 65 10 Matrici (20/04/2011) 68 10.1 Prodotto righe per colonne......................... 68 10.2 Proprietà del prodotto........................... 70 10.3 Inversa ed aggiunta di una matrice.................... 74 11 Il metodo di eliminazione di Gauss (29/04/2011) 77 11.1 Matrici triangolari............................. 77 11.2 Il metodo di eliminazione di Gauss.................... 78 11.3 Sistemi ridotti e a scala.......................... 82 12 Riduzione di sistemi lineari (04/05/2011) 87 12.1 Riduzione di una matrice......................... 87 12.2 Soluzione di sistemi lineari generali.................... 88 12.3 Calcolo dell inversa di una matrice per riduzione............. 90 12.4 Determinare una base per riduzione.................... 91 12.5 Inversa di una matrice con il metodo di Gauss.............. 94 13 Applicazioni lineari (06/05/2011 e 11/05/2011) 95 13.1 Definizione e prime proprietà....................... 95 13.2 Proprietà delle applicazioni lineari.................... 99 14 Rango e sistemi lineari (11/05/2011) 102 14.1 Applicazioni e sistemi lineari........................ 102 14.2 Rango di una matrice........................... 102 14.3 Proprietà del rango............................. 104 14.4 Esercizi................................... 106 15 Esercitazione (13/05/2011) 108 15.1 Applicazioni lineari............................. 108 15.2 Basi e dimensione.............................. 109 15.3 Sistemi lineari................................ 111 ii

16 Endomorfismi semplici (18/05/2011) 113 16.1 Matrice del cambiamento di base..................... 113 16.2 Matrici simili e coniugate......................... 116 16.3 Esercizio: rotazioni nel piano....................... 118 17 Autovalori e autovettori (20/05/2011) 120 17.1 Autovalori e autovettori.......................... 120 17.2 Polinomio caratteristico.......................... 124 18 Diagonalizzazione di matrici (25/05/2011 e 27/05/2011) 129 18.1 Diagonalizzazione.............................. 129 18.2 Esercizi................................... 135 19 Geometria di R 2 (01/06/2011 e 03/06/2011) 141 19.1 Equazioni di una retta........................... 141 19.2 Intersezione fra due rette.......................... 144 19.3 Circonferenze................................ 145 19.4 Distanze................................... 148 19.5 Esercizi................................... 149 20 Esercitazione (06/06/2011) 152 20.1 Tema d esame #1.............................. 152 20.2 Tema d esame #2.............................. 153 20.3 Soluzioni tema d esame #1........................ 154 20.4 Soluzioni tema d esame #2........................ 158 21 Geometria di R 3 : rette, piani e intersezioni (08/06/2011) 163 21.1 Rette e piani in R 3 : equazioni parametriche............... 163 21.2 Equazioni cartesiane di una retta..................... 165 21.3 Equazioni cartesiane di un piano..................... 167 21.4 Intersezioni................................. 168 22 Geometria di R 3 : lunghezze, aree e volumi (10/06/2011) 171 22.1 Distanze, equazione di una sfera...................... 171 22.2 Angolo fra due vettori di R 3........................ 173 22.3 Prodotto vettoriale e prodotto misto................... 175 22.4 Retta per due punti, piano individuato da tre punti........... 179 A Equazioni polinomiali 182 iii

Lezione I Elementi di teoria degli insiemi Sommario: notazioni; richiami di teoria degli insiemi; prodotto cartesiano; applicazioni (funzioni) e loro proprietà; applicazioni iniettive, suriettive, biettive; applicazione identica e applicazione inversa; esempi. 1.1 Notazioni In matematica, per semplificare la scrittura di equazioni e teoremi, su fa uso di simboli specifici. Nella tabella seguente sono riportati i simboli più comuni. Altri verranno introdotti durante il corso. Tavola dei simboli più usati Simbolo Significato per ogni (detto quantificatore universale) esiste (detto quantificatore esistenziale)! esiste ed è unico = implicazione logica se e solo se := definizione (a := b si legge a per definizione è uguale a b ) : tale che e (detta congiunzione logica) o (detta disgiunzione logica) Assumeremo come primitivo il concetto di insieme (adotteremo quindi il punto di vista della teoria ingenua degli insiemi, senza addentrarci nei problemi della teoria assiomatica). In maniera intuitiva, un insieme è una collezione di oggetti di natura arbitraria. Un insieme può essere definito elencando i suoi elementi, oppure specificando le proprietà soddisfatte dai suoi elementi. Ad esempio l insieme dei numeri interi compresi fra 2 e 3 si può scrivere come Insiemi A = { 0, 1, 2, 3, 1, 2 }, oppure A = { n Z : 2 n 3 }. (1.1) L espressione (1.1) si legge A è l insieme degli n contenuti in Z (quindi, interi) tale che n è maggiore o uguale a 2 e minore o uguale a 3. Una proposizione viene usualmente racchiusa fra parentesi graffe. 1

In un insieme, l ordine degli elementi è irrilevante. Ad esempio {3, 14} = {14, 3}. Gli insiemi verranno indicati con lettere maiuscole (A, B, C,...), i loro elementi con lettere minuscole (a, b, c,...). L espressione a A si legge a appartiene ad A (o è elemento di, o è contenuto in ). Si può scrivere al rovescio: A a vuol dire A contiene a. L espressione a / A vuol dire a non è elemento di A. Gli elementi di un insieme non devono necessariamente essere numeri: possono essere oggetti di natura arbitraria. Si pensi all insieme dei punti di una retta, l insieme dei giocatori di una squadra di calcio, l insieme dei caratteri di un alfabeto, etc. Gli elementi di un insieme possono essere a loro volta insiemi. Ad esempio, siano A := {1, 2} e B := {1, 4}. Possiamo formare l insieme C i cui elementi sono l insieme A e l insieme B: C := {A, B} = { {1, 2}, {1, 4} } Esiste una notazione specifica per gli insiemi numerici più importanti. Fra questi ricordiamo: N := {0, 1, 2, 3, 4,...} numeri naturali (incluso lo 0) Z := numeri interi (relativi, ossia positivi e negativi, incluso lo zero) Q := numeri razionali (quozienti di due interi) R := numeri reali C := numeri complessi Z + := {1, 2, 3,...} interi positivi Z := { 1, 2, 3,...} interi negativi R + := reali positivi etc. 1.2 Insiemi privi di struttura Definizione 1.2.1. Un insieme A si dice sottoinsieme di un insieme B, e scriveremo A B, se ogni elemento di A è anche elemento di B. Quindi: Sottoinsieme A B x A, x B. Se esiste almeno un elemento di B che non appartiene ad A, diremo che A è un sottoinsieme proprio di B, e scriveremo A B. Quindi: A B { x A, x B } { b B : b / A }. E facile mostrare che { } { } A B B A = A = B. 2

Definizione 1.2.2. Dati due insiemi A e B, la loro intersezione A B è l insieme degli elementi che appartengono sia ad A che a B, la loro unione A B è l insieme degli elementi che che appartengono ad almeno uno dei due insiemi A e B, la loro differenza A B è l insieme di elementi che appartengono ad A ma non a B. Quindi: Intersezione, unione, differenza A B := { x : x A x B }, A B := { x : x A x B }, A B := { x : x A x / B }. Si indica con l insieme vuoto, ovvero privo di elementi. Unione, intersezione e Insieme vuoto differenza godono di una serie di proprietà elementari, la cui verifica è lasciata come esercizio. Ad esempio A A = A A = A A = A = A A B = B A (proprietà commutativa di ) A B = B A (proprietà commutativa di ) (A B) C = A (B C) (proprietà associativa di ) (A B) C = A (B C) (proprietà associativa di ) Un elenco più completo si può trovare nella Sezione 1.2 di [Pel1]. Definizione 1.2.3. Dati due insiemi A e B, si dice prodotto cartesiano di A e B, e si indica con A B, l insieme delle coppie ordinate aventi il primo elemento in A ed il secondo in B. Quindi: Prodotto cartesiano A B := { (a, b) : a A b B }. Più ingenerale dati n insiemi A 1,..., A n : A 1 A 2... A n := { (a 1, a 2,..., a n ) : a i A i i = 1,..., n }. Esercizio 1.2.4. Determinare il prodotto cartesiano di A = {, } e B = {7, 12}. Esercizio 1.2.5. Determinare il prodotto cartesiano di A = {0, 1, 5} e B = {0, 1, 2} (notare che (0, 1) (1, 0) in A B). 1.3 Applicazioni tra insiemi Definizione 1.3.1. Dati due insiemi A e B si dice corrispondenza da A in B un Corrispondenza 3

qualunque sottoinsieme C del prodotto cartesiano A B. L insieme A è detto dominio, l insieme B è detto codominio. Una corrispondenza C da A in B è indicata con la scrittura C : A B. La corrispondenza opposta C op : B A è definita come C op = {(y, x) : (x, y) A B}. Esempio 1.3.2. se A = {1, 2, 7} e B = {0, 2, 3, 4, 14}, allora C = {(1, 2), (2, 4), (7, 14)} è la corrispondenza che associa ad ogni elemento di A il suo doppio. Sia C : A B una corrispondenza. L immagine di A A è l insieme C(A ) := {b B : a A, (a, b) C}. La controimmagine di B B è l insieme C op (B ) := {a A : b B, (a, b) C}. Una corrispondenza si dice: 1. ovunque definita se per ogni a A esiste almeno un b B tale che (a, b) C; 2. funzionale o univoca o a un solo valore se per ogni a A esiste al più un b B tale che (a, b) C; 3. suriettiva se per ogni b B esiste almeno un a A tale che (a, b) C; 4. iniettiva se per ogni b B esiste al più un a A tale che (a, b) C. Si verifica facilmente che: C è ovunque definita se e solo se C op è suriettiva; C è funzionale se e solo se C op è iniettiva. Definizione 1.3.3. Una corrispondenza C : A B si dice applicazione (o funzio- ne) se è ovunque definita e funzionale. Applicazione o funzione Una definizione equivalente, che non fa ricorso alla nozione di corrispondenza, è la seguente. Definizione 1.3.4. Una applicazione (o funzione) f da A in B è una legge che associa ad ogni elemento x di A un elemento y = f(x) in B, detto immagine di x tramite f. Per le applicazioni useremo la scrittura: f : A B x y = f(x) Se f è una applicazione nel senso della definizione 1.3.4, allora l insieme C = { (x, y) A B : y = f(x) } è una corrispondenza (ovunque definita e funzionale). 4

Come per le corrispondenze, una applicazione f : A B si dice 1. suriettiva se per ogni y B esiste almeno un x A tale che y = f(x); Suriettività 2. iniettiva se Iniettività f(x) = f(y) = x = y, ovvero due elementi hanno la stessa immagine se e solo se sono uguali. Definizione 1.3.5. Una applicazione si dice biunivoca (o biettiva) se è iniettiva e suriettiva. Biunivocità Esempio 1.3.6. Si considerino le seguenti applicazioni a) f : N N, f(x) := x + 1, b) g : R R, g(x) := x + 1. La prima è iniettiva ma non suriettiva; la seconda è sia iniettiva che suriettiva, quindi biunivoca. Per verificare l iniettività bisogna dimostrare che due elementi distinti hanno sempre immagini distinte. Nel caso a), per definizione se f(x) = f(y) allora x + 1 = y + 1, e questo implica x = y. Questo dimostra che f è iniettiva. La stessa dimostrazione si applica a g. Per verificare la suriettività bisogna dimostrare che ogni elemento del codominio è immagine di almeno un elemento del dominio. Nel caso b), dato y R, possiamo trovare un numero reale x := y 1 che soddisfa g(x) = g(y 1) = (y 1) + 1 = y; quindi g è suriettiva. Nel caso a) questo non è vero, poichè se y = 0 N, x = y 1 = 1 non è un numero naturale, quindi 0 non è l immagine tramite f di alcun elemento del dominio. Esercizio 1.3.7. Si considerino le tre applicazioni seguenti: f : N N, f(x) := x 2, g : R {0} R +, g(x) := x 2, h : R + R +, h(x) := x 2. Verificare che: la prima è iniettiva e non suriettiva, la seconda è suriettiva e non iniettiva, la terza è biunivoca (per la soluzione, vedere l esempio 1.3.12 di [Pel1]). Esercizio 1.3.8. Sia A = {,, } e B = {, }. Dire se l applicazione f : A B, definita da f( ) =, f( ) =, f( ) =, è iniettiva, suriettiva o biunivoca. 5

Sia A un insieme qualsiasi. Chiamiamo applicazione identica su A, indicata con id A, l applicazione che associa ad ogni x A l elemento x stesso. Quindi: Applicazione identica L applicazione identica è biunivoca 1. id A : A A x id A (x) = x Definizione 1.3.9. Date due applicazioni f : A B e g : B C la loro composizione, indicata con g f : A C, è l applicazione definita da Composizione (g f)(a) := g ( f(a) ) a A. Due applicazioni f e g si dicono uguali se hanno lo stesso dominio, lo stesso codominio, e f(x) = g(x) per ogni x nel dominio. Notiamo che le applicazioni f e g dell esempio 1.3.6 non sono uguali, poichè hanno diverso dominio e diverso codominio. Anche le funzioni g e h dell esercizio 1.3.7 non sono uguali, poichè hanno lo stesso codominio ma diverso dominio. Si può verificare facilmente che, per ogni f : A B, vale l uguaglianza fra applicazioni id B f = f = f id A. (1.2) Proposizione 1.3.10 (Proprietà associativa della composizione di applicazioni). Date tre applicazioni f : A B, g : B C e h : C D, si ha sempre h (g f) = (h g) f. Dimostrazione. Le due applicazioni anno lo stesso dominio A e lo stesso codominio C, inoltre [h (g f)](a) = h ( g ( f(a) )) = [(h g) f](a) per ogni a A. Una applicazione f : A B si dice invertibile se esiste g : B A (detta inversa di f) tale che g f = id A, f g = id B. Applicazione inversa Si dimostra che f è invertibile se e solo se è biunivoca, e che l applicazione inversa se esiste è anche unica. L inversa di f si indica con f 1. Esempio 1.3.11. L inversa dell applicazione h : R + R +, h(x) = x 2, è l applicazione h 1 : R + R +, h 1 (y) = y. Esempio 1.3.12. L applicazione id A è inversa di se stessa. Dall equazione (1.2) segue infatti id A id A = id A, come caso particolare quando A = B ed f = id A. 1 Ogni x A è immagine di se stesso, questo prova la suriettività, e id A (x) = id A (y) se e solo se x = y, questo prova l iniettività. 6

Lezione II Strutture algebriche: gruppi, anelli, campi Sommario: operazione di un insieme (interna e esterna); proprietà associativa e commutativa; elemento neutro e inverso; gruppo; anello; campo. Esempi. 2.1 Operazioni di un insieme Definizione 2.1.1. Sia S un insieme. Si dice operazione interna (binaria) di S una applicazione f : S S S. Operazione interna Il risultato f((a, b)) dell operazioni tra due elementi a, b S si indica con a b. Le operazioni elementari di somma e prodotto fra numeri sono operazioni degli insiemi N, Z, Q, R nel senso della definizione 2.1.1. La sottrazione è una operazione di Z, Q, R, ma non è una operazione di N, poiché la sottrazione fra due numeri naturali non è necessariamente un numero naturale (ad esempio, 2 7 = 5 è un intero negativo). La divisione non è una operazione di N o di Z (il rapporto fra due numeri naturali/interi non è sempre un numero naturale/intero) e non è una operazione neppure di Q o R poiché non si può dividere per 0. La divisione è una operazione, ad esempio, di Q {0} ed R {0}. Esempio 2.1.2. Sia A un insieme e indichiamo con P(A) la collezione dei sottoinsiemi di A; P(A) è detto insieme delle parti di A. Allora unione, intersezione e differenza fra insiemi sono operazioni interne di P(A), dette operazioni insiemistiche (vedere def. 1.2.2). Definizione 2.1.3. Una operazione di un insieme S si dice commutativa se per ogni a, b S si ha a b = b a, e si dice associativa se per ogni a, b, c S si ha 2 a (b c) = (a b) c. Insieme delle parti Proprietà commutativa Proprietà associativa In tal caso scriveremo semplicemente a b c per indicare il risultato dell operazione. 2 Un espressione del tipo a (b c) indica che bisogna svolgere prima l operazione fra le parentesi tonde. 7

Somma e prodotto di due numeri godono della proprietà commutativa e associativa. La divisione non è commutativa né associativa. Infatti, ad esempio, 2 : 4 4 : 2 e (16 : 4) : 2 16 : (4 : 2) Come esercizio, si dica se la sottrazione è commutativa e/o associativa. Esercizio 2.1.4. Si studi l operazione di N definita da a b = a + 7b. Si dica se è commutativa e/o associativa. Definizione 2.1.5. Siano K e S due insiemi. Una operazione esterna di S ad operatori in K è una applicazione Operazione esterna K S S. L immagine della coppia (λ, a) K S si indica con λ a. Vedremo esempi di operazioni esterne nelle lezioni successive. Un insieme S dotato di operazioni (interne o esterne) 1,..., n è detto struttura algebrica (ad n operazioni). Tale struttura algebrica si indicherà con (S; 1,..., n ). Definizione 2.1.6. Sia (G, ) un insieme con una operazione interna. Un elemento e G è detto elemento neutro rispetto a se per ogni a G si ha a e = e a = a. Struttura algebrica Elemento neutro Scriveremo (G,, e) per indicare un insieme con una operazione interna ed un elemento neutro rispetto a tale operazione. Esempio 2.1.7. Il numero 0 è elemento neutro rispetto alla somma di due numeri, il numero 1 è elemento neutro rispetto al prodotto di due numeri. Proposizione 2.1.8. Sia (G, ) come sopra. Se esiste un elemento neutro rispetto a, questo è unico. Dimostrazione. Supponiamo che e ed e siano due elementi neutri di (G, ). Allora e e = e poiché e è neutro; inoltre e e = e poiché anche e è neutro. Ne segue che e = e. Definizione 2.1.9. Sia (G,, e) come sopra. Un elemento a G si dice simmetrizzabile (o invertibile) in G rispetto a se esiste un elemento b G tale che a b = b a = e. Elementi invertibili In tal caso b si dice simmetrico (o inverso) di a. 8

Esempio 2.1.10. Ogni elemento x di (Z, +, 0) è simmetrizzabile, ed il simmetrico è il suo opposto x. Ogni elemento non nullo y di (Q,, 1) è simmetrizzabile, ed il suo simmetrico è l inverso y 1. Esercizio 2.1.11. Sia S := {0, 1}. Si definisca una operazione interna + di S attraverso la seguente tavola di Cayley: + 0 1 0 0 1 1 1 1 dove la somma fra due elementi x e y si ottiene selezionando x sulla prima colonna, y sulla prima riga, ed andando a leggere nella tabella l elemento nell intersezione fra la riga di x e la colonna di y. In maniera simile si definisca una seconda operazione interna di S attraverso la tavola: 0 1 0 0 0 1 0 1 Si dica se le operazioni sono associative, commutative e se possiedono un elemento neutro. Si dica quali elementi sono simmetrizzabili (rispetto a + e ) e chi è il loro simmetrico. Si noti che in questo esempio + non è l usuale somma fra numeri interi. 3 Dato un insieme con una operazione interna, qualunque sia la natura di questo insieme, quando l operazione è denotata con il simbolo + viene detta somma o addizione (e diremo che stiamo usando una notazione additiva); se esiste l elemento neutro, esso viene indicato con 0; il simmetrico di un elemento a viene indicato con a e si dice opposto. Analogamente quando una operazione è denotata con il simbolo viene detta moltiplicazione o prodotto (e diremo che stiamo usando una notazione moltiplicativa); se esiste l elemento neutro, esso viene indicato con 1; il simmetrico di un elemento a viene indicato con a 1 o anche 1 e si dice inverso. a 2.2 Gruppi, anelli, campi Definizione 2.2.1. Sia G un insieme dotato di una operazione e di un elemento neutro e G rispetto a. La struttura (G,, e) si dice gruppo se Gruppo i) l operazione è associativa; 3 In questo esempio gli elementi di S si possono interpretare come stati di un interruttore (1 = acceso / 0 = spento) o i due valori di una proposizione (1 = vera / 0 = falsa). Le due operazioni + e vengono dette, rispettivamente, OR e AND e la loro implementazione tramite circuiti integrati è alla base del funzionamento dei computer. 9

ii) ogni elemento di G è invertibile. Se l operazione è commutativa, diremo che (G,, e) è un gruppo commutativo (o abeliano 4 ). Esempi di gruppi commutativi sono (Z, +, 0) e (Q {0},, 1). Se A è un insieme, si può considerare la collezione S A delle applicazioni biunivoche f : A A con l operazione di composizione. L equazione (1.2) (con B = A) ci dice che id A è elemento neutro di (S A, ). Per la proposizione 1.3.10 la composizione è associativa, ed ogni applicazione biunivoca è invertibile. Quindi (S A,, id A ) è un gruppo. Tale gruppo è detto gruppo delle permutazioni di A 5. Proposizione 2.2.2. Sia (G,, e) un gruppo. Allora l inverso di ogni elemento è unico. Dimostrazione. Sia a un elemento di G. Supponiamo che b, b G siano due inversi di a. Allora per definizione a b = e e b a = e. Per definizione di elemento neutro si ha b (a b) = b e = b, (b a) b = e b = b, e dall associatività del prodotto si evince che b = b (a b) = (b a) b = b, ovvero i due inversi b e b sono uguali. Definizione 2.2.3. Sia (A, +, 0 A,, 1 A ) un insieme dotato di due operazioni interne, che chiameremo somma (indicata con +) e prodotto (indicato con ), e di due elementi 0 A e 1 A. Tale insieme si dice anello (con unità) se le seguenti proprietà sono soddisfatte: Anello con unità 1. (A, +, 0 A ) è un gruppo commutativo; 2. il prodotto è associativo; 3. 1 A è elemento neutro rispetto al prodotto; 4. per ogni a, b, c A si ha: a (b + c) = a b + a c, (a + b) c = a c + b c. La proprietà 4 è detta proprietà distributiva del prodotto rispetto alla somma. Un anello si dice commutativo se il prodotto è commutativo. 4 In onore del matematico Niels Abel (1802 1829). 5 Si può dimostrare che se A ha almeno 3 elementi, il gruppo (S A,, id A ) è non commutativo. 10

Un esempio di anello commutativo è (Z, +, 0,, 1). I due elementi 0 A e 1 A dell anello A sono spesso indicati semplicemente con 0 e 1, quando questo non generi confusione; 0 A è detto zero dell anello, e 1 A è detto unità dell anello. Si può facilmente dimostrare, usando la proprietà distributiva, che a 0 A = 0 A a = 0 A per ogni a A. Con abuso di notazioni un anello (A, +, 0 A,, 1 A ) si può anche indicare semplicemente con A, omettendo di scrivere le operazioni, lo zero e l unità. Anche (Q, +, 0,, 1) è un anello commutativo. Però Q rispetto a Z ha una struttura più ricca: ogni elemento non nullo è invertibile rispetto al prodotto. Definizione 2.2.4. Un anello commutativo K si dice campo se ogni elemento a 0 è invertibile rispetto al prodotto. Campo Quindi Q è un campo. Altri esempi di campi sono l insieme R dei numeri reali e l insieme C dei numeri complessi. Vedremo un esempio di anello non commutativo più avanti nel corso (esercizio 5.2.3). 11

Lezione III Sistemi lineari: definizioni e prime proprietà Sommario: generalità su equazioni lineari e sistemi (di equazioni) lineari; matrice dei coefficienti, dei termini noti e completa; esame dei casi più semplici; determinante di una matrice 2 2. Esempi ed esercizi. 3.1 Premesse Gia nel corso degli studi preuniversitari si sono incontrate equazioni di primo grado (equazioni lineari) in una o più incognite, quali ad esempio 3x = 6, oppure 2x + y = 13, e ci si è trovati a risolvere sistemi di equazioni lineari quali { x + y = 0 x y = 5 Le equazioni lineari sono tra le più semplici equazioni (si confrontino, ad esempio, con le equazioni di secondo grado, studiate al liceo) e costituiscono uno degli oggetti di studio dell algebra lineare. Osserviamo subito che il numero delle equazioni e delle incognite sarà da considerarsi a priori arbitrario. I coefficienti delle incognite potranno assumere qualsiasi valore reale; in particolare non escluderemo equazioni con coefficienti nulli, quali ad esempio 0x = 2 o 3x + 0y = 7. Sebbene si possano considerare equazioni lineari a coefficienti (e soluzioni) in un qualsiasi campo K (vedere ad es. [Pel1]), per semplificare la trattazione ci limiteremo al caso K = R. Notazione: chiameremo n-upla di elementi di S un elemento dell insieme n-uple S n = S } S {{... S }. n Una n-upla (α 1,..., α n ) S n è quindi un insieme ordinato di n elementi di S. 12

3.2 Generalità sui sistemi lineari Una equazione in n incognite x 1,..., x n a coefficienti in R si dice lineare se è della forma: a 1 x 1 + a 2 x 2 +... + a n x n = b, (3.1) Equazioni lineari con a i R e b R. Una sua soluzione è una n-upla (α 1,..., α n ) R n tale che, sostituendo ciascun α i ad x i in (3.1), l equazione si riduce ad una identità fra numeri reali. Esempio 3.2.1. Si verifica facilmente che (4, 1, 6) R 3 è una soluzione dell equazione 3x 1 + x 2 2x 3 = 1. Un sistema di m equazioni lineari in n incognite è un insieme di equazioni a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2 Σ :..... a m1 x 1 + a m2 x 2 +... + a mn x n = b m (3.2) Sistemi lineari con a ij R e b i R. Una soluzione del sistema è una n-upla (α 1,..., α n ) R n che risolve simultaneamente tutte le m equazioni. Esercizio 3.2.2. Si verifichi che le triple (1, 0, 0) (3, 1, 0) (1, 1, 0) (5, 2, 0) sono soluzioni del sistema { x1 2x 2 + x 3 = 1 2x 1 4x 2 = 2 Si determini almeno un altra soluzione diversa dalle quattro elencate. Chiamiamo soluzione generale del sistema l insieme di tutte le sue soluzioni. La soluzione generale di un sistema Σ è quindi un sottoinsieme S Σ R n. Un sistema si dice compatibile (o risolubile) se ammette soluzioni; se invece non ha soluzioni, il sistema si dirà incompatibile (in questo caso S Σ = ). Soluzione generale Sistemi risolubili Esempio 3.2.3. Si considerino i tre sistemi { x1 + 3x 2 = 0 x 1 + 3x 2 = 1 { x1 x 2 = 0 x 1 + x 2 = 2 { x1 + x 2 = 0 2x 1 + 2x 2 = 0 Il primo è incompatibile (se ammettesse soluzione, si avrebbe l assurdo 0 = 1); il secondo ammette (1, 1) come unica soluzione; qualunque coppia (t, t) è soluzione del terzo sistema, per ogni valore del parametro reale t R. 13

Vedremo che per un sistema compatibile si possono verificare solamente due casi: i) la soluzione è unica; ii) esistono infinite soluzioni. In un tipico esercizio sui sistemi lineari si può chiedere, dato un sistema, se è compatibile e, in tal caso, determinare tutte le sue soluzioni. Vedremo in questa lezione come si risolvono i casi più semplici, e più avanti nel corso come si risolve un sistema generale. Il sistema Σ in (3.2) si dice omogeneo se b 1 = b 2 =... = b m = 0. Un sistema omogeneo di m equazioni (lineari) in n incognite ha quindi la forma a 11 x 1 + a 12 x 2 +... + a 1n x n = 0 a 21 x 1 + a 22 x 2 +... + a 2n x n = 0 Σ :..... a m1 x 1 + a m2 x 2 +... + a mn x n = 0 con a ij R. Un sistema omogeneo è sempre compatibile: infatti ammette almeno la soluzione nulla (0, 0,..., 0) R n (detta anche soluzione banale). Sistemi omogenei Soluzione banale 3.3 Matrici I coefficienti del sistema (3.2) si possono scrivere in una tabella a 11 a 12... a 1n a A := 21 a 22... a 2n... a m1 a m2... a mn detta matrice dei coefficienti del sistema Σ (indichiamo con a i,j l elemento nell intersezione della riga i con la colonna j). Più in generale, si chiama matrice (reale) di tipo m n una tabella di m righe e n colonne i cui elementi sono numeri reali. La matrice m 1 b 1 b B := 2. Matrice dei coefficienti Matrice dei termini noti b m 14

si chiama matrice colonna dei termini noti, e la matrice m (n + 1) a 11 a 12... a 1n b 1 a (A B) = 21 a 22... a 2n b 2.... a m1 a m2... a mn b m Matrice completa si dice matrice completa del sistema. Un sistema è determinato univocamente dalla sua matrice completa. Esercizio 3.3.1. Scrivere la matrice completa del sistema dell esercizio 3.2.2. Soluzione. (A B) = ( 1 2 1 1 2 4 0 2 ) Esercizio 3.3.2. Scrivere il sistema di equazioni la cui matrice completa è 1 1 2 4 (A B) = 0 1 2 3 0 0 1 2 Soluzione. x 1 + x 2 + 2x 3 = 4 x 2 2x 3 = 3 x 3 = 2 3.4 Operazioni elementari su un sistema lineare Definizione 3.4.1. Due sistemi Σ e Σ si dicono equivalenti, e si indica con Σ Σ, se hanno le stesse soluzioni. Quindi: Sistemi equivalenti Σ Σ S Σ = S Σ. Ad esempio i due sistemi seguenti sono chiaramente equivalenti: { x + y = 0 x y = 1 { x y = 1 x + y = 0 Le seguenti operazioni elementari trasformano qualsiasi sistema in uno equivalente: 1. scambiare fra di loro due equazioni; Operazioni elementari 15

2. moltiplicare una equazione per un numero reale diverso da zero; 3. sostituire un equazione con quella ottenuta sommando ad essa un multiplo (non nullo) di un altra equazione del sistema. Effettuare una qualsiasi successione di operazioni elementari su un sistema non cambia le soluzioni del sistema stesso. Moltiplicare ambo i membri di una equazione per 0 non diminuisce il numero delle soluzioni del sistema, in quanto qualunque soluzione di un sistema lineare è anche soluzione dell equazione 0 = 0. 3.5 Esame dei casi più semplici di equazioni e sistemi lineari Esaminiamo i casi più semplici di equazioni e sistemi. La loro comprensione aiuterà nello studio di sistemi più generali. Nel caso di una equazione in una incognita la situazione è riassunta nel seguente schema: (1) se a 0 la soluzione esite, è unica ed è data da a 1 b. ax = b = (2) se a = 0 allora (2 ) se b 0 il sistema è incompatibile (per nessun α R si ha l identità 0α = b se b 0) (2 ) se b = 0 l equazione è 0x = 0 ed ammette come soluzione qualsiasi numero reale. La soluzione generale (l insieme di tutte le soluzioni) è quindi R. Il caso di una equazione in n incognite (con n 2) è simile. Sia a 1 x 1 + a 2 x 2 +... + a n x n = b. Se tutti i coefficienti sono nulli l equazione diventa 0 = b: se anche b = 0, qualunque n-upla (α 1,..., α n ) R n è soluzione; se b 0, allora l equazione è incompatibile. Se almeno un coefficiente è non nullo, sia esso ad esempio a 1, possiamo assegnare valori arbitrari (α 2,..., α n ) R n 1 alle incognite x 2,..., x n e ridurre l equazione ad una ad una sola incognita a 1 x 1 = b (a 2 α 2 +... + a n α n ), la quale ammette un unica soluzione data da α 1 = b (a 2α 2 +... + a n α n ) a 1. 16

Le soluzioni sono quindi in corrispondenza biunivoca con l insieme R n 1. Riassumendo: Sia a 1 x 1 + a 2 x 2 +... + a n x n = b. Allora: (1) se (a 1,..., a n ) (0,..., 0) le soluzioni in corrispondenza biunivoca con i punti dell insieme R n 1. (2 ) se b 0 il sistema è incompatibile. (2) se (a 1,..., a n ) = (0,..., 0) allora (2 ) se b = 0 ogni n-upla (α 1,..., α n ) R n è una soluzione. Concludiamo questo studio preliminare considerando un sistema di 2 equazioni in 2 incognite: { a11 x 1 + a 12 x 2 = b 1 Σ : a 21 x 1 + a 22 x 2 = b 2 Effettuiamo le seguenti operazioni sul sistema: 1. moltiplichiamo la prima equazione per a 22, la seconda per a 12 e sommiamo membro a membro; 2. moltiplichiamo la prima equazione per a 21, la seconda per a 11 e sommiamo membro a membro. Il risultato di queste operazioni è il sistema: { (a11 a Σ 22 a 12 a 21 )x 1 = a 22 b 1 a 12 b 2 : (a 11 a 22 a 12 a 21 )x 2 = a 11 b 2 a 21 b 1 I sistemi Σ e Σ non sono necessariamente equivalenti, poiché non abbiamo fatto ancora ipotesi sui coefficienti, e nelle operazioni ai punti 1 e 2 potremmo aver moltiplicato per zero. Quello che possiamo dire per certo è che tutte le soluzioni di Σ sono anche soluzioni di Σ, ovvero S Σ S Σ. Ciascuna equazione di Σ è una equazione in una incognita: per ciascuna di esse vale quindi la discussione nel primo schema di questa sezione. In aggiunta, le incognite x 1 e x 2 in queste due equazioni moltiplicano lo stesso coefficiente, a 11 a 22 a 12 a 21. Per le due equazioni si verificheranno quindi simultaneamente i casi (1) o (2) dello schema citato. Studiamo ora il primo caso, mentre daremo il risultato nel secondo caso senza dimostrazione. 17

Se a 11 a 22 a 12 a 21 0 la soluzione della prima equazione in Σ è unica e data da α 1 = a 22b 1 a 12 b 2 a 11 a 22 a 12 a 21, e la soluzione della seconda equazione è unica e data da α 2 = a 11b 2 a 21 b 1 a 11 a 22 a 12 a 21. Il sistema Σ ammette quindi come unica soluzione la coppia (α 1, α 2 ) definita qui sopra. Siccome S Σ S Σ, il sistema Σ o non ammette soluzioni, oppure ammette come unica soluzione la stessa di Σ. Si verifica per sostituzione che vale il secondo caso: il sistema Σ da cui siamo partiti ammette come unica soluzione la coppia (α 1, α 2 ) definita qui sopra. Un analisi di tutti i casi possibili è riassunta nel seguente schema. Si consideri il sistema { a11 x 1 + a 12 x 2 = b 1 a 21 x 1 + a 22 x 2 = b 2. Allora: (1) se a 11 a 22 a 12 a 21 0: la soluzione esiste, è unica ed è data dalla coppia: ( ) a22 b 1 a 12 b 2 a 11 b 2 a 21 b 1 (α 1, α 2 ) =, a 11 a 22 a 12 a 21 a 11 a 22 a 12 a 21 (2) se a 11 a 22 a 12 a 21 = 0 allora (2 ) se (a 22 b 1 a 12 b 2, a 11 b 2 a 21 b 1 ) (0, 0) il sistema è incompatibile. (2 ) se a 22 b 1 a 12 b 2 = a 11 b 2 a 21 b 1 = 0 il sistema è equivalente al sistema di una sola equazione in due incognite: a 11 x 1 + a 12 x 2 = b 1 e la sua soluzione è ricondotta a quella di un sistema di una sola equazione. Data una matrice 2 2: ( ) a b A = c d l espressione a b c d = ad bc è detta determinante della matrice A. Il determinante della matrice A si può anche indicare con la notazione A oppure con det A. Determinante 18

Esempio 3.5.1. Si verifica facilmente che 1 7 2 5 = 5 ( 14) = 19, 0 4 1 3 = 4, 2 3 1 3 = 6 3 = 3. Utilizzando la definizione di determinante, lo schema relativo alla risoluzione di sistemi di due equazioni in due incognite si può scrivere in maniera compatta, notando ad esempio che il termine a 11 a 22 a 12 a 21 è il determinante della matrice dei coefficienti. Nel linguaggio delle matrici, abbiamo: Si consideri il sistema lineare la cui matrice completa è ( ) a 11 a 12 b 1 ( A B ) = a 21 a 22 b 2 Allora: (1) se A 0 esiste ed è unica la soluzione (α 1, α 2 ) R 2, ed è data da: b 1 a 12 a 11 b 1 b 2 a 22 a 21 b 2 α 1 = α 2 = A A (2) se A = 0 allora: (2 b 1 a 12 ) se b 2 a 22 0 o a 11 b 1 0 il sistema è incompatibile. a 21 b 2 (2 b 1 a 12 ) se b 2 a 22 = a 11 b 1 = 0 il sistema è equivalente al sistema di una sola a 21 b 2 equazione in due incognite: a 11 x 1 + a 12 x 2 = b 1. 3.6 Esercizi Esercizio 3.6.1. Si consideri l equazione in una incognita 1 x = 3x + x. Si scriva nella forma normale ax = b. Soluzione. Raccogliendo i coefficienti si ottiene 5x = 1. Esercizio 3.6.2. Si scriva in forma normale l equazione x + 2x = 3x. Soluzione. La forma normale è 0x = 0. 19

Esercizio 3.6.3. Si consideri la matrice completa: 1 3 7 5 5 6 4 0 3 2 (A B) = 0 0 0 0 2 1 0 1 2 11 Dire se il sistema associato è compatibile. Soluzione. Il sistema è incompatibile, poiché la terza equazione è 0 = 2. Esercizio 3.6.4. Scrivere la soluzione generale del sistema 3x 1 + x 2 + 2x 3 = 7 x 2 x 3 = 1 x 3 = 5 Soluzione. Sia (α 1, α 2, α 3 ) R 3 una soluzione. Dalla terza equazione si vede che deve essere α 3 = 5. Sostituendo questo valore (al posto di x 3 ) nelle prime due equazioni si ottiene { 3x 1 + x 2 + 10 = 7 x 2 5 = 1 ovvero, in forma normale, { 3x 1 + x 2 = 3 x 2 = 6 Ora dalla seconda equazione si vede che deve essere α 2 = 6. Sostituendo questo valore nella prima equazione si ottiene 3x 1 + 6 = 3 ovvero in forma normale 3x 1 = 9, da cui si ricava la soluzione α 1 = 9 3 = 3. Il sistema ammette quindi un unica soluzione, data dalla terna ( 3, 6, 5). La tecnica di risoluzione del precedente esercizio è detta per sostituzione, e vedremo più avanti nel corso come si applica ad un sistema generale di m equazioni in n incognite. 20

Lezione IV Spazi vettoriali e sottospazi Sommario: spazi vettoriali: definizione e proprietà elementari; spazi delle n-uple e delle matrici (reali); sottospazi: intersezione, somma e somma diretta. Esempi. 4.1 Introduzione Abbiamo visto nella lezione precedente che un sistema di equazioni lineari in n incognite è determinato dalla sua matrice completa, e che una soluzione è una n-upla di numeri reali. Per proseguire con lo studio di sistemi di equazioni lineari, è fondamentale approfondire le proprietà di n-uple e matrici. Ricordiamo che R n = { X = (x 1, x 2,..., x n ) : x 1, x 2,..., x n R }. L elemento x i è detto componente i-esima di X (x 1 è la prima componente, x 2 la seconda, etc.). In questo contesto, un numero k R è detto uno scalare. Le n-uple possono essere sommate fra di loro e moltiplicate per uno scalare. Sia Y = (y 1, y 2,..., y n ) R n. Definiamo somma e moltiplicazione per uno scalare come segue: Componente i-esima X + Y := (x 1 + y 1, x 2 + y 2,..., x n + y n ), kx := (kx 1, kx 2,..., kx n ). Operazioni di R n Sia l n-upla nulla. Si può verificare che 0 R n := (0, 0,..., 0) n-upla nulla Proposizione 4.1.1. Valgono le seguenti proprietà: i) (R n, +, 0 R n) è un gruppo commutativo, con elemento neutro 0 R n e opposto X := ( x 1, x 2,..., x n ) ii) k, k R e X, Y R n si ha 1. (k + k )X = kx + k X 2. k(x + Y ) = kx + ky 3. k(k X) = (kk )X 4. 1X = X 21

Dimostrazione. La dimostrazione è una semplice verifica. Allora: Siano X, Y, Z tre n-uple. (X + Y ) + Z = (x 1 + y 1, x 2 + y 2,..., x n + y n ) + (z 1, z 2,..., z n ) = ( (x 1 + y 1 ) + z 1, (x 2 + y 2 ) + z 2,..., (x n + y n ) + z n ) = ( x 1 + (y 1 + z 1 ), x 2 + (y 2 + z 2 ),..., x n + (y n + z n ) ) = (x 1, x 2,..., x n ) + (y 1 + z 1, y 2 + z 2,..., y n + z n ) = X + (Y + Z) dove la terza uguaglianza segue dall associatività della somma di numeri reali. Abbiamo dimostrato che + è una operazione associativa di R n. commutativa: X + Y = (x 1 + y 1, x 2 + y 2,..., x n + y n ) = (y 1 + x 1, y 2 + x 2,..., y n + x n ) = Y + X Si verifica facilmente che è poiché è commutativa la somma di numeri reali. Chiaramente 0 R n è elemento neutro: X + 0 R n = (x 1 + 0, x 2 + 0,..., x n + 0) = (x 1, x 2,..., x n ) = X, e per la proprietà commutativa si ha anche 0 R n +X = X +0 R n = X. Per finire notiamo che X + ( X) = (x 1 x 1, x 2 x 2,..., x n x n ) = (0, 0,..., 0) = 0 R n e per la proprietà commutativa ( X) + X = X + ( X) = 0 R n. Quindi ogni X è simmetrizzabile e il simmetrico (l opposto in notazione additiva) è proprio la n-upla X. Questo completa la prova del punto i). Per ogni k, k R si ha (k + k )X = ( (k + k )x 1, (k + k )x 2,..., (k + k )x n ) = (kx 1 + k x 1, kx 2 + k x 2,..., kx n + k x n ) = (kx 1, kx 2,..., kx n ) + (k x 1, k x 2,..., k x n ) = kx + k X, k(x + Y ) = ( k(x 1 + y 1 ), k(x 2 + y 2 ),..., k(x n + y n ) ) = (kx 1 + ky 1, kx 2 + ky 2,..., kx n + ky n ) = (kx 1, kx 2,..., kx n ) + (ky 1, ky 2,..., ky n ) = kx + ky, k(k X) = ( k(k x 1 ), k(k x 2 ),..., k(k x n ) ) 22

= ( ) (kk )x 1, (kk )x 2,..., (kk )x n = (kk )X, 1X = (1 x 1, 1 x 2,..., 1 x n ) = (x 1, x 2,..., x n ) = X. Questo completa la prova del punto ii). Un insieme con due operazioni che soddisfano proprietà analoghe a quelle della proposizione 4.1.1 si dice spazio vettoriale (reale). La definizione di spazio vettoriale si può dare sostituendo ad R un qualsiasi campo K. Per semplicità di trattazione ci limitiamo al caso K = R, sebbene non ci sia alcuna sostanziale differenza con il caso generale. Definizione 4.1.2. Un insieme non vuoto V è detto spazio vettoriale (reale) se in V sono definite una operazione interna di somma Spazio vettoriale s : V V V, denotata con s(v, v ) = v + v, ed una operazione esterna p di prodotto per uno scalare : p : R V V, denotate con la semplice giustapposizione p(k, v) = kv, soddisfacenti le proprietà seguenti: i) (V, +, 0 V ) è un gruppo commutativo, il cui elemento neutro indichiamo con 0 V ; ii) k, k R e v, v V si ha 1. (k + k )v = kv + k v 2. k(v + v ) = kv + kv 3. k(k v) = (kk )v 4. 1v = v L elemento 0 V sarà indicato semplicemente con 0, quando questo non generi confusione. Le proprietà 1 e 2 si dicono proprietà distributive (del prodotto rispetto alla somma). Gli elementi di V si dicono vettori e saranno indicati in grassetto. L elemento 0 si dirà vettore nullo, e l opposto di un vettore v sarà indicato con v. Scriveremo Vettori v v = v + ( v ) Differenza di vettori per indicare la somma di un vettore v con l opposto del vettore v. 23

Osservazione 4.1.3. Segue dalla proposizione 4.1.1 che R n è uno spazio vettoriale. Notiamo che un elemento (x 1, x 2 ) R 2 si può identificare con un punto P del piano cartesiano, di cui x 1 e x 2 sono le coordinate (in particolare 0 R 2 = O è l origine del sistema di riferimento cartesiano); la stessa coppia (x 1, x 2 ) si può anche identificare con il segmento orientato #» OP (vettore geometrico applicato nell origine), e la somma per componenti (x 1, x 2 ) + (y 1, y 2 ) = (x 1 + y 1, x 2 + y 2 ) corrisponde alla ben nota regola del parallelogramma, studiata alle scuole superiori (e ripetuta nel corso di Fisica Generale 1). Un discorso simile vale per R 3, i cui elementi si possono identificare con punti dello spazio tridimensionale. Esempio 4.1.4. Sia S un insieme. Le funzioni f, g : S R con operazioni (f + g)(x) = f(x) + g(x), (kf)(x) = k f(x), Vettori geometrici Spazi di funzioni formano uno spazio vettoriale, indicato con Fun(S, R). esercizio. Si lascia la verifica come Esempio 4.1.5. Indichiamo con R m,n l insieme delle matrici m n. Siano A = (a ij ) e B = (b ij ) due matrici di elementi a ij e, rispettivamente, b ij (con i = 1,..., m e j = 1,..., n). R m,n è uno spazio vettoriale con operazioni Matrici m n A + B := (a ij + b ij ), ka := (ka ij ). L elemento neutro rispetto alla somma è la matrice 0 0... 0 0 0... 0... 0 0... 0 con tutti gli elementi nulli. L opposto di A è la matrice A := ( a ij ) con tutti gli elementi cambiati di segno. La verifica che si tratta di uno spazio vettoriale procede in maniera completamente analoga a quella per R n (con l unica differenza che gli elementi invece di essere disposti in una riga sono disposti per righe e per colonne), ed è lasciata agli studenti come esercizio. 4.2 Proprietà elementari Proposizione 4.2.1 (Legge di semplificazione della somma). v + v = v + v v = v. Legge di semplificazione della somma 24

Dimostrazione. L implicazione è ovvia, proviamo l implicazione. Per definizione di spazio vettoriale ogni elemento possiede un opposto. Aggiungendo v ambo i membri dell uguaglianza di sinistra, dall associatività del prodotto e dalla definizione di opposto segue che 0 + v = 0 + v, ovvero v = v (per definizione di elemento neutro). Proposizione 4.2.2 (Legge di annullamento del prodotto). kv = 0 k = 0 o v = 0. Legge di annullamento del prodotto Dimostrazione. Dobbiamo dimostrare le tre seguenti affermazioni: 1. 0v = 0 v V, 2. k0 = 0 k R, 3. se k 0 e v 0 allora kv 0. Dalla proprietà distributiva segue che: 0v = (0 + 0)v = 0v + 0v, che si può scrivere nella forma 0v + 0 = 0v + 0v (0 è elemento neutro). Dalla legge di semplificazione della somma segue che 0 = 0v. Questo prova il punto 1. Analogamente da k0 = k(0 + 0) = k0 + k0 segue il punto 2. Per ogni k 0, abbiamo v = 1v = (k 1 k)v = k 1 (kv). Se kv = 0, dalla precedente uguaglianza si ricava v = k 1 (kv) = k 1 0 = 0. Questo prova il punto 3 (se k e v sono diversi da zero, kv non si può annullare). Usando l unicità dell opposto, si può facilmente dimostrare che per ogni k, v si ha: ( k)v = k( v) = (kv). Proposizione 4.2.3. Se V e V sono spazi vettoriali, allora V V è uno spazio vettoriale con operazioni (v, v ) + (w, w ) := (v + w, v + w ), k(v, v ) := (kv, kv ). L elemento neutro è (0 V, 0 V ) e l opposto di (v, v ) è (v, v ) = ( v, v ). Prodotto cartesiano di spazi vettoriali Dimostrazione. La dimostrazione è analoga a quella per R n. Ad esempio, dalla commutatività della somma di V e V segue la commutatività della somma di V V : (v, v ) + (w, w ) = (v + w, v + w ) = (w + v, w + v ) = (w, w ) + (v, v ). Dall associatività della somma di V e V segue l associatività della somma di V V, e così per tutte le altre proprietà che definiscono uno spazio vettoriale. Osserviamo che come spazio vettoriale R n è il prodotto cartesiano di n copie di R. 25

4.3 Sottospazi Definizione 4.3.1. Sia (G, ) un insieme con una operazione. Un sottoinsieme non vuoto G G si dice chiuso rispetto all operazione se Chiusura rispetto a un operazione a b G a, b G. Ad esempio Z R è chiuso rispetto all operazione di somma, ma Z {0} Q {0} non è chiuso rispetto all operazione di divisione. Definizione 4.3.2. Sia V uno spazio vettoriale, con operazioni s e p, e W V un sottoinsieme non vuoto. Diremo che W è un sottospazio vettoriale di V se, rispetto alle stesse operazioni p, s di V, è uno spazio vettoriale. Sottospazi vettoriali In queste note, un sottospazio vettoriale verrà chiamato semplicemente sottospazio. Esistono due criteri elementari, descritti nei punti b) e c) della proposizione seguente, per stabilire quando un sottoinsieme è un sottospazio. Proposizione 4.3.3. Sia V uno spazio vettoriale e W V un sottoinsieme non vuoto. Le seguenti condizioni sono equivalenti: a) W è un sottospazio di V ; b) k R e w, w W si ha b1) kw W, b2) w + w W ; c) k, k R e w, w W si ha kw + k w W. La condizione ii) ci dice che W è chiuso rispetto alle operazioni di V. Dimostrazione. a) b) per definizione di spazio vettoriale. Proviamo che b) a). Assumiamo per ipotesi che a) sia soddisfatta. La proprietà associativa e commutativa valgono in V, quindi valgono anche in W. Similmente, le proprietà ii) della definizione 4.1.2 valgono in V, quindi valgono anche in W. Per provare che W è uno spazio vettoriale rimane da dimostrare che contiene il vettore nullo e l inverso di ogni elemento. Per ipotesi kw W per ogni k R e w W : prendendo k = 0 si prova che 0 = 0w W ; prendendo k = 1 si prova che w = ( 1)w W. Quindi a) b). D altronde dalla c) prendendo k = 0 si ottiene b1) e prendendo k = k = 1 si ottiene b2). Quindi c) b). L implicazione opposta è ovvia: dalla b1) kw W e k w W per ogni k, k, w, w ; dalla b2) v+v W per ogni v, v W, e in particolare prendendo v = kw e v = k w si giunge alla tesi kw + k w W. 26

Se V è uno spazio vettoriale, due sottospazi banali sono dati da {0} e da V stesso. Che V sia un sottospazio è ovvio. Che lo sia {0} è una semplice verifica: per ogni k R e w, w {0} (quindi w = w = 0) si ha kw = 0 (legge di annullamento del prodotto) e w + w = 0 (per la proprietà dell elemento neutro). Quindi il criterio b) della proposizione 4.3.3 {0} è sottospazio di V. Sottospazi banali Esempio 4.3.4. Molti esempi interessanti si incontrano nei corsi di analisi. Sia Sottospazi di funzioni Fun(R, R) lo spazio vettoriale delle funzioni R R (cf. esempio 4.1.4 nel caso S = R). Numerose classi di funzioni sono chiuse rispetto alla somma e moltiplicazione per uno scalare, e formano quindi sottospazi di Fun(R, R). Fra queste ricordiamo: le funzioni continue, derivabili, le funzioni di classe C n (con n 0), le funzioni di classe C. Esempio 4.3.5. Un esempio importante è dato dalle funzioni polinomiali (da non confondere con i polinomi). Una funzione p : R R si dice polinomiale (di ordine n) se è della forma Funzioni polinomiali p(x) = a 0 + a 1 x + a 2 x 2 +... + a n x n con a 0, a 1,..., a n R. Si verifica facilmente (raccogliendo i coefficienti) che rispetto alle operazioni definite nell esempio 4.1.4 si ha (p + p )(x) = (a 0 + a 0) + (a 1 + a 1)x + (a 2 + a 2)x 2 +... (kp)(x) = ka 0 + (ka 1 )x + (ka 2 )x 2 +... per ogni p(x) = a 0 + a 1 x + a 2 x 2 +... + a n x n e p (x) = a 0 + a 1x + a 2x 2 +... + a mx m. Poiché il risultato delle due operazioni è ancora una funzione polinomiale, per il criterio b) della proposizione 4.3.3 tali funzioni formano un sottospazio di Fun(R, R). Un esempio importante di sottospazio si incontra nello studio dei sistemi lineari. Proposizione 4.3.6. Sia S Σ l insieme delle soluzioni di un sistema Σ di m equazioni lineari in n incognite: Soluzioni di un sistema lineare a i1 x 1 + a i2 x 2 +... + a in x n = b i i = 1,..., m. (4.1) S Σ R n è un sottospazio se e solo se il sistema è omogeneo. Dimostrazione. Un sottospazio contiene sempre il vettore nullo. L n-upla nulla è soluzione di Σ solo se b i = 0 i = 1,..., m, ovvero Σ è omogeneo. Questo prova che la condizione è necessaria. Assumiamo ora che Σ sia omogeneo, e mostriamo che per S Σ vale il criterio b) della proposizione 4.3.3. Sia k R, e siano Y = (y 1,..., y n ) e Z = (z 1,..., z n ) due soluzioni 27

del sistema. Dimostriamo che ky e Y + Z sono ancora soluzioni. Sostituendo ky j ad x j nell equazione (4.1) (per ogni j = 1,..., m) si trova a i1 (ky 1 ) + a i2 (ky 2 ) +... + a in (ky n ) = = ka i1 y 1 + ka i2 y 2 +... + ka in y n = = k(a i1 y 1 + a i2 y 2 +... + a in y n ) = 0 per ogni i = 1,..., m. L ultima uguaglianza segue dal fatto che per ipotesi Y è soluzione di Σ. Questo prova che ky è ancora soluzione di Σ. In maniera analoga sostituendo y j + z j ad x j nell equazione (4.1) si trova a i1 (y 1 + z 1 ) + a i2 (y 2 + z 2 ) +... + a in (y n + z n ) = = (a i1 y 1 + a i2 y 2 +... + a in y n ) + (a i1 z 1 + a i2 z 2 +... + a in z n ) = 0 + 0 = 0 dove si è usata l ipotesi che Y e Z risolvono Σ. soluzione di Σ. Questo prova che anche Y + Z è 4.4 Operazioni su sottospazi Le proprietà che seguono sono elementari e si dimostrano, come al solito, usando uno dei criteri della proposizione 4.3.3. Per la dimostrazione si veda il capitolo III di [BruLan] (prop. 2.3 e 2.5). Siano W 1 e W 2 sottospazi di V. Allora 1. W 1 W 2 è un sottospazio di V. Intersezione e somma di sottospazi 2. W 1 + W 2 := { } v = w 1 + w 2 : w 1 W 1, w 2 W 2 è un sottospazio di V. W 1 + W 2 è detto somma di W 1 e W 2. L unione W 1 W 2 in generale non è uno spazio vettoriale. Il più piccolo sottospazio di V che contiene W 1 W 2 è W 1 + W 2. Osserviamo che l insieme S Σ delle soluzioni di un sistema lineare omogeneo in n incognite è l intersezione dei sottospazi di R n dati dalle soluzioni di ciascuna equazione del sistema. Definizione 4.4.1. La somma W 1 + W 2 si dice diretta, e si indica con W 1 W 2, se ogni v W 1 + W 2 può essere decomposto in un solo modo come somma v = w 1 + w 2 di w 1 W 1 e w 2 W 2. Somma diretta Proposizione 4.4.2. W 1 + W 2 è una somma diretta se e solo se W 1 W 2 = {0}. Dimostrazione. Sia v = w 1 + w 2 = w 1 + w 2, con w 1, w 1 W 1 e w 2, w 2 W 2. Allora u := w 1 w 1 = w 2 w 2. 28

Poiché per definizione di sottospazio w 1 w 1 W 1 e w 2 w 2 W 2, il vettore u è elemento sia di W 1 che di W 2, ovvero u W 1 W 2. Se W 1 W 2 = {0}, abbiamo u = w 1 w 1 = w 2 w 2 = 0, ovvero w 1 = w 1, w 2 = w 2 e la decomposizione di v è unica. Quindi la somma è diretta. Viceversa sia W 1 W 2 {0} e sia u un elemento non nullo di W 1 W 2. Allora 0 = u u = 0 + 0 sono due decomposizioni differenti dello stesso elemento 0 V e la somma non è diretta. Esempio 4.4.3. Sia U = {(x, y) R 2 : x = 0} l asse verticale del piano cartesiano e W = {(x, y) R 2 : y = 0} l asse orizzontale. Allora U W = {(0, 0)} e la somma U +W è diretta. Ogni vettore di R 2 si può scrivere come somma (x, y) = (x, 0)+(0, y), dove (x, 0) W e (0, y) U; quindi U + W = R 2. Notiamo che U W non è uno spazio vettoriale, in quanto (1, 0) W U W, (0, 1) U U W, ma (1, 0) + (0, 1) = (1, 1) / U W. 29

Lezione V Esercitazione su vettori e matrici Sommario: esercizi su spazi vettoriali e calcolo di determinanti; determinante matrici 3 3 (regola di Sarrus); sviluppo di Laplace del determinante di una matrice n n. 5.1 Esercizi su spazi e sottospazi Esercizio 5.1.1 (2.8.1 di [Pel1]). Dire quali dei seguenti insiemi sono sottospazi di R 2 : 1. E 1 = {(x, y) R 2 x + y = 0} 2. E 2 = {(x, y) R 2 y = 4} 3. E 3 = {(x, y) R 2 y = x 2 } 4. E 4 = {(x, y) R 2 x y = 0} Soluzione. E 1 ed E 4 sono insiemi di soluzioni di sistemi lineari omogenei: per la Prop. 4.3.6 sono quindi un sottospazio di R 2. E 2 sono le soluzioni di un sistema lineare non omogeneo: quindi per la Prop. 4.3.6 E 2 non è sottospazio di R 2. Infine, presi due vettori (1, 1) e ( 1, 1) di E 3, la loro somma (0, 2) non è in E 3 : dal criterio b2) della Prop. 4.3.3 segue che E 3 non è sottospazio di R 2. Si può verificare facilmente che un insieme E = {(x, y) R 2 : y = f(x)} è un sottospazio di R 2 se e solo se: E = {0, 0}, E = R 2 oppure E è una retta passante per l origine. Il grafico degli insiemi dell esercizio 5.1.1 è in figura 1. Dal grafico si vede che E 2 non è un sottospazio perché non passa per l origine ((0, 0) / E 2 ), E 3 non è un sottospazio perché non è una retta (è una parabola). Figura 1: E 1 è in verde, E 2 in arancione, E 3 in rosso, E 4 in blu. 30

Esistono numerosi siti internet che permettono di disegnare il grafico di una funzione. Ad esempio: http://fooplot.com e http://graph-plotter.cours-de-math.eu. Esercizio 5.1.2 (2.8.3 di [Pel1]). Sia { } f : R R V := x a cos x + b sin x : a, b R. Si verifichi che V è un sottospazio di Fun(R, R). Soluzione. Dati due qualsiasi elementi f(x) = a cos x+b sin x e f (x) = a cos x+b sin x di V, e due scalari k, k R raccoglientdo i coefficienti troviamo (kf + k f )(x) = kf(x) + k f (x) = k(a cos x + b sin x) + k (a cos x + b sin x) = (ka + k a ) cos x + (kb + k a ) sin x. Essendo una combinazione di cos x e sin x, kf + k f Prop. 4.3.3 segue che V è un sottospazio di Fun(R, R). V e dal criterio c) della Esercizio 5.1.3 (2.8.4 di [Pel1]). Dire se le funzioni biunivoche R R formano un sottospazio di Fun(R, R). Soluzione. Condizione necessaria affinché un sottoinsieme di uno spazio vettoriale sia un sottospazio è che contenga il vettore nullo. Nel caso di Fun(R, R), il vettore nullo è la funzione identicamente nulla, ovvero la funzione f : R R, f(x) = 0 x. Tale funzione non è iniettiva né suriettiva, quindi non è biunivoca. Pertanto le funzioni biunivoche non formano un sottospazio di Fun(R, R). Funzione identicamente nulla Esercizio 5.1.4 (2.8.6 di [Pel1]). In R 3 si considerino i sottospazi vettoriali U = {(x, y, z) R 3 : x + y = 4z}, W = {(a, 2b, 0) R 3 : a, b R}. Si verifichi che U W non è un sottospazio di R 3. Soluzione. Usiamo il criterio b2) della Prop. 4.3.3. Dobbiamo trovare due vettori di U W la cui somma non è contenuta in U W. Si prenda ad esempio (2, 2, 1) U U W e (1, 0, 0) W U W. La loro somma (3, 2, 1) non è elemento di W (la terza componente non è zero) né di U, in quanto x + y = 3 + 2 = 5 4z = 4. 31

5.2 Esercizi su matrici 2 2 Il determinante di una matrice 2 2 è stato definito a pagina 18. Una regola mnemonica per ricordare la definizione è illustrata nella figura qui sotto: Il determinante della matrice si ottiene prendendo, con il segno +, il prodotto degli elementi sulla diagonale principale (in rosso) e sottraendo ad esso il prodotto degli elementi sulla diagonale opposta (in blu). Esercizio 5.2.1. Calcolare il determinante delle matrici: ( ) ( ) 2 1 5 5 A =, B =. 4 7 2 4 Soluzione. A = 2 7 1 4 = 10, B = 5 4 5 2 = 10. Notiamo che matrici differenti possono avere lo stesso determinante. Esercizio 5.2.2 (simile a 3.6.4 di [Pel1]). Dire se per ogni A, B R 2,2 vale al proprietà A + B = A + B (linearità del determinante). Soluzione. Evidentemente tale proprietà non è valida. Un controesempio elementare è dato da ( ) ( ) 1 0 1 0 A =, B =. 0 1 0 1 In questo caso A + B = 0, quindi A + B = 0. Ma A = B = 1 e A + B = 2. Esercizio 5.2.3 (simile a 1.8.49 di [Pel1]). Nell insieme delle matrici 2 2 è definita una operazione interna di prodotto come segue: ( )( ) ( ) a b a b aa + bc ab + bd =. c d c d ca + dc cb + dd Prodotto di matrici 2 2 Provare che tale operazione: possiede un elemento neutro, che indicheremo con I 2 ; non è commutativa; è associativa. Dire se la struttura algebrica (R 2,2,, I 2 ) è un gruppo. Dire se (R 2,2, +, 0 R 2,2,, I 2 ) è un anello; dire se esiste l inversa di ogni matrice non nulla. Soluzione. L elemento neutro esiste ed è dato dalla matrice ( ) 1 0 I 2 =, 0 1 Matrice identica 32

detta matrice identica di ordine 2, come si può verificare con una semplice sostituzione. Anche l associatività del prodotto è una semplice verifica. Il prodotto non è commutativo, infatti prese ad esempio ( ) ( ) 0 1 0 0 A =, B =, 0 0 1 0 si ha ( ) ( ) 1 0 0 0 AB = BA =. 0 0 0 1 (R 2,2,, I 2 ) non è un gruppo, in quanto la matrice nulla non è invertibile. Infatti C 0 R 2,2 = 0 R 2,2 per ogni C R 2,2 : quindi non esiste matrice C tale che C 0 R 2,2 = I 2. (R 2,2, +, 0 R 2,2,, I 2 ) è un anello: guardando la definizione 2.2.3, vediamo che la proprietà 1 è soddisfatta poiché R 2,2 è uno spazio vettoriale; la 2 è soddisfatta; esiste un elemento neutro rispetto al prodotto, che qui abbiamo indicato con I 2 ; rimangono le due proprietà distributive al punto 4, che si possono facilmente verificare usando la definizione di prodotto fra matrici. Per finire, esistono matrici diverse da zero che non sono invertibili. Sia ad esempio A la matrice ( ) 1 0 A = (5.1) 0 0 e sia B una matrice generica: ( ) a b B =. c d Evidentemente ( ) ( ) a 0 1 0 B A = I 2 = c 0 0 1 qualunque siano i valori di a, b, c, d. Non esiste dunque nessuna matrice B che sia inversa della matrice A definita in (5.1). Le matrici 2 2 sono il primo esempio di anello non commutativo incontrato in questo corso. Notiamo che la matrice A in (5.1) ha determinante nullo; vedremo che questa è una proprietà generale delle matrici n n: una matrice n n è invertibile se e solo se il suo determinante è diverso da zero. 5.3 Determinante di una matrice 3 3 In questa sezione vedremo come si calcola il determinante di una matrice 3 3, e nella successiva di una matrice n n per n arbitrario. Non daremo la definizione formale di determinante (chi fosse interessato la può trovare nella sezione 3.1 di [Pel1]), ma dei metodi concreti per il suo calcolo. 33

Sia a 11 a 12 a 13 A = a 21 a 22 a 23. a 31 a 32 a 33 Un metodo mnemonico per il calcolo di A è la regola di Sarrus 6, che consiste nello scrivere la matrice 3 5 ottenuta da A ripetendo le prime due colonne, come illustrato nella seguente figura Regola di Sarrus Quindi si prendono i prodotti degli elementi nelle diagonali rosse con segno +, i prodotti degli elementi nelle diagonali blu con segno, e si fa la somma. Una regola mnemonica alternativa consiste nel disegnare le due diagonali e i quattro triangoli nella figura seguente: Quindi si prendono i prodotti degli elementi nelle figure rosse con segno +, i prodotti degli elementi nelle figure blu con segno, e si fa la somma. Esercizio 5.3.1 (3.6.2 punti 1-4, di [Pel1]). Si calcoli il determinante delle seguenti matrici: ( 1 3 A 1 = 2 1 Soluzione. Si ha ), A 2 = 1 2 1 1 2 3 3 0 0 3 1 4, A 3 = 3 1 3, A 4 = 0 2 0. 3 5 1 1 2 3 0 0 7 A 1 = 1 1 3 2 = 5 A 2 = +( 1) + ( 24) + 15 ( 3) 20 ( 6) = 21 A 3 = 3 + 6 + 18 3 6 18 = 0 ed evidentemente A 4 = 3 2 ( 7) = 42. 6 Pierre Frédéric Sarrus (1798 1861). 34

Esercizio 5.3.2 (3.6.5 di [Pel1]). Dire per quali valori di a, b, c R è nullo il determinante della matrice 1 a a 2 A = 1 b b 2. 1 c c 2 Soluzione. Si ha A = bc 2 + ab 2 + a 2 c a 2 b b 2 c ac 2 da cui sommando e sottraendo abc si ottiene = bc 2 + ab 2 + a 2 c + abc abc a 2 b b 2 c ac 2 = (a b)(b c)(c a). Il determinante è zero se almeno due dei tre parametri sono uguali, ovvero se (e solo se) la matrice ha almeno due righe uguali. 5.4 Determinante di una matrice n n Ricordiamo che indichiamo con R m,n l insieme delle matrici m n. Una matrice che ha lo stesso numero di righe e di colonne si dice quadrata; useremo il simbolo M n (R) per indicare l insieme delle matrice quadrate n n. Sia A = (a ij ) M n (R) e indichiamo con A hk M n 1 (R) la matrice che si ottiene da A eliminando la riga h e la colonna k. La matrice A hk si dice minore complementare dell elemento a hk, e lo scalare Γ hk = ( 1) h+k A hk è detto complemento algebrico di a hk. Il determinante di A si può calcolare scegliendo una riga i a piacere (1 i n) ed usando la formula A = detta sviluppo di Laplace per righe 7. (1 j n) e si usa la formula A = detta sviluppo di Laplace per colonne. n a ij Γ ij j=1 Oppure si sceglie una colonna j a piacere n a ij Γ ij i=1 Lo sviluppo di Laplace permette di calcolare il determinante di una matrice n n in modo ricorsivo, riducendolo prima al calcolo di determinanti di matrici (n 1) (n 1), poi (n 2) (n 2), fino ad arrivare al determinante di matrici 3 3 o 2 2, discusso nelle sezioni precedenti. Matrici quadrate Minori Complemento algebrico Sviluppo di Laplace per righe Sviluppo di Laplace per colonne 7 Pierre-Simon Laplace (1749 1827) 35

Esercizio 5.4.1. Scrivere lo sviluppo di Laplace di una generica matrice 3 3 rispetto all ultima colonna. Soluzione. a 11 a 12 a 13 a 21 a 22 a 21 a 22 a 23 = a 13 a 31 a 32 a 33 a 31 a a a 11 a 12 23 32 a 31 a + a a 11 a 12 33 32 a 21 a. 22 Esercizio 5.4.2 (3.6.6 punto 1, di [Pel1]). Dire per quale valore di k R la seguente matrice ha determinante nullo: 1 1 0 A = 0 1 k. 1 0 k Soluzione. Usando lo sviluppo di Laplace rispetto alla terza colonna si trova: A = 0 ( k) 1 1 1 0 + ( k) 1 1 0 1 = k k = 0. Il determinante è nullo per ogni valore di k. Esercizio 5.4.3. Calcolare il determinante della matrice 0 1 2 0 4 0 1 2 A = 3 1 1 0 0 2 1 4 Soluzione. Usando lo sviluppo di Laplace rispetto alla prima colonna si trova: 0 1 2 1 2 0 1 2 0 1 2 0 A = 0 1 1 0 4 1 1 0 + 3 0 1 2 0 0 1 2 2 1 4 2 1 4 2 1 4 1 1 0 quindi sviluppando il determinante della seconda e terza matrice rispetto alla terza colonna = 4 4 1 2 1 1 + 3 ( 2) 1 2 2 1 + 3 4 1 2 0 1 = 4 4 (1 2) + 3 ( 2) (1 4) + 3 4 1 = 16 + 18 + 12 = 46. 36

Si noti che, quando si usa lo sviluppo di Laplace, conviene sempre scegliere la riga o la colonna contenente più zeri. Enunciamo alcune proprietà del determinante, senza dimostrazione. Proposizione 5.4.4. Sia A M n (R). Allora: 1. se una riga (o una colonna) di A è nulla, A = 0; 2. se B è ottenuta da A scambiando fra di loro due righe (o due colonne), allora B = A ; 3. se A ha due righe (o due colonne) uguali, allora A = 0; 4. se B è ottenuta da A moltiplicando per k R gli elementi di una sua riga (o colonna), allora B = k A ; 5. se A ha due righe (o due colonne) proporzionali, allora A = 0; 6. se una riga C i di A è la somma di due n-uple X i e Y i, allora A = A + A, dove A si ottiene da A sostituendo a C i la n-upla X i e A si ottiene da A sostituendo a C i la n-upla Y i ; la stessa cosa vale per le colonne; 7. se una riga (o una colonna) di A è combinazione lineare delle altre, allora A = 0; 8. se B è ottenuta da A sommando a una sua riga (o colonna) una combinazione lineare delle altre righe (o colonne), allora B = A. Notiamo che dalla 2 e dallo sviluppo di Laplace si possono derivare tutte le altre proprietà. Per provare 1 basta usare lo sviluppo di Laplace rispetto alla riga (o colonna) nulla. Per provare 4 si fa lo sviluppo di Laplace rispetto alla riga (o colonna) che viene moltiplicata per k. La 3 segue dalla 2: se A ha due righe uguali, scambiandole si ottiene una matrice B = A e per 2 si ha A = B = A, da cui A = 0. La 5 segue da 4 e 3. Per la 6 basta fare lo sviluppo di Laplace rispetto alla riga (o colonna) i e usare la proprietà distributiva del prodotto. La 7 segue da 3, 4 e 6. La 8 segue da 7 e 6. 37

Lezione VI Dipendenza e indipendenza lineare Sommario: dipendenza e indipendenza lineare, generatori, insiemi liberi, spazi finitamente generati, basi, basi canoniche di R n e R m,n, n-upla delle componenti. Esempi ed esercizi. 6.1 Dipendenza e indipendenza lineare Iniziamo con l osservare che ogni vettore (x 1, x 2 ) R 2 si può scrivere nella forma ed ogni matrice 2 2 si può scrivere nella forma ( ) a11 a 12 a 21 a 22 (x 1, x 2 ) = x 1 (1, 0) + x 2 (0, 1) (6.1) ( ) ( ) ( ) ( ) 1 0 0 1 0 0 0 0 = a 11 + a 12 + a 21 + a 22. (6.2) 0 0 0 0 1 0 0 1 In generale dato un qualsiasi spazio vettoriale V, se un vettore v V che si può scrivere come v = a 1 v 1 + a 2 v 2 +... + a n v n, a i R, v i V, Combinazioni lineari allora diremo che è combinazione lineare dei vettori v 1,..., v n. Proposizione 6.1.1. L insieme di tutte le combinazioni lineari L(v 1,..., v n ) := { v = a 1 v 1 + a 2 v 2 +... + a n v n : a 1,..., a n R } è un sottospazio di V detto spazio generato dai vettori v 1,..., v n (o anche inviluppo lineare, copertura lineare o in inglese span ). I vettori v 1,..., v n si diranno suoi generatori. Generatori Dimostrazione. Usiamo il criterio c) della Prop. 4.3.3. Siano v = a 1 v 1 +a 2 v 2 +...+a n v n e v = a 1v 1 + a 2v 2 +... + a nv n due generici vettori di L(v 1,..., v n ), e siano k, k R. Raccogliendo i coefficienti si trova: kv + k v = (ka 1 + k a 1)v 1 + (ka 2 + k a 2)v 2 +... + (ka n + k a n)v n. Quindi kv + k v L(v 1,..., v n ), essendo combinazione lineare dei vettori v 1,..., v n, e questo conclude la dimostrazione. 38

Osserviamo che (6.1) e (6.2) implicano che è generato da 2 vettori e M 2 (R) = L è generato da 4 matrici. Esercizio 6.1.2. Mostrare che [ ( 1 0 R 2 = L [ (1, 0), (0, 1) ] 0 0 ) ( ) ( ) ( ) ] 0 1 0 0 0 0,,, 0 0 1 0 0 1 L [ (1, 0, 1), (2, 0, 0) ] R 3. Dimostrazione. Basta trovare X R 3 che non è combinazione lineare dei due vettori dati. Qualunque combinazione lineare di tali vettori avrà 0 come seconda componente, quindi ad esempio X = (0, 1, 0) non si può scrivere come loro combinazione lineare. V si dice finitamente generato se ammette un numero finito di generatori, ossia se esistono v 1,..., v n V tali che V = L(v 1,..., v n ). Evidentemente R 2 e M 2 (R) sono finitamente generati. Spazi finitamente generati Esempio 6.1.3. Lo spazio R[x] delle funzioni polinomiali R R non è finitamente generato. Siano per assurdo f 1,..., f n i suoi generatori, e sia d il grado del polinomio di grado più alto fra i generatori. Allora x d+1 non si può scrivere come combinazione lineare di f 1,..., f n, e questo prova che R[x] non è finitamente generato. Tutti gli spazi che incontreremo nel resto del corso sono finitamente generati. Osservazione 6.1.4. Osserviamo che aggiungendo ad un insieme I di vettori una loro combinazione lineare non si cambia lo spazio da essi generato: L({v} I) = L(I) v I. E naturale cercare un insieme minimo di generatori. A questo scopo è introdotta la nozione di dipendenza/indipendenza lineare. Definizione 6.1.5. Sia I = {v 1,..., v n }. I vettori di I si dicono linearmente Dipendenza e indipendenti, e I si dice libero, se a 1 v 1 + a 2 v 2 +... + a n v n = 0 = a 1 = a 2 =... = a n = 0, ovvero se l unica loro combinazione lineare che dà il vettore nullo è quella con coefficienti tutti nulli. Viceversa se i vettori non sono linearmente indipendenti, diremo che I è legato. 39 indipendenza lineare

Osservazione 6.1.6. Notiamo che 1. l insieme {0} è legato, infatti a 1 0 = 0 non implica a 1 = 0; 2. se 0 I, allora I è legato (infatti a 1 0+0v 1 +0v 2 +...+0v n = 0 anche se a 1 0); 3. se I è libero e I I, allora I è libero; 4. se I è legato e I I, allora I è legato. Proposizione 6.1.7. I = {v 1,..., v n } è libero se e solo se nessun v i scrivere come combinazione lineare dei rimanenti vettori di I. I si può Dimostrazione. Se I non è libero, allora esistono a 1,..., a n a 1 v 1 + a 2 v 2 +... + a n v n = 0. Sia a i 0, allora non tutti nulli tali che v i = (a i ) 1 k i a kv k è combinazione lineare degli altri vettori di I. Viceversa se un vettore v i = k i b kv k è combinazione lineare degli altri, allora v i k i b kv k = 0 ed almeno il coefficiente di v i è non nullo. indipendenti. Quindi i vettori non sono linearmente Teorema 6.1.8. I è libero se e solo se v 1 0 e v i / L(v 1, v 2,..., v i 1 ). Dimostrazione. L implicazione è un corollario della Prop. 6.1.7. Dimostriamo l implicazione opposta. Sia a 1 v 1 + a 2 v 2 +... + a n v n = 0. Per ipotesi v n non è combinazione lineare dei rimanenti, quindi deve essere a n = 0 e l equazione si riduce a a 1 v 1 + a 2 v 2 +... + a n 1 v n 1 = 0. Per ipotesi v n 1 non è combinazione lineare dei rimanenti, quindi deve essere a n 1 = 0 e l equazione si riduce a a 1 v 1 + a 2 v 2 +... + a n 2 v n 2 = 0. Iterando il ragionamento, dopo n 1 passi si giunge ad a 1 v 1 = 0, e siccome per ipotesi v 1 0, deve essere a 1 = 0. Quindi l unica combinazione lineare nulla è quella con a 1 = a 2 =... = a n = 0, ed I è libero. 6.2 Basi e componenti Definizione 6.2.1. Una base B = (v 1,..., v n ) di V è un insieme libero ordinato di generatori. Basi Notiamo che in una base l ordine dei vettori è rilevante. Cambiando l ordine dei vettori di una base si ottiene una nuova base, da considerarsi diversa da quella di partenza. 40

Esempio 6.2.2. Per ogni 1 i n, sia i 1 volte n i volte {}}{{}}{ e i = ( 0,..., 0, 1, 0,..., 0 ) la n-upla con i-esima componente uguale a 1 e tutte le altre uguali a zero. Per ogni (x 1,..., x n ) R n vale l identità (x 1,..., x n ) = n x ie i. (6.3) i=1 Questo prova che i vettori e i sono generatori di R n. Inoltre la combinazione lineare (6.3) è nulla solo se x 1 = x 2 =... = x n = 0, quindi i vettori formano una base B = (e 1, e 2,..., e n ) detta base canonica di R n. Base canonica di R n Esempio 6.2.3. Per ogni 1 i m e 1 j m, sia E ij R m,n la matrice che ha 1 in posizione (i, j) e tutti gli altri elementi uguali a zero. Per ogni A = (a ij ) R m,n vale l identità A = i=1,...,m j=1,...,n a ij E ij. (6.4) Questo prova che le matrici E ij sono generatori di R m,n. Inoltre la combinazione lineare (6.4) è nulla solo se a ij = 0 per ogni i, j: quindi le matrici E ij formano una base B = (E 11, E 12,..., E 1n, E 21, E 22,..., E 2n,..., E m1, E m2,..., E mn ) detta base canonica di R m,n. Base canonica di R m,n Esempio 6.2.4. B = (1, x, x 2,..., x n ) è una base per lo spazio delle funzioni polinomiali di grado non superiore ad n. Esempio 6.2.5. Per definizione, un insieme libero I = (v 1,..., v n ) è una base di L(I). Esempio 6.2.6. L insieme di vettori (1, 1), (1, 0) e (0, 1) genera R 2 (contiene la base canonica), ma non è una base in quanto (1, 1) = (1, 0) + (0, 1) e i vettori non sono linearmente indipendenti. Teorema 6.2.7. B = (v 1,..., v n ) è una base di V se e solo se ogni v V si può scrivere in un unico modo come combinazione lineare v = a 1 v 1 + a 2 v 2 +... + a n v n. Il coefficiente a i è detto componente i-esima di v nella base B, e scelta una base ogni vettore è univocamente determinato dalle sue componenti. Scriveremo Componenti v = (a 1, a 2,..., a n ) B per indicare le componenti di v nella base B. 41

Dimostrazione. Sia B una base di V e v = a 1 v 1 + a 2 v 2 +... + a n v n = a 1v 1 + a 2v 2 +... + a nv n. Allora (a 1 a 1)v 1 + (a 2 a 2)v 2 +... + (a n a n)v n = 0. Per definizione di base, v 1,..., v n sono linearmente indipendenti, e quindi deve essere a 1 = a 1, a 2 = a 2,..., a n = a n. Se ne deduce che v si può scrivere in un unico modo come combinazione lineare dei vettori v 1,..., v n. Viceversa supponiamo ogni v V si possa scrivere in un unico modo come combinazione lineare dei vettori v 1,..., v n. Allora B genera V. Inoltre b 1 v 1 + b 2 v 2 +... + b n v n = 0 implica b 1 = b 2 =... = b n = 0, altrimenti si avrebbero due modi differenti di scrivere 0 come combinazione lineare dei vettori v 1,..., v n. Se ne deduce che B è libero, ovvero una base. Esempio 6.2.8. x i è la i-esima componente di (x 1,..., x n ) R n rispetto alla base canonica; a ij è una componente di A = (a ij ) R m,n rispetto alla base canonica. Notiamo che se v = (a 1, a 2,..., a n ) B e v = (a 1, a 2,..., a n) B, allora e v + v = (a 1 + a 1, a 2 + a 2,..., a n + a n) B kv = (ka 1, ka 2,..., ka n ) B per ogni k R. Scelta una base, le operazioni di V si traducono nelle operazioni fra n-uple. Come conseguenza immediata, dati m vettori w i = (a i1, a i2,..., a in ) B, i = 1,..., m, questi sono linearmente indipendenti se e solo se le corrispondenti n-uple di componenti sono linearmente indipendenti in R n, e sono generatori di V se e solo se le n-uple delle componenti generano R n. Esercizio 6.2.9. In R 3 si individui, se esiste, un vettore dell insieme { } I = v 1 = (1, 3, 2), v 2 = ( 2, 0, 3), v 3 = (4, 5, 0), v 4 = (0, 1, 4), v 5 = (1, 0, 0) esprimibile come combinazione lineare degli altri elementi di I. 42

Soluzione. Per la Prop. 6.1.7, come prima cosa occorre stabilire se i vettori sono linearmente indipendenti. La condizione a 1 v 1 + a 2 v 2 +... + a 5 v 5 = = a 1 (1, 3, 2) + a 2 ( 2, 0, 3) + a 3 (4, 5, 0) + a 4 (0, 1, 4) + a 5 (1, 0, 0) = 0 è equivalente al sistema di tre equazioni in cinque incognite: a 1 2a 2 + 4a 3 + 0a 4 + a 5 = 0 3a 1 + 0a 2 + 5a 3 + a 4 + 0a 5 = 0 2a 1 + 3a 2 + 0a 3 + 4a 4 + 0a 5 = 0 Dalla prima equazione ricaviamo a 5 = a 1 + 2a 2 4a 3. Le rimanenti danno il sistema di due equazioni in quattro incognite: { 3a1 + 5a 3 + a 4 = 0 2a 1 + 3a 2 + 4a 4 = 0 ovvero a 3 = 3 5 a 1 1 5 a 4 e a 2 = 2 3 a 1 4 3 a 4. Sostituendo queste due nell equazione per a 5 si ottiene a 5 = a 1 + 2 ( 2a 3 1 4a ( 3 4) 4 3 a 5 1 1a ) 5 4 = 1 a 15 1 28a 15 4. L insieme delle soluzioni è dato quindi da ( a1, 2a 3 1 4a 3 4, 3a 5 1 1a 1 5 4, a 4, a 15 1 28a ) 15 4 (6.5) al variare di a 1, a 4 R. Poiché esistono soluzioni non nulle, l insieme I è legato. Scegliendo a 1 = 1 e a 4 = 0 si trova v 1 2 3 v 2 3 5 v 3 + 0v 4 + 1 15 v 5 = 0 ovvero v 1 = 2 3 v 2 + 3 5 v 3 1 15 v 5 è combinazione lineare degli altri vettori di I. Esercizio 6.2.10 (2.8.7 di [Pel1]). In R 4 si individui, se esiste, un vettore dell insieme { } I = w 1 = (1, 3, 2, 1), w 2 = ( 2, 0, 3, 1), w 3 = (4, 5, 0, 1), w 4 = (0, 1, 4, 1), w 5 = (1, 0, 0, 1) esprimibile come combinazione lineare degli altri elementi di I. Soluzione. Si procede come nell esercizio 6.2.9 e si ricava un sistema di quattro equazioni in cinque incognite a 1,..., a 5. Le prime tre equazioni sono le stesse dell esercizio 6.2.9, la quarta è a 1 + a 2 + a 3 + a 4 + a 5 = 0. (6.6) 43

Le soluzioni del sistema sono date da quelle soluzioni (6.5) del sistema all esercizio 6.2.9 che risolvono anche l equazione trova Scrivendo a 2, a 3, a 5 come funzioni di a 1, a 4 come in (6.5) e sostituendo a (6.6) si a 1 + ( 2a 3 1 4a ( 3 4) + 3 a 5 1 1a ) 5 4 +a4 + ( 1 a 15 1 28a ) 15 4 = 11 a 5 1 12a 5 4 = 0. Quindi a 4 = 11 12 a 1. Sostituendo in (6.5) si trova l insieme delle soluzioni: a 1 ( 1, 5 9, 5 12, 11 12, 16 9 ) (6.7) per ogni a 1 R. Per a 1 = 1 si ricava w 1 = 5 9 w 2 + 5 12 w 3 + 11 12 w 4 16 9 w 5, ovvero il primo vettore è esprimibile come combinazione lineare degli altri. Esercizio 6.2.11. In R 5 si dica per quali valori di k R è possibile esprimere un vettore dell insieme { I = u 1 = (1, 3, 2, 1, 0), u 2 = ( 2, 0, 3, 1, k), u 3 = (4, 5, 0, 1, 1), } u 4 = (0, 1, 4, 1, 0), u 5 = (1, 0, 0, 1, 0) come combinazione lineare degli altri vettori. Soluzione. Procedendo come negli esercizi precedenti si ottiene un sistema di cinque equazioni in cinque incognite, le prime quattro sono le stesse equazioni dell esercizio 6.2.10, la quinta è: ka 2 + a 3 = 0. Sostituendo a questa equazione la soluzione generale (6.7) delle prime quattro equazioni si trova: 5 ka 9 1 5 a 12 1 = 3( 5 1 k 1 3 4) a1 = 0, ovvero deve essere a 1 = 0 (soluzione nulla) oppure k = 3. I vettori sono linearmente 4 indipendententi se k 3, mentre per k = 3 tutte le 5-uple in (6.7) sono soluzioni, 4 4 e in particolare per a 1 = 1 si trova che il primo vettore è combinazione lineare dei rimanenti: u 1 = 5 9 u 2 + 5 12 u 3 + 11 12 u 4 16 9 u 5. 44

Lezione VII Esercitazione su basi e dimensione Sommario: lemma di Steinitz (senza dimostrazione), equipotenza delle basi, metodo degli scarti successivi, completamento ad una base, dimensione. Esercizi. 7.1 Proprietà delle basi Uno spazio vettoriale non sempre ammette una base. Esiste sempre una base se lo spazio è finitamente generato, come illustrato dal teorema che segue. Lemma 7.1.1 (Lemma di Steinitz). Sia {v 1,..., v n } un insieme di generatori di V e siano u 1,..., u m dei vettori linearmente indipendenti. Allora m n. Lemma di Steinitz Dimostrazione. Per la prova si veda il teorema 2.6.3 di [Pel1]. Teorema 7.1.2. Sia V uno spazio vettoriale finitamente generato, B = (v 1,..., v n ) una base e I = (u 1,..., u m ) un insieme di vettori di V. Allora: i) se I è una base, m = n; ii) se I è un insieme di generatori, si può sempre trovare una base B formata da vettori di I; in particolare questo implica che m n; iii) se I è un insieme libero, si può sempre trovare una base B contenente i vettori di I; in particolare questo implica che m n. Dimostrazione. Se B ed I sono basi, siccome I è libero e B genera V dal lemma di Steinitz segue che m n. Ma anche B è libero ed I genera V, quindi per il lemma di Steinitz n m. Da questo si ricava m = n, ovvero il punto i). La dimostrazione dei punti ii) e iii) è costruttiva. Nel primo caso è detta metodo degli scarti successivi e serve ad estrarre una base a partire da un insieme sovrabbondante di generatori. Nel secondo caso è detta metodo del completamento ad una base e serve a determinare una base contenente dei vettori assegnati in partenza. Metodo degli scarti successivi Sia I un insieme di generatori. Sia I 1 l insieme di generatori ottenuto da I rimuovendo eventuali vettori nulli. Se u 2 = L(u 1 ) chiamiamo I 2 = I 1 {u 2 }, altrimenti I 2 = I 1. Se u 3 = L(u 1, u 2 ) chiamiamo I 3 = I 2 {u 3 }, altrimenti I 3 = I 2. Iterando il procedimento (controllando tutti i vettori di I fino all ultimo) si costruisce una sequenza di insiemi Metodo degli scarti successivi... I I 1 I 2... I k 45

dove k è il numero di vettori non nulli di I, I i = I i 1 {u i } se u i L(u 1,..., u i 1 ) e I i = I i 1 in caso contrario. Per l osservazione 6.1.4, si ha V = L(I) = L(I 1 ) L(I 2 )... L(I k ). Quindi I k generano V e sono linearmente indipendenti per il teorema 6.1.8. Ordinando a piacere i vettori di I k si ottiene la base B cercata. Notiamo che B per costruzione ha meno elementi di I, quindi n m (per il punto i). Metodo del completamento ad una base Sia I libero. Applicando il metodo degli scarti successivi all insieme di generatori... e del completamento ad una base I = (u 1,..., u m, v 1,..., v n ) i primi m vettori non vengono eliminati perché per ipotesi sono linearmente indipendenti. Si ricava quindi una base B (u 1,..., u m ) = I. Per il punto i) B ha n elementi, quindi deve essere m n. Esempio 7.1.3. Sia I = {v 1 = (1, 1), v 2 = (1, 0), v 3 = (0, 1)}. Abbiamo visto nell esempio 6.2.6 che I genera R 2 ma non è libero. Applicando il metodo degli scarti successivi si vede che v 1 0 e v 2 / L(v 1 ), quindi I 2 = I 1 = I. Poiché v 3 = v 1 v 2, I 3 = I {v 3 } ed una base estratta da I è B = (v 1, v 2 ). Notiamo che la base estratta dipende da come si ordinano i vettori dell insieme I di partenza. Ad esempio ordinandoli come (v 2, v 3, v 1 ) la base estratta è quella canonica B = (v 2, v 3 ). Come conseguenza del teorema precedente, tutte le basi di V hanno lo stesso numero n di elementi; tale numero è detto dimensione di V ed indicato con dim(v ). Per convenzione dim({0}) = 0. Dimensione Osservazione 7.1.4. dim(r n ) = n e dim(r m,n ) = m n, come si evince contando gli elementi delle basi canoniche. Corollario 7.1.5. Sia V uno spazio finitamente generato e W V un sottospazio. Allora dim(w ) dim(v ) e si ha l uguaglianza se e solo se W = V. Dimostrazione. Una base I = (u 1,..., u m ) di W è un insieme libero di V, quindi dim(w ) = m dim(v ) per il punto iii) del teorema 7.1.2. Si può completare I ad una base B I di V. Se dim(w ) = m = dim(v ), B ha lo stesso numero di elementi di I, da cui B = I devono essere uguali. Da questo si ricava che W = L(I) = L(B) = V. Osservazione 7.1.6. Sia V uno spazio di dimensione n. Una immediata conseguenza del precedente corollario è che: ogni insieme libero di n elementi è una base; ogni insieme di n generatori è una base. 46

Enunciamo senza dimostrazione la formula di Grassmann. Dati due sottospazi U, W di V, si ha Formula di Grassmann dim(u + W ) + dim(u W ) = dim(u) + dim(w ). In particolare, se U + W è una somma diretta, dalla Prop. 4.4.2 segue che dim(u W ) = dim(u) + dim(w ). 7.2 Esercizi Esercizio 7.2.1. Estrarre una base B di R 3 dall insieme ( ) I = v 1 = ( 1, 0, 1), v 4 2 2 = (0, 1, 1), v 3 = ( 1, 1, 1), v 4 = (0, 0, 1), v 5 = (1, 0, 0). Soluzione. Applichiamo il metodo degli scarti successivi. Essendo i vettori tutti diversi da zero, I 1 = I. I vettori di L(v 1 ) hanno la seconda componente nulla, quindi v 2 / L(v 1 ) e I 2 = I 1. Siccome v 3 = 4v 1 v 2 L(v 1, v 2 ), allora I 3 = I 2 {v 3 }. La condizione dà il sistema v 4 = a 1 v 1 + a 2 v 2 + a 3 v 3 1 4 a 1 a 3 = 0 a 2 a 3 = 0 1 a 2 1 + a 2 + a 3 = 1 Sostituendo le prime due equazioni, a 1 = 4a 3 e a 2 = a 3, nella terza troviamo 2a 3 + a 3 + a 3 = 1, che non ammette soluzione. Quindi v 4 / L(v 1, v 2, v 3 ) e I 4 = I 3. Non serve procedere oltre: B = (v 1, v 2, v 4 ) è libero quindi, essendo dim(r 3 ) = 3, è anche una base. Esercizio 7.2.2. Completare ad una base B di R 3 l insieme {(1, 0, 1), (0, 0, 2)}. Soluzione. Usando la base canonica di R 3 formiamo l insieme di generatori: ( ) I = v 1 = (1, 0, 1), v 2 = (0, 0, 2), e 1 = (1, 0, 0), e 2 = (0, 1, 0), e 3 = (0, 0, 1). Applichiamo il metodo degli scarti successivi. I 2 = I 1 = I poiché v 2 non è proporzionale a v 1. Siccome e 1 = v 1 + 1 2 v 2, si ha I 3 = I 2 {e 1 }. Qualunque combinazione lineare dei primi tre vettori ha la seconda componente nulla, quindi e 2 / L(v 1, v 2, e 1 ) e I 4 = I 3. Un insieme libero di tre elementi è una base, quindi B = (v 1, v 2, e 2 ). 47

Esercizio 7.2.3. Dire se 1. (3, 2) L [ (0, 0), (2, 2) ] ; 2. (3, 2) L [ (1, 1), (2, 2) ] ; 3. (0, 0) L [ (1, 1), (2, 2) ] ; 4. (3, 2) L [ (1, 1), (2, 2) ] ; 5. dire se B = ( (1, 1), (1, 2) ) è una base di R 2. Soluzione. No, si, si, no, si. Andando in ordine: 1. L [ (0, 0), (2, 2) ] = {a 1 (0, 0) + a 2 (2, 2) : a 1, a 2 R} = {(2a 2, 2a 2 ) : a 2 R} = {(x, y) R 2 : x = y} è l insieme dei vettori che hanno le due componenti uguali. Quindi (3, 2) / L [ (0, 0), (2, 2) ]. 2. a 1 (1, 1) + a 2 (2, 2) = (3, 2) dà il sistema { a1 + 2a 2 = 3 a 1 + 2a 2 = 2 Sommando le equazioni si ottiene 4a 2 = 5, ossia a 2 = 5. Sostituendo nella prima 4 si ottiene a 1 = 3 5 = 1. Quindi (3, 2) = 1(1, 1) + 5 (2, 2) è elemento di 2 2 2 4 L [ (1, 1), (2, 2) ]. 3. Questa è banale poiché (0, 0) = 0 (1, 1) + 0 (2, 2). 4. (3, 2) / L [ (1, 1), (2, 2) ] poiché, come al punto 1, L [ (1, 1), (2, 2) ] = {(x, y) R 2 : x = y} è l insieme di vettori che hanno le due componenti uguali. 5. Ogni (x 1, x 2 ) R 2 si può scrivere nella forma (x 1, x 2 ) = 2x 1 x 2 3 (1, 1) + x 1 + x 2 (1, 2) 3 (le componenti, come funzioni di x 1 e x 2, si ricavano come al solito risolvendo un sistema di due equazioni in due incognite), quindi B è una base di R 2. Esercizio 7.2.4 (2.8.8 punti 3-5, di [Pel1]). Dire quali dei seguenti insiemi di vettori di R 3 sono liberi: 1. A 3 = { (1, 0, 0), (1, 0, 2), (1, 1, 2), (0, 0, 1) } ; 2. A 4 = { (1, 0, 1), ( 2, 0, 2), (1, 0, 2) } ; 3. A 5 = { (0, 1, 0), (0, 0, 0), (1, 3, 2) }. 48

Soluzione. Siccome dim(r 3 ) = 3, un insieme libero non può contenere più di tre vettori. Quindi A 3 non è libero. A 4 non è libero, poiché il secondo vettore è proporzionale al primo. A 5 non è libero perché contiene il vettore nullo. Esercizio 7.2.5 (2.8.15 di [Pel1]). Dire per quali valori di x, y R i vettori sono una base di R 3. v 1 = (0, x, 1), v 2 = (2, 0, 0), v 3 = (0, y, 4) Soluzione. Se y = 4x, v 3 = 4v 1 ed i vettori non formano una base. Da si ricava il sistema a 1 v 1 + a 2 v 2 + a 3 v 3 = 0 0a 1 + 2a 2 + 0a 3 = 0 xa 1 + 0a 2 + ya 3 = 0 a 1 + 0a 2 + 4a 3 = 0 Dalla prima equazione si ricava a 2 = 0; rimane il sistema { xa1 + ya 3 = 0 a 1 + 4a 3 = 0 Dallo schema a pagina 19 segue che se il determinante della matrice dei coefficienti è diverso da zero, ovvero se 4x y 0, il sistema ammette un unica soluzione, quella nulla. Quindi se y 4x i tre vettori sono linearmente indipendenti e, per l osservazione 7.1.6, formano una base di R 3. Esercizio 7.2.6 (2.8.16 punti 1-3, di [Pel1]). Sia W = {(x 1, x 2, x 3, x 4 ) R 4 : x 1 x 2 + x 3 = x 2 + x 3 x 4 = 0}. Dire se W è un sottospazio di R 4 e, in caso affermativo, trovare un insieme di generatori e calcolare la dimensione di W. Soluzione. Per la Prop. 4.3.6, W è sottospazio di R 4. Siccome x 1 = x 2 x 3 e x 4 = x 2 + x 3, ogni vettore di W ha la forma (x 2 x 3, x 2, x 3, x 2 + x 3 ) con x 2, x 3 R. Scegliendo x 2 = 1 e x 3 = 0 si ottiene il vettore v 1 = (1, 1, 0, 1); scegliendo x 2 = 0 e x 3 = 1 si ottiene il vettore v 2 = ( 1, 0, 1, 1). Notiamo che ogni vettore di W si può scrive come combinazione lineare (x 2 x 3, x 2, x 3, x 2 + x 3 ) = x 2 v 1 + x 3 v 2, quindi (v 1, v 2 ) è un insieme di generatori di W. Dalla precedente equazione si vede che x 2 v 1 + x 3 v 2 = 0 x 2 = x 3 = 0, quindi (v 1, v 2 ) è una base e dim(w ) = 2. 49

Esercizio 7.2.7 (2.8.17 di [Pel1]). Sia u 1 = (1, 0, 0, 0), u 2 = (1, 2, 0, 0), u 3 = (1, 2, 3, 0), u 4 = (1, 2, 3, 4). Si verifichi che B = (u 1, u 2, u 3, u 4 ) è una base di R 4 e si determinino le componenti del vettore v = (1, 1, 1, 1) nella base B. Soluzione. La condizione a 1 u 1 + a 2 u 2 + a 3 u 3 + a 4 u 4 = 0 si traduce nel sistema a 1 + a 2 + a 3 + a 4 = 0 2a 2 + 2a 3 + 2a 4 = 0 3a 3 + 3a 4 = 0 4a 4 = 0 che ha come unica soluzione quella nulla. Quindi B è una base. La condizione b 1 u 1 + b 2 u 2 + b 3 u 3 + b 4 u 4 = v dà il sistema b 1 + b 2 + b 3 + b 4 = 1 2b 2 + 2b 3 + 2b 4 = 1 3b 3 + 3b 4 = 1 4b 4 = 1 (7.1) Prendendo due volte la prima equazione meno la seconda si ricava 2b 1 = 3, ossia b 1 = 3 2. Prendendo tre volte la seconda equazione meno due volte la terza si ottiene 6b 2 = 5, ossia b 2 = 5. Prendendo quattro volte la terza equazione meno tre volte volte la 6 quarta si ottiene 12b 3 = 7, ossia b 3 = 7. Infine dalla quarta b 12 4 = 1. Quindi 4 v = ( 3, 5, 7, ) 1 (7.2) 2 6 12 4 B sono le componenti di v nella base B. Esercizio 7.2.8. Trovare le componenti della matrice ( ) 1 1 A = 1 1 nella base ( ( 1 0 B = B 1 = 0 0 di M 2 (R). ) ( ) ( ) ( ) ) 1 2 1 2 1 2, B 2 =, B 3 =, B 4 = 0 0 3 0 3 4 Soluzione. La condizione b 1 B 1 + b 2 B 2 + b 3 B 3 + b 4 B 4 = A dà il sistema di quattro equazioni in quattro incognite (7.1), la cui soluzione è stata già trovata ed è data da (7.2). Quindi A = ( 3, 5, 7, ) 1 2 6 12 4 B 50

Lezione VIII Spazi metrici Sommario: prodotto scalare; norma; disuguaglianza di Cauchy-Schwartz e disuguaglianza triangolare. Esempi ed esercizi. 8.1 Lunghezze, angoli e proiezioni in R 2 Sia X = (x 1, x 2 ) R 2. Abbiamo ricordato nell osservazione 4.1.3 che X può essere identificato con il segmento orientato OX #» nella figura qui a fianco. Tale segmento è la diagonale di un rettangolo di base x 1 ed altezza x 2, e la sua lunghezza, che indichiamo con X, è data dal teorema di Pitagora: X = x 2 1 + x 2 2. Se X (0, 0), l angolo α in figura è determinato dalle equazioni: cos α = x 1 x 2 1 + x 2 2 = x 1 X, sin α = x 2 x 2 1 + x 2 2 O α x 1 X = (x 1, x 2 ) x 2 = x 2 X. (8.1) Consideriamo ora i due vettori non nulli X = (x 1, x 2 ) e Y = (y 1, y 2 ) in figura 2a. L angolo ϑ in verde nella figura è detto angolo convesso fra X e Y (0 ϑ 180 ). Dalle formule di addizione di seno e coseno, ben note dalla trigonometria, ricaviamo: cos ϑ = cos(α β) = cos α cos β + sin α sin β = x 1y 1 + x 2 y 2 X Y, dove nell ultimo passaggio abbiamo usato (8.1) per esprimere cos α e sin α, l espressione analoga in termini di Y per esprimere cos β e sin β. Dati due vettori X, Y R 2 arbitrari, il loro prodotto scalare, indicato con X Y, è la grandezza X Y = x 1 y 1 + x 2 y 2. (8.2) Notiamo che X = X X. Se i vettori sono entrambi non nulli, allora e Angolo fra X e Y Prodotto scalare cos ϑ = X Y/ X Y (8.3) individua l angolo convesso fra i due. Due vettori X e Y si dicono ortogonali se Vettori X Y = 0, e si dicono paralleli se X Y = ± X Y. Notiamo che (0, 0) è sia ortogonale che parallelo a qualsiasi vettore di R 2. Da (8.3) si vede che due vettori non nulli sono ortogonali se e solo se ϑ = 90 e sono paralleli se e solo se ϑ = 0 o 180. 51 ortogonali e paralleli

X = (x 1, x 2 ) X = (x 1, x 2 ) Y = (y 1, y 2 ) Y = (y 1, y 2 ) α ϑ β ϑ pr Y (X) (a) Angolo fra X e Y (b) Proiezione di X in direzione di Y Figura 2: Angoli e proiezioni Esercizio 8.1.1. Sia Y = (y 1, y 2 ) R 2 diverso da zero. Provare che X è parallelo ad Y se e solo se X = ky per qualche k R (dove k > 0 se i vettori hanno lo stesso verso, k = 0 se X = 0, e k < 0 altrimenti), ed è ortogonale ad Y se e solo se X = k(y 2, y 1 ) per qualche k R. Dato un vettore Y non nullo, ed un vettore X arbitrario (anche zero) indichiamo con pr Y (X) la proiezione ortogonale di X sulla retta individuata da Y, ovvero il vettore rosso nella figura 2b. Determiniamo le componenti di pr Y (X): essendo parallelo ad Y, dall esercizio 8.1.1 segue che pr Y (X) = ky. Se 0 ϑ 90, Y e pr Y (X) hanno lo stesso orientamento e k 0; se 90 < ϑ 180, k < 0. Assumiamo che sia 0 ϑ 90, ovvero k 0. Vediamo dalla figura 2b che la lunghezza del vettore pr Y (X) è pari a cos ϑ X ; ma è anche uguale a ky = k Y. Da (8.3) si ricava Proiezione ortogonale Quindi k = cos ϑ X Y = X Y X X Y Y = X Y Y. 2 pr Y (X) = X Y Y 2 Y. (8.4) Si dimostra in modo del tutto analogo che l espressione (8.4) è valida anche quando 90 < ϑ 180. Chiudiamo questo paragrafo traducendo nel linguaggio dei vettori un ben noto teorema della geometria Euclidea, la disuguaglianza triangolare, la quale afferma che in un triangolo la lunghezza di un qualsiasi suo lato non può essere superiore alla somma delle lunghezze degli altri due. Applicata al triangolo in blu nella figura 3, poiché i tre lati hanno lunghezza X, Y e X + Y, la disuguaglianza si traduce in Disuguaglianza triangolare X + Y X + Y, (8.5) e in questa forma può essere dimostrata in tutta generalità per qualsiasi spazio vettoriale dotato di un prodotto scalare, come illustrato nella prossima sezione. 52

X + Y Y X O Figura 3: Disuguaglianza triangolare 8.2 Aree di triangoli e determinante Notiamo il triangolo di vertici O, X, Y in figura 2b ha base Y ed altezza pari alla lunghezza del segmento tratteggiato, che per il teorema di Pitagora è data da X 2 pr Y (X) 2 = Y 1 X 2 Y 2 X Y 2 = Y 1 (x 2 1 + x 2 2)(y 2 1 + y 2 2) (x 1 y 1 + x 2 y 2 ) 2 = Y 1 x 2 1y 2 2 + x 2 2y 2 1 2x 1 y 1 x 2 y 2 = Y 1 (x 1 y 2 x 2 y 1 ) 2 = Y 1 x 1 y 2 x 2 y 1. Quindi l area del triangolo ÔXY è data da 1 base altezza = 1 x 2 2 1y 2 x 2 y 1. Questo permette una interpretazione geometrica del determinante di una matrice 2 2. Il modulo del determinante a 11 a 12 a 21 a 22 è due volte l area del triangolo di vertici O, X = (a 11, a 12 ) ed Y = (a 21, a 22 ); ovvero due volte l area del triangolo di vertici O, X = (a 11, a 21 ) ed Y = (a 12, a 22 ). Il segno del determinante è positivo se ruotando X (risp. X ) in senso antiorario in modo da sovrapporlo ad Y (risp. Y ) si compie un angolo minore di 180, e negativo in caso contrario. Più in generale ci si può chiedere come si esprime l area A XYZ di un triangolo di vertici X = (x 1, x 2 ), Y = (y 1, y 2 ) e Z = (z 1, z 2 ). Studiamo il caso in cui, ruotando in senso antiorario a partire dall asse orizzontale, si incontrano nell ordine prima Z, poi Y, poi X (come in figura 4), e che tutti e tre i vettori siano nel semipiano superiore. Area di OXY Significato del determinante 53

Come si evince dalla figura 4, l area di XYZ è data dall area di ÔXY più l area di ÔYZ meno l area di ÔXZ. Quindi 2A XYZ = x 1 x 2 y 1 y + y 1 y 2 2 z 1 z x 1 x 2 2 z 1 z 2 ovvero: A XYZ = 1 x 1 x 2 1 y 2 1 y 2 1 z 1 z 2 1 come si evince facendo lo sviluppo di Laplace rispetto all ultima colonna. Si può verificare facilmente che, a meno di un segno, la formula rimane valida qualunque sia la disposizione di X, Y e Z. Area di XYZ X Y Z O Figura 4: Area A XYZ 8.3 Definizione astratta di prodotto scalare e sue proprietà Definizione 8.3.1. Sia V uno spazio vettoriale (reale). Una applicazione V V R, (v, w) v w, Prodotto scalare di V che associa ad ogni coppia di vettori v e w un numero reale, che indichiamo con v w, è detta un prodotto scalare di V se è: i) simmetrica: v w = w v v, w V ; ii) lineare: (au + bv) w = a(u w) + b(v w) a, b R, u, v, w V ; iii) definita positiva: v v > 0 v 0. Proposizione 8.3.2. Un prodotto scalare di V soddisfa: iv) 0 v = 0 v V ; v) w (au + bv) = a(w u) + b(w v) a, b R, u, v, w V. 54

Dimostrazione. La proprietà iv) segue da ii). Infatti: 0 v = (0 + 0) v = 0 v + 0 v, ovvero sottraendo 0 v ambo i membri si ottiene 0 v = 0 per ogni v V. Usando prima i), poi ii), e quindi ancora i) si dimostra che: w (au + bv) = (au + bv) w = a(u w) + b(v w) = a(w u) + b(w v) per ogni a, b R e per ogni u, v, w V. Uno spazio vettoriale dotato di un prodotto scalare è detto metrico (o anche Eucli- deo ), in quanto è possibile calcolare angoli e lunghezze. Spazi metrici Definizione 8.3.3. Sia V uno spazio metrico. Chiamiamo lunghezza o norma di Norma di un vettore v V la grandezza v := v v. Esempio 8.3.4. Siano X = (x 1, x 2,..., x n ) e Y = (y 1, y 2,..., y n ). Un prodotto scalare di R n, generalizzazione di (8.2), è dato da X Y = x 1 y 1 + x 2 y 2 +... + x n y n, (8.6) Tale prodotto scalare è detto prodotto scalare canonico. La norma associata è X 2 = X Y = x 2 1 + x 2 2 +... + x 2 n. (8.7) Prodotto scalare canonico Esempio 8.3.5. Sia V lo spazio delle funzioni R R continue e periodiche di periodo 2π. Un prodotto scalare di V, indicato con il simbolo (f, g) L 2 ( f, g V ), è dato da (f, g) L 2 = 1 2π f(t)g(t)dt. 2π 0 (f, g) L 2 è chiaramente lineare e simmetrico. Inoltre (f, f) L 2 = 1 2π f(t) 2 dt > 0 per 2π 0 ogni funzione f non identicamente nulla. Proposizione 8.3.6. Per ogni a R e u, v V si ha: 1. av = a v ; 2. v = 0 v = 0 ; 3. u + v 2 = u 2 + 2 u v + v 2. 55

Dimostrazione. Dal punto ii) della definizione 8.3.1 e dal punto v) della proposizione 8.3.2 si ricava av = (av) (av) = a 2 (v v) = a v. Dal punto iii) della definizione 8.3.1 e dal punto iv) della proposizione 8.3.2 segue che v = 0 v = 0. Dai punti i) e ii) della definizione 8.3.1 e dal punto v) della proposizione 8.3.2 si ricava u + v 2 = (u + v) (u + v) = u u + 2 u v + v v = u 2 + 2 u v + v 2. Come nel caso di R 2, possiamo definire l angolo convesso ϑ fra due vettori non nulli v e w di uno spazio metrico V come cos ϑ := v w v w. Poiché il coseno è compreso fra 1 e 1, affinché tale definizione abbia senso occorre verificare che il membro di destra dell equazione è in modulo non superiore a 1. Questo è il contenuto del teorema che segue. Teorema 8.3.7 (Disuguaglianza di Cauchy-Schwartz). Per ogni v, w V, si ha v w v w. (8.8) Dimostrazione. Se w = 0 la disuguaglianza si riduce ad un banale 0 0. Assumiamo allora che w 0. Per ogni λ R, dal punto 3 della proposizione 8.3.6, applicato alla coppia u = λv e w, si ottiene 0 v λw 2 = v 2 2λv w + λ 2 w 2, dove la prima disuguaglianza segue dal fatto che per definizione la norma di un vettore è non negativa. In particolare scegliendo λ = v w/ w 2 si ottiene 0 v 2 (v w)2 (v w)2 2 + = v 2 (v w)2, w 2 w 2 w 2 ovvero (v w) 2 v 2 w 2. Prendendo la radice quadrata di ambo i membri della disuguaglianza, si prova (8.8). Due vettori si dicono paralleli se v w = v w e si dicono ortogonali se v w = 0. Diciamo che due vettori paralleli hanno lo stesso verso se v w = v w, e che hanno verso opposto se v w = v w. 56

Corollario 8.3.8 (Disuguaglianza triangolare). Per ogni v, w V, si ha v + w v + w, (8.9) e vale l uguaglianza se e solo se i vettori sono paralleli ed hanno lo stesso verso. Dimostrazione. Dal punto 3 della proposizione 8.3.6: v + w 2 = v 2 + 2v w + w 2 v 2 + 2 v w + w 2 = ( v + w ) 2, dove la disuguaglianza segue da (8.8). Estraendo la radice si trova v+w v + w. L uguaglianza si ha esattamente quando v w = v w. Proposizione 8.3.9 (Teorema di Pitagora). Due vettori v, w V soddisfano v + w 2 = v 2 + w 2, se e solo se sono ortogonali. Dimostrazione. Dal punto 3 della proposizione 8.3.6, v + w 2 v 2 w 2 = 2v w si annulla se e solo se v w = 0. 8.4 Proiezioni ortogonali In analogia al caso di R 2, cf. equazione (8.4), se w 0 il vettore pr w (v) := v w w 2 w Proiezioni è detto proiezione (ortogonale) di v in direzione di w. Dato un vettore w 0, ogni vettore v V si può decomporre nella forma v = v // + v con v // := pr w (v), v := v pr w (v). Notiamo che v è ortogonale a w, infatti v // w = pr w (v) w = v w w 2 w w = v w (8.10) e quindi v w = v w v // w = 0. Dal punto 1 della proposizione 8.3.6, chiamando a = v w/ w 2, si ricava v // = aw = a w = v w w, 57

e quest ultima equazione insieme a (8.10) ci dice che v // w = v // w, ovvero v // è parallelo a w. Siccome v e v // sono ortogonali, dalla proposizione 8.3.9 si ricava v 2 = v // 2 + v 2. (8.11) Proposizione 8.4.1. Siano w 0 e v = v // + v come sopra. Allora: a) v è parallelo a w v = 0 ; b) v è ortogonale a w v // = 0. Dimostrazione. Da v w = 0 e v // w = ± v // w segue che v w = v // w = ± v // w. (8.12) Poiché w 0, dal punto 2 della proposizione 8.3.6 segue che v w = 0 v // = 0 v // = 0. Questo prova il punto b). Da (8.12) segue anche che v w = v // w è uguale a v w se e solo se v = v //. Per l equazione (8.11), questo è equivalente a v = 0, ovvero a v = 0. Questo prova il punto a). Corollario 8.4.2. Due vettori v, w V sono paralleli se e solo se sono linearmente dipendenti. Dimostrazione. Se w = 0 l affermazione è banale. Se w 0, segue dalla proposizione precedente che v è parallelo a w se e solo se v = v // = aw con a = v w/ w 2. Proposizione 8.4.3. Siano v 1,..., v k V dei vettori non nulli e a due a due ortogonali, ovvero v i v j = 0 per ogni i j, 1 i, j k. Allora v 1,..., v k sono linearmente indipendenti. Dimostrazione. Sia u := a 1 v 1 + a 2 v 2 +... + a k v k = 0. Siccome v i v j = 0 i j, prendendo il prodotto scalare di u con v i si ottiene u v i = a i v i v i = a i v i 2 = 0, ovvero a i = 0 (per ipotesi v i 0) per ogni i = 1,..., k. Questo prova l indipendenza lineare. 58

8.5 Esercizi Esercizio 8.5.1. Determinare il valore del parametro λ R per il quale i vettori v = (1, 3, 7, 1) e w = (3, 5, 1, λ) risultano ortogonali (rispetto al prodotto scalare canonico di R 4 ). Soluzione. Poiché v w = 1 3 + 3 5 + 7 1 1 λ = 25 λ, i vettori sono ortogonali se e solo se λ = 25. Esercizio 8.5.2. Siano v = (1, 1, 1, 3) e w = ( 1, 2, 0, 2). Calcolare la proiezione di v su w e l angolo convesso ϑ tra i due vettori. Soluzione. Si ha v w = 1 ( 1) + ( 1) 2 + 1 0 3 2 = 9, v 2 = 1 2 + ( 1) 2 + 1 2 + ( 3) 2 = 12, w 2 = ( 1) 2 + 2 2 + 2 2 = 9. Quindi e cos ϑ = pr w (v) = v w w = w = (1, 2, 0, 2) w 2 v w v w = 9 = 9 12 9 6 3 = 9 Quindi ϑ = 150 (in radianti, ϑ = 5 6 π). 6 3 3 == 9 3 3 3 6 3 = 2. Esercizio 8.5.3. Siano u = (2, 0, 1) e v = ( 2, 1, 0) vettori di R 3. Trovare tutti i vettori di norma 1 ortogonali a u e v. Soluzione. Un vettore w = (w 1, w 2, w 3 ) è ortogonale a u e v se e solo se { u w = 2w1 + w 3 = 0 v w = 2w 1 + w 2 = 0 Ovvero w = (1, 2, 2)w 1. La condizione w = 1 dà w 2 = ( 1 + 2 2 + 2 2) w 2 1 = 9w 2 1 = 1 ovvero w 1 = ± 1. Esistono quindi esattamente due vettori di norma 1 ed ortogonali ad 3 u e v, e sono dati da w = ± ( 1, 2, 2 3 3 3). 59

Esercizio 8.5.4. Ripetere l esercizio 8.5.3 con i vettori u = (8, 1, 6) e v = ( 4, 2, 3). Soluzione. Un vettore w = (w 1, w 2, w 3 ) è ortogonale a u e v se e solo se { u w = 8w1 + w 2 6w 3 = 0 v w = 4w 1 + 2w 2 + 3w 3 = 0 Un sistema equivalente è { u w + 2v w = 4w2 = 0 2u w v w = 20w 1 15w 3 = 0 ed ha soluzione w 2 = 0 e w 1 = 3 4 w 3. La condizione w = 1 dà w 2 = w 2 1 + w 2 2 + w 2 3 = 32 4 2 w 2 3 + 0 + w 2 3 25 16 w2 3 = 1 ovvero w 3 = ± 4 5. Abbiamo quindi due soluzioni: w = ±( 3 5, 0, 4 5). Esercizio 8.5.5. Ripetere l esercizio 8.5.3 con i vettori u = (4, 2, 2) e v = (3, 3, 2). Soluzione. Un vettore w = (w 1, w 2, w 3 ) è ortogonale a u e v se e solo se { u w = 4w1 + 2w 2 2w 3 = 0 v w = 3w 1 3w 2 + 2w 3 = 0 Un sistema equivalente è { u w + v w = 7w1 w 2 = 0 3u w + 2v w = 18w 1 2w 3 = 0 ed ha soluzione w 2 = 7w 1 e w 3 = 9w 1. La condizione w = 1 dà w 2 = w 2 1 + w 2 2 + w 2 3 = ( 1 + 7 2 + 9 2) w 2 1 = 131 w 2 1 = 1 ovvero w 1 = ± 1 131. Abbiamo quindi due soluzioni: w = ± 1 131 (1, 7, 9). 60

Lezione IX Basi ortonormali e metodo di Gram-Schmidt Sommario: basi ortonormali; metodo di Gram-Schmidt; sottospazi ortogonali. Esempi ed esercizi. 9.1 Basi ortonormali Sia V uno spazio metrico di dimensione n. Osservazione 9.1.1. Notiamo (proposizione 8.4.3) che n vettori non nulli e a due a due ortogonali sono linearmente indipendenti, quindi per l osservazione 7.1.6 formano una base di V. Definizione 9.1.2. Una base B = (u 1, u 2,..., u n ) di V si dice ortonormale se i) u i u j = 0 per ogni i j; Base ortonormale ii) u i = 1 per ogni i = 1,..., n. Esempio 9.1.3. La base canonica di R n è ortonormale rispetto al prodotto scalare canonico. Proposizione 9.1.4. Sia B = (u 1, u 2,..., u n ) una base ortonormale di V, e v V un vettore qualsiasi. Allora v = (v u 1 )u 1 + (v u 2 )u 2 +... + (v u n )u n. In altri termini, la componente i-esima a i di v nella base B è data da a i = v u i. Dimostrazione. Per definizione di base, esistono a 1,..., a n R tali che v = a 1 u 1 +... + a n u n. Da i) e ii) della definizione 9.1.2 e dalla linearità del prodotto scalare segue che v u i = a i (u i u i ) + j i a j(u j u i ) = a i u i + j i a j 0 = a i per ogni i = 1,..., n. Proposizione 9.1.5. Sia B = (u 1, u 2,..., u n ) una base ortonormale di V, e siano v = (a 1,..., a n ) B e w = (b 1,..., b n ) B due qualsiasi vettori di V. Allora v w = a 1 b 1 + a 2 b 2 +... + a n b n. In altre parole, in una base ortonormale il prodotto scalare fra due vettori coincide con il prodotto scalare canonico fra le n-uple delle componenti. 61

Dimostrazione. Se v = n i=1 a iu i e v = n j=1 b ju j, dalla linearità del prodotto scalare segue che n v w = a i b j (u i u j ). i,j=1 Poichè u i u j è zero se i j ed è 1 se i = j, si ricava la tesi: v w = n i=1 a ib i. 9.2 Metodo di Gram-Schmidt Sia V uno spazio metrico di dimensione n, e (v 1, v 2,..., v n ) una base qualsiasi di V. E possibile ricavare da essa una base ortonormale come illustrato nel seguito (metodo di Gram-Schmidt). Il primo passo è definire dei vettori (w 1, w 2,..., w n ) in maniera ricorsiva: Passo 1 w 1 = v 1, w 2 = v 2 pr w1 (v 2 ), w 3 = v 3 pr w1 (v 3 ) pr w2 (v 3 ),. w i = v i i 1. j=1 pr w j (v i ), (1 < i n). Lemma 9.2.1. I vettori (w 1, w 2,..., w n ) sono una base di V e soddisfano w i w j = 0 per ogni i j. Dimostrazione. Per l osservazione 9.1.1, n vettori ortogonali non nulli formano una base. I vettori sono chiaramente non nulli, infatti w 1 = v 1 0 e per i 2, se per assurdo w i = 0 se ne dedurrebbe che v i = i 1 j=1 pr w j (v i ) è combinazione lineare degli altri vettori di B, contraddicendo l ipotesi che B è una base. L ortogonalità si dimostra per induzione. Per la proprietà delle proiezioni, w 1 è ortogonale a w 2. Sia 3 i n. Per ipotesi induttiva, assumiamo che {w 1, w 2,..., w i 1 } siano a due a due ortogonali, e mostriamo che w i è ortogonale ad ogni vettore w k dell insieme, con k = 1,..., i 1. Per costruzione w k w i = w k (v i i 1 ) pr j=1 w j (v i ). Il vettore pr wj (v i ) è parallelo a w j, e quindi per ipotesi induttiva è ortogonale a w k se j k. Si ricava w k w i = w k (v i pr wk (v i ) ). Poiché v i pr wk (v i ) è ortogonale a w k (vedere pag. 57), si ha w k w i = 0. 62

Il secondo passo consiste nel normalizzare i vettori ottenuti. Chiamiamo Passo 2 Abbiamo u i u j = u 1 = w 1 w 1, u 2 = w 2 w 2,... u n = w n w n. w i w j w i w j = 0 i j, u i u i = w i w i w i 2 = 1 i = 1,..., n. Per l osservazione 9.1.1, B = (u 1, u 2,..., u n ) è una base ortonormale di V. Corollario 9.2.2. Ogni spazio metrico finitamente generato ammette una base ortonormale (si trova una base con il metodo degli scarti successivi, e da questa una ortonormale con il metodo di Gram-Schmidt). 9.3 Sottospazi ortogonali Sia V uno spazio metrico di dimensione n. Lemma 9.3.1. Siano v, w 1, w 2,..., w k V. Se v è ortogonale a ciascuno dei vettori w 1, w 2,..., w k, allora è ortogonale ad ogni loro combinazione lineare. Dimostrazione. Per ipotesi v w i = 0 per ogni i. Dalla linearità del prodotto scalare segue che v (a 1 w 1 + a 2 w 2 +... + a k w k ) = a 1 (v w 1 ) + a 2 (v w 2 ) +... + a k (v w k ) = 0 per ogni a 1,..., a k R. Definizione 9.3.2. Sia W V un sottospazio vettoriale. L insieme W := { v V : v w = 0 w W } Complemento ortogonale è detto complemento ortogonale di W. Proposizione 9.3.3. W è un sottospazio vettoriale di V. Dimostrazione. Per ogni a 1, a 2 R, v 1, v 2 W, il vettore a 1 v 1 + a 2 v 2 soddisfa (a 1 v 1 + a 2 v 2 ) w = a 1 (v 1 w) + a 2 (v 2 w) = 0 per ogni w W. Quindi a 1 v 1 + a 2 v 2 W e per il criterio c) della proposizione 4.3.3 l insieme W è un sottospazio vettoriale di V. Osservazione 9.3.4. Sia W = L(w 1, w 2,..., w k ). Dal lemma 9.3.1 segue che W = { v V : v w i = 0 i = 1,..., k }. 63

Esempio 9.3.5. Sia W = L ( (1, 0, 1) ) R 3. Per l osservazione 9.3.4, (x, y, z) W se e solo se (1, 0, 1) (x, y, z) = x z = 0. Dall identità (x, y, x) = x(1, 0, 1)+y(0, 1, 0) segue che i vettori (1, 0, 1) e (0, 1, 0) sono una base di W, ovvero: W = L ( (1, 0, 1), (0, 1, 0) ). Proposizione 9.3.6. Sia W un sottospazio di V di dimensione k. Una base ortonormale (v 1,..., v k ) di W può sempre essere completata ad una base ortonormale (v 1,..., v k, u k+1,..., u n ) di V. Inoltre i vettori u k+1,..., u n formano una base ortonormale di W. Dimostrazione. Applicando il metodo del completamento ad una base è possibile costruire una base B = (v 1,..., v k, v k+1,..., v n ) di V contenente i vettori v 1,..., v k (che per ipotesi formano un insieme libero). Applichiamo ora a B il metodo di Gram- Schmidt ed otteniamo una base ortonormale (u 1,..., u n ) di V. Per costruzione i primi k vettori di B sono già ortogonali e normalizzati ad 1, quindi u i = v i per ogni i = 1,..., k. Questo prova la prima affermazione. Ogni vettore w V si può allora scrivere nella forma w = (a 1 v 1 + a 2 v 2 +... + a k v k ) + (a k+1 u k+1 + a k+2 u k+2 +... + a n u n ). (9.1) Per l osservazione 9.3.4 e la proposizione 9.1.4, si ha w W se e solo se v i w = a i = 0 per ogni i = 1,..., k. Quindi ogni w W è una combinazione lineare w = a k+1 u k+1 + a k+2 u k+2 +... + a n u n, ed i vettori (u k+1,..., u n ) formano una base ortonormale di W. Corollario 9.3.7. Per ogni sottospazio W V valgono le seguenti proprietà: 1. (W ) = W ; 2. W W = {0}; 3. dim(w ) + dim(w ) = n; 4. W + W = V. Dimostrazione. Sia (u 1,..., u k ) una base ortonormale di W (W è finitamente generato, e per il corollario 9.2.2 ammette una base ortonormale). Per la 9.3.6 possiamo trovare una base ortonormale (u k+1,..., u n ) tale che (u 1,..., u n ) è una base ortonormale di V. Da questo segue che dim(w ) + dim(w ) = k + (n k) = n = dim(v ), ovvero il punto 3. 64

Da (9.1) segue che ogni vettore v V si può scrivere (in modo unico) come somma di due vettori v = a 1 u 1 +a 2 u 2 +...+a k u k W e v = a k+1 u k+1 +a k+2 u k+2 +...+a n u n W. Questo prova che V = W +W, ovvero il punto 4. L unicità della decomposizione prova che la somma è diretta, quindi W W = {0} per la proposizione 4.4.2. Per finire, sia v come sopra. Per l osservazione 9.3.4, v (W ) se e solo se è ortogonale ad ogni vettore di base di W. Dalla condizione a i = v u i = 0 i = k + 1,..., n si ricava v = v W. Quindi (W ) = W. 9.4 Esercizi Esercizio 9.4.1. Usando il metodo di Gram-Schmidt si determini una base ortonormale di R 3 a partire dalla base B = ( v 1 = (1, 1, 1), v 2 = (0, 1, 1), v 3 = (0, 0, 1) ). Soluzione. Come primo passo calcoliamo i vettori w 1 = v 1 = (1, 1, 1), w 2 = v 2 pr w1 (v 2 ) = (0, 1, 1) (0,1,1) (1,1,1) (1,1,1) 2 (1, 1, 1) = (0, 1, 1) 2 3 (1, 1, 1) = ( 2 3, 1 3, 1 3), w 3 = v 3 pr w1 (v 3 ) pr w2 (v 3 ) = (0, 0, 1) (0,0,1) (1,1,1) (1,1,1) 2 (1, 1, 1) (0,0,1) ( 2 3, 1 3, 1 3 ) ( 2 3, 1 3, 1 3 ) 2 ( 2 3, 1 3, 1 3 = (0, 0, 1) 1 3 (1, 1, 1) 1 2( 2 3, 1 3, 1 3 ) = ( 0, 1 2, 1 2). Quindi dividiamo ciascun vettore per la sua norma e otteniamo: u 1 = w 1 w 1 = 1 3 (1, 1, 1), u 2 = w 2 w 2 = 1 6 ( 2, 1, 1), u 3 = w 3 w 3 = 1 2 (0, 1, 1). ) La base cercata è (u 1, u 2, u 3 ). Esercizio 9.4.2. Usando il metodo di Gram-Schmidt si determini una base ortonormale di R 3 a partire dalla base B = ( v 1 = (0, 0, 1), v 2 = (0, 1, 1), v 3 = (1, 1, 1) ). 65

Soluzione. Notiamo che i vettori sono gli stessi dell esercizio precedente, ma ordinati in maniera differente. Come per l esercizio precedente: w 1 = v 1 = (0, 0, 1), w 2 = v 2 pr w1 (v 2 ) = (0, 1, 1) (0,1,1) (0,0,1) (0,0,1) 2 (0, 0, 1) = (0, 1, 1) (0, 0, 1) = (0, 1, 0), w 3 = v 3 pr w1 (v 3 ) pr w2 (v 3 ) = (1, 1, 1) (1,1,1) (0,0,1) (0,0,1) 2 (0, 0, 1) (1,1,1) (0,1,0) (0,1,0) 2 (0, 1, 0) = (1, 1, 1) (0, 0, 1) (0, 1, 0) = (1, 0, 0). I vettori hanno già norma 1, quindi (w 1, w 2, w 3 ) è la base cercata. Esercizio 9.4.3. Sia W il sottospazio di R 4 generato dai vettori v 1 = (1, 1, 0, 1), v 2 = (1, 0, 1, 2), v 3 = (1, 2, 0, 0). Trovare una base ortonormale di W e di W. Soluzione. Come per l esercizio precedente, w 1 = v 1 = (1, 1, 0, 1), w 2 = v 2 pr w1 (v 2 ) = (1, 0, 1, 2) (1,0, 1,2) (1,1,0,1) (1,1,0,1) 2 (1, 1, 0, 1) = (1, 0, 1, 2) (1, 1, 0, 1) = (0, 1, 1, 1), w 3 = v 3 pr w1 (v 3 ) pr w2 (v 3 ) = (1, 2, 0, 0) (1, 2,0,0) (1,1,0,1) (1, 1, 0, 1) (1, 2,0,0) (0, 1, 1,1) (0, 1, 1, 1) (1,1,0,1) 2 (0, 1, 1,1) 2 = (1, 2, 0, 0) + 1 3 (1, 1, 0, 1) 2 3 (0, 1, 1, 1) = ( 4 3, 1, 2 3, 1 3). Dividendo ciascun vettore per la sua norma si trova la soluzione finale: u 1 = w 1 w 1 = 1 3 (1, 1, 0, 1), u 2 = w 2 w 2 = 1 3 (0, 1, 1, 1), u 3 = w 3 w 3 = 1 30 (4, 3, 2, 1). Una base ortonormale di W è data da (u 1, u 2, u 3 ). Siccome dim(w ) + dim(w ) = 4 e dim(w ) = 3, una base di W è formata da un unico vettore u 4 = (x 1, x 2, x 3, x 4 ). Tale vettore deve risolvere il sistema 3 u1 u 4 = x 1 + x 2 + x 4 = 0 3 u2 u 4 = x 2 x 3 + x 4 = 0 30 u3 u 4 = 4x 1 3x 2 + 2x 3 x 4 = 0 66

Dalle prime due equazioni si ricava x 1 = x 2 x 4 e x 3 = x 2 + x 4. Sostituendo nell ultima si trova x 4 = 3x 2. Quindi u 4 = (2, 1, 4, 3)x 2. Dalla condizione u 4 = 1 si ricava 1 = u 4 2 = (2 2 + 1 2 + ( 4) 2 + ( 3) 2 )x 2 2 = 30x 2 2. Quindi x 2 = 1 30 e una base ortonormale di W è data dal vettore u 4 = 1 30 (2, 1, 4, 3). Notiamo che avremmo potuto scegliere x 2 = 1 30 ottenendo u 4 = 1 30 (2, 1, 4, 3), anch esso base ortonormale di W. Esercizio 9.4.4. Sia W il sottospazio degli (x 1, x 2, x 3 ) R 3 soluzione dell equazione 2x 1 + x 2 = 0. Trovare una base ortonormale di W e W (rispetto al prodotto scalare canonico di R 3 ). Soluzione. I vettori di W hanno la forma (x 1, 2x 1, x 3 ) = x 1 (1, 2, 0) + x 3 (0, 0, 1). Una base è quindi ( v 1 = (0, 0, 1), v 2 = (1, 2, 0) ). I vettori sono già ortogonali, quindi u 1 = v 1 v 1 = (0, 0, 1), u 2 = v 2 v 2 = 1 3 (1, 2, 0). Un vettore u 3 = (x 1, x 2, x 3 ) W soddisfa { u 1 u 3 = x 3 = 0 3 u2 u 3 = x 1 2x 2 = 0 Quindi u 3 = (2, 1, 0)x 2. Da u 3 2 = (2 2 + 1 2 )x 2 2 = 5x 2 2 = 1 si ricava x 2 = 1 5 u 3 = 1 5 (2, 1, 0) è una base ortonormale di W. ed 67

Lezione X Matrici Sommario: matrice trasposta; vettori riga/vettori colonna; prodotto righe per colonne; inversa ed aggiunta di una matrice. Esempi ed esercizi. 10.1 Prodotto righe per colonne Se A R m,n è la matrice a 11 a 12... a 1n a A := 21 a 22... a 2n... a m1 a m2... a mn chiamiamo trasposta di A la matrice t A R n,m che si ottiene da A scambiando le righe con le colonne, ovvero a 11 a 21... a m1 a t A = 12 a 22... a m2.... a 1n a 2n... a mn Matrice trasposta Quindi l elemento di t A in posizione (i, j) è a ji, per ogni i = 1,..., n e j = 1,..., m. Ad esempio t ( ) 1 4 1 2 3 = 2 5. 4 5 6 3 6 Osservazione 10.1.1. Notiamo che t ( t A) = A per ogni matrice A. Inoltre, siccome il determinante si può calcolare con lo sviluppo di Laplace per righe e per colonne, e il risultato non cambia, se ne deduce che t A = A per ogni matrice A. Una matrice 1 n è semplicemente una n-upla di numeri reali, e sarà anche detta vettore riga. Una matrice n 1 è anch essa una n-upla di numeri reali, scritti in una colonna, e sarà detta per questo vettore colonna. Se X = (x 1, x 2,..., x n ) è una matrice 1 n ed Y = t (y 1, y 2,..., y n ) è una matrice n 1, definiamo il loro prodotto come Vettori riga e vettori colonna X Y = x 1 y 1 + x 2 y 2 +... + x n y n. Notiamo che X Y è semplicemente il prodotto scalare canonico fra le n-uple X e t Y. 68

Più in generale date due matrici A = (a ij ) R m,n e B = (b jk ) R n,p, possiamo considerare i vettori riga X i = (a i1, a i2,..., a in ) i = 1,..., m che formano le righe di A, ed i vettori colonna b 1k b Y k = 2k. b nk che formano le colonne di B. Per costruzione A = X 1 X 2. X m k = 1,..., p ( ), B = Y 1 Y 2... Y p. Chiamiamo prodotto righe per colonne di A e B, indicato con A B, la matrice m p seguente X 1 Y 1 X 1 Y 2... X 1 Y p X A B = 2 Y 1 X 2 Y 2... X 2 Y p.... X m Y 1 X m Y 2... X m Y p Quindi C = A B è la matrice che in posizione (i, k) ha l elemento Prodotto righe per colonne c ik = X i Y k = n a ijb jk. (10.1) j=1 In figura 5 è illustrato il calcolo di c ik. Esercizio 10.1.2. Calcolare il prodotto delle matrici ( ) 1 2 1 2 1 A =, B = 3 1. 3 0 1 2 4 Soluzione. ( ) ( ) 1 1 + 2 3 1 2 1 2 + 2 1 1 4 5 0 A B = =. 3 1 + 0 3 + 1 2 3 2 + 0 1 + 1 4 5 10 69

B : n righe, p colonne a i1 b 1k a ij b jk b 11... b 1k... b 1p....... b j1... b jk... b jp....... b n1... b nk... b np +... + +... + a in b nk a 11... a 1j... a 1n....... a i1... a ij... a in....... a m1... a mj... a mn c 11... c 1k... c 1p....... c i1... c ik... c ip....... c n1... c nk... c np A : m righe, n colonne C = AB : m righe, p colonne Figura 5: Calcolo dell elemento c ik di C = A B. Osservazione 10.1.3. Notiamo che il prodotto A B può essere definito solo se il numero di colonne di A è uguale al numero di righe di B. Per ogni valore m, n, p il prodotto righe per colonne dà una applicazione R m,n R n,p R m,p. In particolare per m = n = p, si ha una operazione interna di M n (R). In generale in M n (R) non vale la proprietà AB = BA, come dimostrato nel caso di matrici 2 2 nell esercizio 5.2.3. 10.2 Proprietà del prodotto Proposizione 10.2.1 (Associatività). Per ogni A = (a ij ) R m,n, B = (b jh ) R n,p e D = (d hk ) R p,q si ha A(BD) = (AB)D. Associatività del prodotto 70

Dimostrazione. Si usa (10.1). L elemento di matrice in posizione (i, k) di A(BC) è dato da n j=1 a ij ( p ) b jhd hk = h=1 j=1,...,n h=1,...,p a ij b jh d hk, l elemento di matrice in posizione (i, k) di (AB)C è dato da p ( n ) a ijb jh d hk = a ij b jh d hk. j=1 h=1 j=1,...,n h=1,...,p Le due espressioni coincidono, poichè l ordine in cui si effettuano le due sommatorie è irrilevante. Se A = (a ij ) M n (R) è una matrice quadrata, gli elementi a ii (1 i n) si dice che formano la diagonale principale (o semplicemente la diagonale) di A. Ad esempio, nella matrice seguente gli elementi sulla diagonale principale sono in rosso 3 7 1 1 0 2. 3 2 5 Chiamiamo matrice identica di ordine n, indicata con I n, la matrice n n che ha tutti gli elementi sulla diagonale principale uguali ad 1, e tutti gli altri uguali a 0: 1 0 0... 0 0 1 0... 0 I n = 0 0 1... 0..... 0 0 0... 1 Diagonale principale Matrice identica La proposizione che segue è di semplice verifica. Proposizione 10.2.2 (Elemento neutro). Per ogni A R m,n si ha I m A = AI n = A. Elemento neutro In particolare, I n è elemento neutro rispetto al prodotto in M n (R). Sia λ R, A, A R m,n e B, B R n,p. Chiamiamo X i le colonne di A, X i le colonne di A, Y k le righe di B e Y k le righe di B. Quindi: X 1 X ( ) 1 X A = 2 X A = B = Y 1 Y 2... Y p 2.. ( ) B = Y 1 Y 2... Y p X m X m 71

Notiamo che la somma di matrici definita nell esempio 4.1.5 corrisponde alla somma dei loro vettori riga/colonna, X 1 + X 1 X A + A = 2 + X 2 (., B + B = X m + X m ) Y 1 + Y 1 Y 2 + Y 2... Y p + Y p, (10.2) ed il prodotto per uno scalare è dato semplicemente da λx 1 λx λa = 2 ( )., λb = λy 1 λy 2... λy p. (10.3) λx m Proposizione 10.2.3 (Bilinearità). Per ogni λ R, A, A R m,n e B, B R n,p Bilinearità valgono le proprietà del prodotto i) (A + A )B = AB + A B; ii) A(B + B ) = AB + AB ; iii) (λa)b = A(λB) = λ(ab). Dimostrazione. Il prodotto fra matrici R m,n R n,p R m,p è definito usando il prodotto scalare canonico di R n, e la proposizione è una immediata conseguenza della linearità del prodotto scalare. Chiamiamo X i ed X i rispettivamente le righe di A ed A, Y k e Y k rispettivamente le colonne di B e B. Da (10.1) e (10.2) si ricava (A + A )B = ( (X i + X i) Y k ) = ( Xi Y k + X i Y k ) = ( ) ( ) X i Y k + X i Y k = AB + A B, A(B + B ) = ( X i (Y k + Y k) ) = ( ) X i Y k + X i Y k = ( ) ( ) X i Y k + Xi Y k = AB + AB. Nella seconda uguaglianza abbiamo usato la linearità del prodotto scalare. In maniera simile da (10.1) e (10.3) si ricava λ(ab) = λ ( X i Y k ) = ( λ(xi Y k ) ) = { ( (λxi ) Y k ) = (λa)b ( Xi (λy k ) ) = A(λB) dove la terza uguaglianza segue dalla linearità del prodotto scalare. Osservazione 10.2.4. (M n (R), +, 0,, I n ) è un anello non commutativo. 72

Proposizione 10.2.5. Per ogni A, A R m,n, B R n,p e λ R si ha i) t (A + A ) = t A + t A ; ii) t (AB) = ( t B) ( t A) ; iii) t (λa) = λ( t A) ; Dimostrazione. Notiamo che se X = (x 1, x 2,..., x n ) ed X = (x 1, x 2,..., x n) sono due vettori riga, allora x 1 + x 1 x 1 x 1 t (X+X ) = t (x 1 +x 1, x 2 +x 2,..., x n +x x 2 + x 2 n) =... = x 2... + x 2... = t X+ t X. Proprietà della trasposizione x n + x n Chiamiamo X i ed X i rispettivamente le righe di A ed A, Y k e Y k rispettivamente le colonne di B e B. Da (10.2), e dalla precedente osservazione, segue che t X 1 + X 1 X t (A + A ) = 2 + X 2 ( ). = t (X 1 + X 1) t (X 2 + X 2)... t (X m + X m) X m + X m ( ) = t X 1 + t X 1 t X 2 + t X 2... t X m + t X m ( ) ( ) = t X t 1 X 2... t X m + t X 1 t X 2... t X m = t X 1 X 2. X m t + X 1 X 2. X m = t A + t A. Questo prova il punto i). Per il punto ii) osserviamo prima che se X è un vettore riga e Y un vettore colonna, t (X Y ) = X Y = ( t X) ( t Y ), dove la prima uguaglianza segue dal fatto che X Y è uno scalare (ovvero una matrice 1 1) e la seconda dalla simmetria del prodotto scalare. Quindi X 1 Y 1 X 1 Y 2... X 1 Y t p (X 1 Y 1 ) t (X 2 Y 1 )... t (X m Y 1 ) X t (AB) = 2 Y 1 X 2 Y 2... X 2 Y p... = t (X 1 Y 2 ) t (X 2 Y 2 )... t (X m Y 2 )... X m Y 1 X m Y 2... X m Y t p (X 1 Y p ) t (X 2 Y p )... t (X m Y p ) ( t Y 1 ) ( t X 1 ) ( t Y 1 ) ( t X 2 )... ( t Y 1 ) ( t X m ) ( = t Y 2 ) ( t X 1 ) ( t Y 2 ) ( t X 2 )... ( t Y 2 ) ( t X m )... ( t Y p ) ( t X 1 ) ( t Y p ) ( t X 2 )... ( t Y p ) ( t X m ) 73 x n x n

t Y 1 = t Y 2 (. t X t 1 X 2... ) t X m = ( t B) ( t A). t Y p Questo prova ii). La proprietà iii) è elementare e segue da (10.3): la sua verifica è lasciata come esercizio. Enunciamo, senza dimostrazione, una proprietà dei determinanti. Teorema 10.2.6 (Teorema di Binet). Il determinante di un prodotto è il prodotto dei determinanti: AB = A B per ogni A, B M n (R). Esercizio 10.2.7. Sia ( ) ( ) 2 7 5 3 A =, B =. 1 4 2 1 Verificare che AB = A B. Soluzione. Si ha A = 8 + 7 = 15, B = 5 6 = 1, ( ) ( ) 2 5 + 7 2 2 3 + 7 1 24 13 AB = =, 1 5 + 4 2 1 3 + 4 1 3 1 e AB = 24 39 = 15 = A B. 10.3 Inversa ed aggiunta di una matrice Una matrice A M n (R) si dice invertibile (rispetto al prodotto righe per colonne) se esiste una matrice A 1 M n (R) tale che Matrici invertibili A A 1 = A 1 A = I n. Come già osservato nel caso dei gruppi (proposizione 2.2.2), l inverso di un elemento è unico se l operazione è associativa. Vedremo in questa sezione come si calcola esplicitamente l inverso di una matrice. Osservazione 10.3.1. Se A e B sono matrici n n invertibili, AB è invertibile ed ha come inversa la matrice B 1 A 1. Infatti per l associatività del prodotto si ha (B 1 A 1 )(AB) = B 1 (A 1 A)B = B 1 I n B = B 1 B = I n ed anche (AB)(B 1 A 1 ) = A(BB 1 )A 1 = AI n A 1 = AA 1 = I n. 74

Definizione 10.3.2. Sia A = (a ij ) M n (R). Chiamiamo aggiunta della matrice A, indicata con A, la matrice n n che si ottiene da A sostituendo l elemento a ij con il suo complemento algebrico Γ ij (definito a pag. 35). Matrice aggiunta Abbiamo già osservato, nell esercizio 5.2.3, che esistono matrici diverse da zero non invertibili. Enunciamo senza dimostrazione un teorema che permette di stabilire in quali casi una matrice quadrata è invertibile, e di calcolare la sua inversa. Teorema 10.3.3 (Teorema di Laplace). A M n (R) è invertibile se e solo se A 0, ed in tal caso l inversa è data dalla matrice A 1 = 1 t (A ) A dove t (A ) è la trasposta della matrice aggiunta di A. Esercizio 10.3.4. Sia A la matrice 3 1 5 A = 0 4 1. 2 3 1 Calcolare A 1 usando il teorema di Laplace. Soluzione. La matrice aggiunta è data da 3 1 5 3 1 5 3 1 5 + 0 4 1 0 4 1 + 0 4 1 2 3 1 2 3 1 2 3 1 3 1 5 3 1 5 3 1 5 A = 0 4 1 + 0 4 1 0 4 1 2 3 1 2 3 1 2 3 1 3 1 5 3 1 5 3 1 5 + 0 4 1 0 4 1 + 0 4 1 2 3 1 2 3 1 2 3 1 + = + 4 1 3 1 1 5 3 1 1 5 4 1 + 0 1 2 1 3 5 2 1 3 5 0 1 + + 0 4 2 3 3 1 2 3 3 1 0 4 1 2 8 = 14 7 7. 19 3 12 75

Con lo sviluppo di Laplace rispetto alla prima colonna si calcola A = 35. Usando il teorema di Laplace si calcola l inversa: A 1 = 1 t (A ) = 1 1 14 19 2 7 3. A 35 8 7 12 Esercizio 10.3.5. Determinare aggiunta ed inversa della matrice ( ) a11 a 12 A =. a 21 a 22 Inversa di una matrice 2 2 Soluzione. Ricordiamo che A = a 11 a 22 a 12 a 21, e l inversa esiste se A 0. In tal caso, usando il teorema di Laplace si trova: ( ) ( ) A a22 a 21 =, A 1 1 a22 a 12 =, a 12 a 11 a 11 a 22 a 12 a 21 a 21 a 11 Si può verificare che effettivamente AA 1 = A 1 A = I 2. Esercizio 10.3.6. Sia A la matrice 1 0 1 A = λ 1 2. 0 2 1 Dire per quali valori di λ la matrice è invertibile, e per tali valori determinare l inversa. Soluzione. Con lo sviluppo di Laplace rispetto alla prima riga si calcola A = 2λ 3. La matrice quindi è invertibile se λ 3/2. In questo caso, aggiunta ed inversa sono date da + 1 2 2 1 λ 2 0 1 + λ 1 0 2 3 λ 2λ A = 0 1 2 1 + 1 1 0 1 1 0 0 2 = 2 1 2. + 0 1 1 2 1 1 λ 2 + 1 0 1 λ 2 1 λ 1 e A 1 = 1 t (A ) = 1 A 2λ 3 3 2 1 λ 1 λ 2 2λ 2 1. 76

Lezione XI Il metodo di eliminazione di Gauss Sommario: matrici triangolari e determinante; metodo di eliminazione di Gauss; sistemi (di equazioni lineari) ridotti e a scala. Esempi ed esercizi. 11.1 Matrici triangolari Definizione 11.1.1. Una matrice A = (a ij ) R m,n si dice triangolare superiore se a ij = 0 per ogni i > j; triangolare inferiore se a ij = 0 per ogni i < j. Matrici triangolari Una matrice triangolare si dice completa se a ii 0 per ogni i. La trasposta di una matrice triangolare superiore è una triangolare inferiore. Nel seguito considereremo solo matrici triangolari superiori. Una matrice triangolare superiore ha quindi la forma a 11 a 12 a 13... a 1n a 11 a 12 a 13... a 1m... a 1n 0 a 22 a 23... a 2n 0 a 22 a 23... a 2m... a 2n 0 0 a 33... a 3n 0 0 a 33... a 3m... a. 3n.............. 0 0 0... a nn 0 0 0... a mm... a mn 0 0 0... 0 }{{}}{{}.... m n m 0 0 0... 0 (se m n) (se m > n) n m n Notiamo che se A M n (R) è una matrice quadrata triangolare superiore, ripetendo n volte lo sviluppo di Laplace rispetto alla prima colonna si ottiene: a 22 a 23 a 24... a 2n a 33 a 34... a 3n 0 a 33 a 34... a 3n 0 a A = a 11 0 0 a 44... a 4n = a 11 a 22 44... a 4n............. 0 0 0... a nn 0 0... a nn a 44... a 4n = a 11 a 22 a 33. 0... =... = a 11 a 22 a 33 a nn. 0... a nn 77

Il determinante di A è quindi il prodotto degli elementi sulla sua diagonale principale. Il determinante è diverso da zero (e quindi, per il teorema 10.3.3, A è invertibile) se e solo se a ii 0 i, ovvero se e solo se A è una matrice triangolare completa. Determinante di matrici triangolari 11.2 Il metodo di eliminazione di Gauss E possibile effettuare delle operazioni elementari su un sistema di m equazioni lineari che permettono di ottenere un sistema equivalente, ovvero con le stesse soluzioni (vedere pagina 15). Se E è la matrice completa del sistema, ed E 1,..., E m le sue righe, tali operazioni elementari corrispondono alle seguenti operazioni sulle righe di E: (I) scambiare fra di loro due righe E i ed E j, con i j; (II) sostituire una riga E i con λe i, con λ 0; (III) sostituire una riga E i con E i + λe j, con i j e λ R. Se E è una matrice quadrata, per i punti 2 e 8 della proposizione 5.4.4, l operazione (I) trasforma E in una nuova matrice E con E = E, mentre l operazione (III) trasforma E in una nuova matrice E con E = E. Il metodo di eliminazione di Gauss permette di trasformare una qualsiasi ma- trice A = (a ij ) R m,n in una triangolare superiore B usando le operazioni (I) e (III). Se A è una matrice quadrata, B = ± A ed il segno è positivo se si è usata la trasformazione (I) un numero pari di volte, altrimenti è negativo. Se A è la matrice completa di un sistema lineare (di m equazioni in n 1 incognite), B è la matrice completa di un sistema lineare equivalente. Metodo di eliminazione di Gauss Il metodo consiste in p passi, con p = min(m 1, n). Se la prima colonna di A Passo 1 è nulla saltiamo direttamente al passo 2, altrimenti riordiniamo le righe in modo da ottenere una matrice A = (a ij) R m,n con a 11 0. Dette E i le righe di A, chiamiamo A = (a ij) R m,n la matrice ottenuta da A sostituendo, per ogni i = 2,..., m, la riga E i con E i a i1(a 11) 1 E 1 ; notiamo che a i1 = a i1 a i1(a 11) 1 a 11 = 0. Il risultato del primo passo è quindi: a 11 a 12 a 13... a 1n a 11 a 12 a 13... a 1n a 21 a 22 a 23... a 2n 0 a 22 a 23... a 2n A = a 31 a 32 a 33... a 3n A = 0 a 23 a 33... a 3n........ a m1 a m2 a m3... a mn 0 a m2 a m3... a mn Il secondo passo consiste nel prendere la sottomatrice (m 1) (n 1) di A evidenziata Passo 2 e applicare ad essa il primo passo, ottenendo una matrice A della forma: 78

A = a 11 a 12 a 13... a 1n 0 a 22 a 23... a 2n 0 0 a 33... a 3n.... 0 0 a m3... a mn Il terzo passo consiste nel prendere la sottomatrice (m 2) (n 2) di A evidenziata Passo 3 e applicare ad essa il primo passo. Si continua così per fino ad ottenere una matrice triangolare superiore B (è evidente che il procedimento termina dopo m 1 passi se m n, o dopo n passi se m > n). Esempio 11.2.1. Applichiamo il metodo di eliminazione di Gauss alla matrice 0 3 5 1 A = 2 8 2 4. 3 9 6 0 Dette E i le righe, effettuiamo in successione (primo passo): scambio di E 1 con E 3 ; sostituzione di E 2 con E 2 2 3 E 3. Si ottiene A E 1 E 3 3 9 6 0 3 9 6 0 3 9 6 0 2 8 2 4 E 2 E 2 2 3 E 3 2 2 3 3 8 2 3 9 2 2 3 6 4 2 3 0 = 0 2 2 4. 0 3 5 1 0 3 5 1 0 3 5 1 Siano E i le righe della matrice ottenuta. Il secondo e ultimo passo consiste nel sostituire E 3 con E 3 3 2 E 2, ottenendo la matrice triangolare superiore 3 9 6 0 3 9 6 0 B = 0 2 2 4 = 0 2 2 4. 0 3 3 2 2 5 3 2 ( 2) 1 3 2 4 0 0 8 5 Esempio 11.2.2. Applichiamo il metodo di eliminazione di Gauss alla trasposta t A della matrice A dell esercizio precedente. Siano E i le righe di t A. Il primo passo consiste nello scambiare E 1 con E 4, sostituire E 2 con E 2 3E 4 ed E 3 con E 3 5E 4 : 0 2 3 3 8 9 5 2 6 1 4 0 E 1 E 4 1 4 0 3 8 9 5 2 6 0 2 3 E 2 E 2 3E 4 E 3 E 3 5E 4 1 4 0 1 4 0 3 3 1 8 3 4 9 3 0 5 5 1 2 5 4 6 5 0 = 0 4 9 0 18 6 0 2 3 0 2 3 79

Dette E i le righe della matrice ottenuta, il secondo consiste nel sostituire E 3 con E 3 18 4 E 2 ed E 4 con E 4 2 4 E 2. Si ottiene la matrice: 1 4 0 0 4 9 0 0 69. 2 15 0 0 2 Dette E i le righe della matrice ottenuta, il terzo e ultimo passo consiste nel sostituire E 4 con E 4 15 60 E 3. Si ottiene in questo modo la matrice triangolare superiore 1 4 0 0 4 9 B = 0 0 69. 2 0 0 0 Esercizio 11.2.3. Usando il metodo di eliminazione di Gauss, calcolare il determinante della matrice 0 3 5 A = 2 8 2 3 9 6 e verificare che si ottiene lo stesso risultato usando lo sviluppo di Laplace. Soluzione. Trasformiamo prima la matrice in una triangolare superiore T, quindi calcoliamo T. A meno di un segno, questo darà il determinante di A. Notiamo che la matrice A è formata dalle prime tre colonne della matrice dell esempio 11.2.1. Procedendo come nell esempio, dopo due passi si ottiene la matrice: 3 9 6 T = 0 2 2, 0 0 8 formata dalle prime tre colonne della matrice B dell esempio 11.2.1. Il determinante di una matrice triangolare è il prodotto degli elementi sulla diagonale, quindi T = 3 2 8 = 48. Poiché nel primo passo abbiamo scambiato due righe (E 1 ed E 3 ) e nel secondo nessuna, il numero totale di scambi è dispari e A = T = 48. D altra parte lo sviluppo di Laplace rispetto alla prima colonna di A dà A = 2 3 5 9 6 + 3 3 5 8 2 = 2(3 6 5 9) + 3(3 2 5 8) = 54 102 = 48, come ci aspettavamo. 80

Esercizio 11.2.4. Usando il metodo di eliminazione di Gauss, calcolare il determinante della matrice 0 3 5 1 2 8 2 4 A = 3 9 6 0. 0 0 8 4 Soluzione. Notiamo che le prime tre righe di A formano la matrice dell esempio 11.2.1. Procedendo come nell esempio, dopo due passi si ottiene la matrice: 3 9 6 0 0 2 2 4 0 0 8 5. 0 0 8 4 Dette E i le righe di quest ultima matrice, l ultimo passo consiste nel sostituire E 4 con E 4 E 3, ottenendo la matrice 3 9 6 0 0 2 2 4 T = 0 0 8 5. 0 0 0 1 Quindi T = 3 2 8 1 = 48. Siccome abbiamo effettuato uno scambio (E 1 ed E 3 nel primo passo), si ha A = T = 48. Ripetiamo l esercizio 5.3.2 usando il metodo di eliminazione di Gauss, e mostriamo come con questo metodo i calcoli siano estremamente più semplici. Esercizio 11.2.5. Dire per quali valori di a, b, c R è nullo il determinante della matrice 1 a a 2 A = 1 b b 2. 1 c c 2 Soluzione. Dette E i le righe di A, il primo passo è E 2 E 2 E 1 1 a a 2 E A 2 E 2 E 1 A = 0 b a b 2 a 2. 0 c a c 2 a 2 Il secondo passo consiste nell annullare il termine in posizione (3, 2). Per fare questo, dette E i le righe di A, sostituiamo E 3 con E 3 c a b a E 2 ed otteniamo 1 a a 2 A E 3 E 3 c a b a E 2 A = 0 b a b 2 a 2. 0 0 (c 2 a 2 ) c a b a (b2 a 2 ) 81

Notiamo che b 2 a 2 = (b a)(b + a). Quindi l elemento in posizione (3, 3) è (c 2 a 2 ) c a b a (b2 a 2 ) = (c 2 a 2 ) (c a)(b + a) = c 2 bc ac + ab Il risultato è: = c(c b) a(c b) = (c a)(c b). 1 a a 2 A = 0 b a b 2 a 2. 0 0 (c a)(c b) Poiché non abbiamo effettuato scambi di righe: A = A = (b a)(c a)(c b). Il determinante è nullo se e solo se almeno due dei tre coefficienti sono uguali, ovvero se e solo se almeno due righe di A sono uguali. 11.3 Sistemi ridotti e a scala Definizione 11.3.1. Una matrice si dice ridotta per righe se ogni riga non nulla ha un elemento non nullo sotto il quale ci sono solo zeri (o meglio, sotto il quale non ci sono elementi diversi da zero). Se A è una matrice ridotta per righe ed X una sua riga non nulla, chiamiamo speciale il primo elemento di X non nullo (da sinistra) sotto il quale ci sono solo zeri. Un sistema di equazioni lineari si dice ridotto se la matrice dei coefficienti è ridotta per righe. Un sistema di equazioni lineari si dice a scala se la matrice dei coefficienti è triangolare superiore completa 8. Matrici ridotte Elementi speciali Sistemi ridotti Sistemi a scala Un esempio di matrice ridotta per righe è: 0 7 5 0 0 3 1 3 2 4 0 0 A = 0 0 0 0 0 0 0 4 11 13 0 0 0 0 0 1 0 0. (11.1) Gli elementi speciali sono evidenziati in rosso. 8 In realtà la definizione di sistema a scala è un po più generale di così, ma a noi interesseranno solo questo tipo di sistemi. 82

Osservazione 11.3.2. Una matrice è ridotta per righe se e solo se eliminando le righe nulle e riordinando le colonne si ottiene una matrice triangolare superiore completa. Per trasformare una matrice ridotta per righe in una a triangolare superiore completa è sufficiente, dopo aver eliminato le righe nulle, riordinare le colonne in modo che gli elementi speciali siano sulla diagonale principale. Ad esempio per la matrice (11.1), basta eliminare la terza riga, quindi scambiare la terza colonna con la quarta e mettere l ultima colonna al primo posto: 0 7 5 0 0 3 3 0 7 0 5 0 1 3 2 4 0 0 A 0 4 11 13 0 0 0 1 3 4 2 0 A = 0 0 4 13 11 0. 0 0 0 1 0 0 0 0 0 1 0 0 I sistemi ridotti sono i più semplici da risolvere. Prima di discutere il metodo generale, studiamo l esempio in cui la matrice dei coefficienti è la matrice A in (11.1). Si consideri il sistema 0x 1 + 7x 2 + 5x 3 + 0x 4 + 0x 5 + 3x 6 = 6 1x 1 + 3x 2 + 2x 3 + 4x 4 + 0x 5 + 0x 6 = 0 0x 1 + 0x 2 + 0x 3 + 0x 4 + 0x 5 + 0x 6 = λ 0x 1 + 4x 2 + 11x 3 + 13x 4 + 0x 5 + 0x 6 = 9 0x 1 + 0x 2 + 0x 3 + 1x 4 + 0x 5 + 0x 6 = 2 dove λ R è un parametro. La terza equazione è del tipo 0 = λ e se λ 0 il sistema è incompatibile. Studiamo quindi il caso λ = 0 e facciamo vedere che è compatibile determinandone le soluzioni. La terza equazione è del tipo 0 = 0 e può essere eliminata. Il valore di x 5 è arbitrario, in quanto moltiplica zero in tutte le equazioni. Riordinando le variabili si ottiene un sistema la cui matrice dei coefficienti è la matrice A qui sopra: 3x 6 + 7x 2 + 5x 3 = 6 1x 1 + 3x 2 + 4x 4 + 2x 3 = 0 4x 2 + 13x 4 + 11x 3 = 9 1x 4 = 2 Per risolvere le equazioni rimaste, procediamo dal basso verso l alto risolvendo ciascuna equazione rispetto alla variabile che moltiplica l elemento speciale, quindi sostituiamo l espressione ottenuta nelle equazioni rimanenti. Al primo passo si ottiene x 4 = 2, che sostituito nelle equazioni rimanenti dà 3x 6 + 7x 2 + 5x 3 = 6 1x 1 + 3x 2 + 2x 3 = 4x 4 = 8 4x 2 + 11x 3 = 9 13x 4 = 15 83

La soluzione della terza equazione è x 2 = 15 4 11 4 x 3, e sostituita nelle prime due dà { 3x6 57 4 x 3 = 129 4 1x 1 25 4 x 3 = 13 4 la cui soluzione è x 6 = 13 4 + 25 4 x 3. e x 6 = 43 4 + 19 4 x 3. Detto x 3 = t 1 e x 5 = t 2, la soluzione generale è quindi: (x 1,..., x 6 ) = ( 13 + 25t 4 4 1, 15 11t 4 4 1, t 1, 2, t 2, 43 + 19t ) 4 4 1 (11.2) e dipende da due parametri t 1, t 2 R. L espressione (11.2) è detta rappresentazione parametrica delle soluzioni del sistema, in quanto le incognite sono espresse in termini di t 1 e t 2, detti parametri liberi: ogni volta che fissiamo un valore per questi parametri otteniamo una soluzione particolare del sistema. Il metodo illustrato si generalizza facilmente. Rappresentazione parametrica Parametri liberi Metodo di sostituzione delle variabili Consideriamo un sistema di equazioni lineari a scala. Sia A = (a ij ) R m,n la matrice dei coefficienti (triangolare superiore completa) e B = t (b 1, b 2,..., b n ) la matrice dei termini noti. Abbiamo tre casi Soluzione di sistemi a scala 1. m n; 2. m > n e b n+1 = b n+2 =... = b m = 0: in tal caso possiamo eliminare le equazioni nulle ed ottenere un sistema equivalente di n equazioni in n incognite; 3. m > n ed i coefficienti b n+1, b n+2,..., b m non sono tutti nulli: in questo caso il sistema è incompatibile in quanto almeno una equazione è del tipo 0 = b i. Mostreremo che nei primi due casi il sistema è compatibile in maniera costruttiva, determinando le sue soluzioni. A meno di eliminare equazioni del tipo 0 = 0, possiamo assumere che sia m n. Il sistema ha quindi la forma: a 11 x 1 + a 12 x 2 + a 13 x 3 +... + a 1m x m +... + a 1n x n = b 1 a 22 x 2 + a 23 x 3 +... + a 2m x m +... + a 2n x n = b 2 a 33 x 3 +... + a 3m x m +... + a 3n x n = b 3...... a mm x m +... + a mn x n = b n con a ii 0 i = 1,..., m. Un sistema di questo tipo si può risolvere dal basso verso l alto. Siccome a mm 0, possiamo esprimere x m in funzione di x m+1,..., x n : x m = a 1 mm(a m,m+1 x m+1 + a m,m+2 x m+2 + a mn x n b n ). 84

Sostituendo tale espressione nelle equazioni rimanenti eliminiamo x m dalle equazioni ed otteniamo un sistema a scala con m 1 equazioni ed n 1 incognite. Scriviamo quindi x m 1 in funzione di x m+1, x m+2,..., x n e sostituiamo nelle equazioni rimanenti, eliminando anche x m 1 ed ottenendo un sistema di m 2 equazioni ed n 2 incognite. Continuando in questo modo, dopo m le incognite x 1,..., x m sono espresse tutte in funzione di x m+1, x m+2,..., x n, e per ogni scelta di n m parametri reali t 1, t 2,..., t n m, ponendo x m+1 = t 1, x m+2 = t 2,..., x n = t n m si ottiene una soluzione. Osservazione 11.3.3. Un sistema a scala è compatibile se e solo se non ha equazioni del tipo 0 = λ, dove λ è un termine noto diverso da zero. Eliminando le equazioni nulle, un sistema a scala compatibile può essere sempre trasformato in uno equivalente di m equazioni ed n incognite, con m n. La soluzione generale di tale sistema dipende da n m parametri reali; in particolare, la soluzione è unica se n = m. Risoluzione di un sistema ridotto Consideriamo un sistema di matrice completa (A B), con A ridotta per righe. A meno di eliminare equazioni nulle, possiamo assumere che (A B) non abbia righe nulle. In questo caso, se A ha righe nulle, allora almeno un equazione è del tipo 0 = λ, con λ termine noto non nullo, e il sistema è incompatibile. Viceversa se A non ha righe nulle, possiamo riordinare le incognite in modo da trasformare il sistema in uno a scala equivalente (facendo corrispondere gli elementi speciali alla diagonale principale), di matrice completa (A B). Notiamo che una matrice A R m,n triangolare superiore completa e senza righe nulle ha sempre m n. Il sistema di matrice completa (A B) può essere risolto con il metodo di sostituzione delle variabili (è compatibile, essendo m n). Possiamo quindi concludere che: Soluzione di sistemi ridotti Proposizione 11.3.4. Un sistema ridotto è compatibile se e solo se non ha equazioni del tipo 0 = λ, con λ termine noto non nullo. Un sistema ridotto compatibile si può risolvere trasformandolo in uno a scala e applicando il metodo di sostituzione delle variabili. In questo caso: la soluzione generale dipende da n m parametri, dove n è il numero di incognite ed m il numero di righe non nulle del sistema di partenza; la soluzione è unica se e solo se n = m; se il sistema è omogeneo, l insieme delle soluzioni è un sottospazio vettoriale W R n di dimensione n m (su questo punto torneremo più avanti). Se n = m, W = {0} e l unica soluzione è quella nulla. 85

Notiamo che per risolvere un sistema ridotto non è necessario riordinare le colonne e trasformarlo in uno a scala. Si può risolvere direttamente per sostituzione, dal basso verso l alto, risolvendo ciascuna equazione nell incognita che moltiplica l elemento speciale di quella riga. Le incognite che non moltiplicano elementi speciali corrispondono a parametri liberi. Esercizio 11.3.5. Risolvere il sistema 2x 1 + x 2 + 2x 3 + 1x 4 = 1 2x 1 + 3x 2 x 3 = 3 1x 1 + x 3 = 0 Soluzione. Notiamo che il sistema è compatibile, in quanto non ha equazioni del tipo 0 = b, con b termine noto non nullo. La soluzione generale dipenderà da n m = 1 parametro (n = 4 sono le incognite e m = 3 le equazioni non nulle). Risolviamo dal basso verso l alto rispetto all incognita che moltiplica l elemento speciale, evidenziato in rosso. Dall ultima equazione si ottiene x 1 = x 3, e sostituendo nelle rimanenti due: { 2x3 + x 2 + 2x 3 + 1x 4 = 1 ovvero semplificando 2x 3 + 3x 2 x 3 = 3 { x2 + 1x 4 = 1 3x 2 3x 3 = 3 Dalla seconda equazione si ricava x 2 = x 3 +1, che sostituita nella prima dà x 3 +1+1x 4 = 1, ovvero x 4 = x 3. Detto x 3 = t, le soluzioni sono date da (x 1, x 2, x 3, x 4 ) = ( t, t + 1, t, t) per ogni valore del parametro t R. 86

Lezione XII Riduzione di sistemi lineari Sommario: riduzione di una matrice; soluzione di un sistema lineare generale; calcolo dell inversa di una matrice per riduzione e con il metodo di eliminazione di Gauss. Esempi ed esercizi. 12.1 Riduzione di una matrice In questa sezione spieghiamo come trasformare una matrice E in una matrice F ridotta per righe, usando l operazione (III) di pagina 78. Il metodo è una variante del metodo di eliminazione di Gauss. Sia E = (a ij ) R m,n, E i1 la prima riga non nulla di E e sia a i1 j 1 il primo elemento non nullo di E i1. Per ottenere una matrice E = (a ij) che abbia tutti zeri sotto l elemento a i 1 j 1 effettuiamo la sostituzione Riduzione di una matrice E k E k (a i1 j 1 ) 1 a kj1 E i1 per ogni k > i 1. L elemento a i1 j 1 è un elemento speciale della matrice E. Notiamo che a ij = a ij per ogni i i 1, e che l elemento a i 1 j 1 ha tutti zeri sotto di lui. Sia ora E i 2 la prima riga non nulla di E con i 2 > i 1, e sia a i2 j 2 il primo elemento non nullo di E i 2. Con la sostituzione E k E k (a i 2 j 2 ) 1 a kj 2 E i 2, per ogni k > i 2, otteniamo una matrice E = (a ij) che ha a ij = a ij per ogni i i 2, e tale che l elemento a i 1 j 1 ha tutti zeri sotto di lui. Iterando il procedimento dopo un numero finito di passi (al più m) si ottiene una matrice F ridotta per righe, in quanto ogni riga non nulla ha almeno un elemento con tutti zeri sotto. Esempio 12.1.1. Riduciamo la matrice 2 1 1 1 A = 3 1 1 1 0 1 1 9 Si ha i 1 = j 1 = 1 ed il primo passo è quindi E 2 E 2 3 2 E 1 E A 3 E 3 0E 1 A = 87 2 1 1 1 0 1 5 5 2 2 2 0 1 1 9

Quindi i 2 = j 2 = 2 ed il secondo passo è A è la matrice ridotta cercata. A E 3 E 3 +2E 2 A = 2 1 1 1 0 1 5 5 2 2 2 0 0 6 4 Esempio 12.1.2. Riduciamo la matrice 0 1 2 1 3 1 1 9 A = 0 4 8 7 4 3 6 5 Stavolta i 1 = 1, j 1 = 2 ed il primo passo è E 2 E 2 +E 1 E 3 E 3 4E 1 E A 4 E 4 +3E 1 A = 0 1 2 1 3 0 1 8 0 0 0 3 4 0 0 8 La seconda riga ha già un elemento speciale, quindi possiamo saltare al terzo passo. Evidentemente i 3 = 3 e j 3 = 4. L ultimo passo è 0 1 2 1 A E 4 E 4 8 3 E 3 A 3 0 1 8 = 0 0 0 3 La matrice A è ridotta per righe. 4 0 0 0 12.2 Soluzione di sistemi lineari generali Dato un sistema di matrice completa E = (A B), possiamo trasformarlo in un sistema equivalente di matrice F = (A B ) tale che A è ridotta per righe, usando il metodo illustrato nella sezione precedente. Tale sistema può quindi essere risolto con il metodo di sostituzione delle variabili. Attenzione: in questo caso ci interessa ridurre per righe solo la matrice dei coefficienti. Soluzione di sistemi lineari generali Osservazione 12.2.1. Se F = (A B ) è ridotta per righe, A non è necessariamente ridotta per righe. Ad esempio: ( ) F = (A B 0 1 1 ) = 1 1 0 88

è ridotta per righe, ma A non lo è in quanto ( ) 0 1 A = 1 1 e la prima riga non ha elementi speciali. Esempio 12.2.2. Sia E = (A B) = 0 1 2 1 3 1 1 9 0 4 8 7 4 3 6 5 Usando la solita operazione (III) trasformiamo E in una matrice F = (A B ) con A ridotta per righe. Il primo elemento non nullo della prima riga è 1, in posizione (1, 2). Usiamo (III) in modo da far venire tutti zeri sotto questo elemento. Il primo passo è E 2 E 2 +E 1 0 1 2 1 E 3 E 3 4E 1 E E 4 E 4 +3E 1 F = (A B 3 0 1 8 ) = 0 0 0 3 4 0 0 8 La matrice F è la matrice cercata. Notiamo che A è ridotta per righe (ha un elemento speciale in tutte le righe esclusa la terza, che è nulla), mentre F non è ridotta per righe (la terza riga di F è non nulla e non ha elementi speciali). Notiamo che la matrice di questo esempio è la stessa dell esempio 12.1.2, solo che stavolta ci siamo fermati al primo passo perché interessati a ridurre solo le prime tre colonne, e non la matrice completa. Esercizio 12.2.3. Dire per quali valori di b R il sistema 2x 1 + x 2 + x 3 = 1 x 1 x 2 x 3 = 0 x 1 + 2x 2 + 2x 3 = b è compatibile, e per tali valori determinarne le soluzioni. Soluzione. Usando (III) trasformiamo la matrice completa 2 1 1 1 E = (A B) = 1 1 1 0 1 2 2 b 89

in una matrice F = (A B ), con A ridotta per righe. Il primo elemento non nullo della prima riga è 2, in posizione (1, 1). Il primo passo è E E 2 E 2 + 1 2 E 1 E 3 E 3 1 2 E 1 E = 2 1 1 1 0 1 2 1 2 0 3 2 1 2 3 2 b 1 2 Usiamo l operazione (II), che pure trasforma un sistema in uno equivalente, per semplificare le righe con coefficienti non interi: E 2 2E 2 2 1 1 1 E E 3 2E 3 E = 0 1 1 1 0 3 3 2b 1 Il primo elemento non nullo della seconda riga è 1 in posizione (2, 2). successivo è E E 2 E 3 +3E 2 F = (A B ) = 2 1 1 1 0 1 1 1 0 0 0 2b + 2 Il passo La matrice A è ridotta per righe. Un sistema ridotto equivalente a quello di partenza è quindi: 2x 1 + x 2 + x 3 = 1 1x 2 x 3 = 1 0 = 2b + 2 Per la proposizione 11.3.4 il sistema è compatibile se e solo se λ = 2b + 2 = 0, ovvero b = 1. In quest ultimo caso, procedendo per sostituzione si ottiene: x 3 = t R arbitrario, x 2 = x 3 1 = t 1, x 1 = 1(1 x 2 2 x 3 ) = 1. La soluzione generale è quindi: (x 1, x 2, x 3 ) = (1, t 1, t) e dipende da un parametro t R. 12.3 Calcolo dell inversa di una matrice per riduzione Sia A = (a ij ) M n (R) una matrice quadrata. Possiamo calcolare l inversa (se esiste) come segue. Una matrice X = (x ij ) M n (R) è inversa di A se risolve il sistema di equazioni lineari (di n 2 equazioni nelle n 2 incognite x ij ): A X = I n. 90

Possiamo trasformare il sistema in uno equivalente riducendo la matrice (A I n ), e quindi risolverlo per sostituzione. Illustriamo questo metodo calcolando l inversa della matrice 0 3 0 A = 5 9 7 5 6 8 Abbiamo E = (A I 3 ) = 0 3 0 1 0 0 5 9 7 0 1 0 5 6 8 0 0 1 Evidentemente i 1 = 1 e j 1 = 2. Dette E i le righe della matrice E, il primo passo è E 2 E 2 3E 1 0 3 0 1 0 0 E E 3 E 3 2E 1 E = 5 0 7 3 1 0 5 0 8 2 0 1 Notiamo che i 2 = 2 e j 2 = 1. Dette E i le righe di E, il passo successivo è E E 3 E 3 E 2 E = (A B ) = 0 3 0 1 0 0 5 0 7 3 1 0 0 0 1 1 1 1 Dobbiamo ora risolvere il sistema A X = B, ovvero svolgendo il prodotto righe per colonne: 3x 21 3x 22 3x 23 1 0 0 5x 11 + 7x 31 5x 12 + 7x 32 5x 13 + 7x 33 = 3 1 0 x 31 x 32 x 33 1 1 1 Risolvendo dal basso verso l alto per sostituzione si trova: 8 2 7 A 1 5 5 1 = X = 0 0 3 1 1 1 Si può verificare che la matrice trovata è effettivamente l inversa di A. 12.4 Determinare una base per riduzione Proposizione 12.4.1. Sia A = (a ij ) R k,n una matrice triangolare superiore completa ed E i = (0,..., 0, a ii, a i,i+1,..., a in ) R n le sue righe, con i = 1,..., k e k n. I vettori E i sono linearmente indipendenti. 91

Dimostrazione. La condizione x 1 E 1 + x 2 E 2 +... + x k E k = 0 è equivalente al sistema di n equazioni in k incognite: a 11 x 1 = 0 a 12 x 1 + a 22 x 2 = 0 a 13 x 1 + a 23 x 2 + a 33 x 3 = 0 a 1k x 1 + a 2k x 2 + a 3k x 3 +... + a kk x k = 0. a 1n x 1 + a 2n x 2 + a 3n x 3 +... + a kn x k = 0 Notiamo che la matrice dei coefficienti è la trasposta di A. Risolvendo dall alto verso il basso: poiché a 11 0, deve essere x 1 = 0; sostituendo x 1 = 0 nelle altre equazioni, dalla seconda equazione, poiché a 22 0, ricaviamo x 2 = 0; procedendo in questo modo si dimostra che l unica soluzione del sistema è x 1 = x 2 =... = x k = 0, ovvero i vettori E i sono linearmente indipendenti. Corollario 12.4.2. Le righe non nulle di una matrice ridotta per righe sono vettori linearmente indipendenti (per l osservazione 11.3.2). Il metodo di riduzione di una matrice può essere usato per calcolare la dimensione di un sottospazio di R n. Più in generale può essere usato per calcolare la dimensione di un sottospazio di uno spazio vettoriale V di cui si conosca una base. Siano X i = (a i1, a i2,..., a in ) R n dei vettori, con i = 1,..., k, e sia W R n il sottospazio generato da tali vettori. Evidentemente detta A è la matrice che ha X i come righe, ed X i le righe di una matrice ridotta A ottenuta da A usando (III), allora W = L(X 1,..., X k ) = L(X i,..., X k ). I vettori non nulli dell insieme {X i,..., X k }, essendo linearmente indipendenti (cor. 12.4.2) sono una base di W. Un discorso analogo vale se X i sono le n-uple delle componenti di vettori v i V in una base B fissata, con n = dim(v ). Esercizio 12.4.3. Determinare una base del sottospazio W di R 3 generato dai vettori v 1 = (1, 0, 2), v 2 = ( 1, 1, 3), v 3 = (2, 1, 3). Esprimere tali vettori come combinazione lineare dei vettori della base trovata. Soluzione. Sia A la matrice che ha per righe v i : 1 0 2 A = 1 1 3. 2 1 3 92.

Riduciamo la matrice A: A E 2 E 2 +E 1 E 3 E 3 2E 1 A = 1 0 2 0 1 1 0 1 1 E 3 E 3 E 2 A = 1 0 2 0 1 1 0 0 0, dove abbiamo chiamato E i = v i le righe di A ed E i le righe di A. Una base di W è data dalle righe non nulle di A, ovvero i vettori w 1 = (1, 0, 2), w 2 = (0, 1, 1). Le componenti dei vettori v i nella base B = (w 1, w 2 ) sono date da v 1 = (1, 0) B, v 2 = ( 1, 1) B, v 3 = (2, 1) B. Esercizio 12.4.4. Determinare una base del sottospazio W di M 2 (R) generato dalle matrici ( ) ( ) ( ) 1 2 1 5 2 7 A 1 =, A 2 =, A 3 =. 3 0 3 1 6 1 Determinare le componenti di tali matrici nella base trovata. Soluzione. Sia B la base canonica di M 2 (R). In tale base A 1 = (1, 2, 3, 0) B, A 2 = (1, 5, 3, 1) B, A 3 = (2, 7, 6, 1) B. Riduciamo la matrice E R 3,4 che ha per righe le 4-uple delle componenti di A 1, A 2, A 3 : 1 2 3 0 E 2 E 2 E 1 1 2 3 0 E E = 3 E 3 2E 1 1 5 3 1 E = 0 3 0 1 2 7 6 1 0 3 0 1 1 2 3 0 E 3 E 3 E 1 E = 0 3 0 1. 0 0 0 0 La matrice E è ridotta, le sue righe non nulle: ( ) ( ) 1 2 0 3 B 1 = (1, 2, 3, 0) B =, B 2 = (0, 3, 0, 1) B =, 3 0 0 1 formano una base B = (B 1, B 2 ) di W. Si può verificare che in questa base: A 1 = (1, 0) B, A 2 = (1, 1) B, A 3 = (2, 1) B. 93

12.5 Inversa di una matrice con il metodo di Gauss Abbiamo visto come si calcola l inversa di una matrice A = (a ij ) M n (R) per riduzione. Un metodo alternativo è l algoritmo di Gauss: invece di trasformare (A I n ) in una matrice ridotto, la si può trasformare in una matrice a 11 a 12... a 1n b 11... b 1n 0 a (A B ) = 22... a 2n b 21... b 2n........ 0 0... a nn b n1... b nn triangolare superiore. A è invertibile se e solo se A è triangolare superiore completa (poiché deve essere A 0), ed in questo caso il sistema A X = B si può risolvere dal basso verso l alto per sostituzione. La soluzione X = (x ij ) dà l inversa di A. Esempio 12.5.1. Sia ( ) 1 2 A =. 2 4 Con il metodo di Gauss troviamo ( ) ( ) 1 2 1 0 E (A I 2 ) = 2 E 2 2E 1 (A B 1 2 1 0 ) = 2 4 0 1 0 0 2 1. Dunque la matrice non è invertibile (come si poteva anche capire dal fatto che le righe di A sono proporzionali, quindi il determinante è nullo). Esercizio 12.5.2. Determinare l inversa della matrice ( ) 1 2 A =. 1 1 Soluzione. Con il metodo di Gauss troviamo ( ) ( ) 1 2 1 0 E (A I 2 ) = 2 E 2 +E 1 (A B 1 2 1 0 ) = 1 1 0 1 0 3 1 1. Il sistema ha soluzione ( ) ( ) A x11 + 2x 21 x 12 + 2x 22 1 0 X = = B = 3x 21 3x 22 1 1 A 1 = X = ( 1 2 3 3 1 1 3 3 ) 94

Lezione XIII Applicazioni lineari Sommario: applicazioni lineari e matrici rappresentative; proprietà elementari; nucleo, immagine e teorema della dimensione. 13.1 Definizione e prime proprietà Definizione 13.1.1. Una applicazione f : V W fra due spazi vettoriali V, W si dice lineare se per ogni v 1, v 2 V e λ 1, λ 2 R si ha Applicazioni lineari f(λ 1 v 1 + λ 2 v 2 ) = λ 1 f(v 1 ) + λ 2 f(v 2 ) (13.1) Nel caso in cui V = W, l applicazione f è detta endomorfismo di V. Endomorfismi Come nel caso di applicazioni generali, V è detto dominio e W è detto codominio di f. Due applicazioni lineari f, g sono uguali se hanno lo stesso dominio V, lo stesso codominio W, e f(v) = g(v) per ogni v V. Data una applicazione lineare f : V W, un vettore w W si dice immagine di v V tramite f se f(v) = w. Esempio 13.1.2. Sia V = C k (R) lo spazio delle funzioni R R di classe k (funzioni derivabili k volte e con derivate continue, se k 1; funzioni continue se k = 0). La derivazione D : f D[f] = df dx è una applicazione lineare da C k (R) a C k 1 (R), per ogni k 1. La derivazione è un endomorfismo dello spazio delle funzioni di classe C. Esempio 13.1.3. Sia V = C 0 ([0, 1]) lo spazio delle funzioni continue [0, 1] R. L integrale I : f I[f] = è una applicazione lineare da V in R. 1 0 f(x)dx Derivata Integrale Esempio 13.1.4. Sia S un insieme e V = Fun(S, R) lo spazio delle funzioni da S in R. Ad ogni x 0 S è associata una applicazione lineare ev x0 : V R detta valutazione in x 0, data da ev x0 [f] = f(x 0 ). Esempio 13.1.5. L applicazione f : R R, f(x) = x 2, non è lineare. Infatti, ad esempio, 9 = f(1 + 2) f(1) + f(2) = 1 + 4 = 5. 95

Esempio 13.1.6. Ad ogni matrice A R m,n, e per ogni p, q interi positivi, sono associate due applicazioni lineari L A : R n,p R m,p e R A : R q,m R q,n come segue: L A (B) = A B B R n,p, R A (C) = C A C R q,m. La linearità segue dalla bilinearità del prodotto righe per colonne (prop. 10.2.3). Dalla stessa proposizione segue che L A+A = L A + L A, L λa = λl A, R A+A = R A + R A, R λa = λr A, per ogni λ R e A, A R m,n. Dall associatività del prodotto (prop. 10.2.1) segue che per ogni A R m,n e B R n,r : L A L B = L A B, R B R A = R A B, (13.2) dove indica come al solito la composizione di applicazioni (definizione 1.3.9). Segue dalla prop. 10.2.2 che L Im (B) = B, R In (B) = B, per ogni B R m,n, ovvero la matrice identica corrisponde alla applicazione identica (definita a pagina 6). Sia A M n (R). Da (13.2) segue che L A è una applicazione invertibile se e solo se A è una matrice invertibile, e l inversa è data da (L A ) 1 = L A 1. Stesso discorso vale per R A. Esempio 13.1.7. Come caso particolare dell esempio precedente, per ogni A R m,n abbiamo: una applicazione lineare R A : R m R n, dove gli elementi di R m ed R n sono scritti come vettori riga e R A (X) = X A per ogni X = (x 1,..., x m ) R m ; una applicazione lineare L A : R n R m, dove gli elementi di R m ed R n sono scritti come vettori colonna e L A (Y ) = A Y per ogni Y = t (y 1,..., y n ) R n. Esempio 13.1.8. Siano V e W due spazi vettoriali di dimensione n ed m rispettivamente. Possiamo allora scegliere una base B = (v 1,..., v n ) di V ed una base B = (w 1,..., w m ) di W. Ad ogni matrice A = (a ij ) R m,n è associata una applicazione lineare, che indicheremo con L B,B A, data da L B,B A (λ 1v 1 + λ 2 v 2 +... + λ n v n ) = m i=1 n j=1 a ijλ j w i. In altre parole, se (λ 1, λ 2,..., λ n ) B sono le componenti del vettore v nella base B, le componenti (µ 1, µ 2,..., µ m ) B del vettore w = L B,B A (v) nella base B sono date da µ 1 a 11 a 12... a 1n λ 1 λ 1 µ 2. = a 21 a 22... a 2n λ 2.... = L λ 2 A.. µ m a m1 a m2... a mn λ n λ n Matrici 96

Proposizione 13.1.9. Sia f : V W una applicazione lineare. Allora: 1. f(0 V ) = 0 W. 2. per ogni n 1, per ogni v 1,..., v n V e per ogni λ 1,..., λ n R, si ha f(λ 1 v 1 + λ 2 v 2 +... + λ n v n ) = λ 1 f(v 1 ) + λ 2 f(v 2 ) +... + λ n f(v n ). (13.3) Dimostrazione. Usando (13.1) nel caso particolare in cui λ 1 = λ 2 = 0 e v 1 = v 2 = 0 V si ottiene ovvero il primo punto. f(0 V ) = f(0 0 V + 0 0 V ) = 0 f(0 V ) + 0 f(0 V ) = 0 W, Il secondo punto si dimostra per induzione. Usando (13.1) nel caso particolare in cui λ 2 = 0 si ottiene l affermazione per n = 1: f(λ 1 v 1 ) = λ 1 f(v 1 ). Supponiamo ora che sia vera per n, allora detto v = λ 1 v 1 + λ 2 v 2 +... + λ n v n si ha f(λ 1 v 1 + λ 2 v 2 +... + λ n v n + λ n+1 v n+1 ) = f(v + λ n+1 v n+1 ) = f(v ) + λ n+1 f(v n+1 ) = λ 1 f(v 1 ) + λ 2 f(v 2 ) +... + λ n f(v n ) + λ n+1 f(v n+1 ), dove la seconda uguaglianza segue da (13.1) e la terza è l ipotesi induttiva. Esempio 13.1.10. L applicazione f : R R data da f(x) = x + 2 non è lineare, in quanto f(0) 0. Corollario 13.1.11. Se V è finitamente generato, una applicazione lineare f : V W è completamente determinata dai valori assunti sugli elementi di una qualunque base di V. Se infatti B = (v 1,..., v n ) è una base, ogni v V si scrive in modo unico come combinazione lineare v = λ 1 v 1 + λ 2 v 2 +... + λ n v n e da (13.3) segue che f(v) = λ 1 f(v 1 ) + λ 2 f(v 2 ) +... + λ n f(v n ). Lemma 13.1.12. Sia V uno spazio di dimensione finita n, e sia B = (v 1,..., v n ) una base di V. Due applicazioni lineari f, g : V W sono uguali se e solo se f(v i ) = g(v i ) i = 1,..., n. (13.4) Dimostrazione. L implicazione è ovvia. L implicazione è immediata conseguenza della linearità di f e g: per ogni v = λ 1 v 1 + λ 2 v 2 +... + λ n v n si ha f(v) = λ 1 f(v 1 ) + λ 2 f(v 2 ) +... + λ n f(v n ) = λ 1 g(v 1 ) + λ 2 g(v 2 ) +... + λ n g(v n ) = g(v), dove la prima uguaglianza segue dalla linearità di f, l ultima da quella di g e la seconda uguaglianza è (13.4). 97

Proposizione 13.1.13. Sia f : V W è una applicazione lineare fra due spazi di dimensione finita, n = dim(v ) e m = dim(w ). Per ogni scelta di una base B = (v 1,..., v n ) di V e di una base B = (w 1,..., w m ) di W possiamo trovare una (unica) matrice A = (a ij ) R m,n tale che f = L B,B A. L elemento a ij è dato dalla i-esima componente di f(v j ) nella base B. Dimostrazione. f(v j ) W si scrive in modo unico come combinazione lineare dei vettori w i. Chiamiamo a ij le componenti, ovvero f(v j ) = m i=1 a ijw i. Allora f(v j ) = L B,B A (v j) per ogni vettore di base e per il corollario 13.1.11 si ha f = L B,B A. Se f : V W è una applicazione lineare, B è una base di V e B è una base di W, la matrice A tale che f = L B,B A è detta matrice rappresentativa di f rispetto alle basi B e B. Se V = W, chiameremo matrice rappresentativa di f nella base B la matrice A tale che f = L B,B A. Matrice rappresentativa Esercizio 13.1.14. Sia B = ( (1, 0), (0, 1) ) la base canonica di R 2 e B la base B = ( v1 = (1, 1), v 2 = (1, 4) ). Data l applicazione lineare f : R 2 R 2, ( ) ( ) x 5x + y f =, y 4x + 2y determinare la matrice rappresentativa A di f nella base B; determinare la matrice rappresentativa A di f nella base B. Soluzione. Vogliamo trovare A, A M 2 (R) tale che f = L A = L B,B. Le colonne di A sono date da ( ) 1 A = 0 Quindi ( a11 a 21 ) = f ( ) 1 = 0 ( ) 5, A 4 ( ) 0 = 1 ( ) 5 1 A =. 4 2 ( a21 a 22 A ) = f ( ) 0 = 1 ( ) 1. 2 D altra parte a ij è la i-esima componente del vettore f(v j ) nella base B. Poiché ( ) ( ) 5 + 1 5 4 f(v 1 ) = = 6v 1, f(v 2 ) = = v 2, 4 + 2 4 2 4 si ha ( ) 6 0 A =. 0 1 Notiamo (vedere l esempio precedente) che basi diverse corrispondono a matrici rappresentative differenti di uno stesso endomorfismo, ed ha interesse trovare una base (se esiste) in cui la matrice rappresentativa sia la più semplice possibile, ossia diagonale. Studieremo questo problema (la diagonalizzazione di un endomorfismo) più avanti nel corso. 98

13.2 Proprietà delle applicazioni lineari Se S V è un sottoinsieme ed f : V W una applicazione, indichiamo con f(s) il sottoinsieme di W dei vettori che sono immagine di (almeno) un vettore di S: f(s) = { w = f(v) : v S }. (13.5) In particolare l insieme f(v ) è detto immagine dell applicazione f, e l insieme N (f) = { v V : f(v) = 0 W } è detto nucleo di f. Dalla prop. 13.1.9 (punto 1) segue che 0 V N (f). Immagine Nucleo Proposizione 13.2.1. Sia f : V W una applicazione lineare. Allora: 1. f manda sottospazi in sottospazi; in particolare f(v ) è un sottospazio di W. 2. N (f) è un sottospazio di V. 3. f manda generatori di S in generatori di f(s). Dimostrazione. Sia S V un sottospazio, w 1, w 2 f(s) e λ 1, λ 2 R. Allora esistono v 1, v 2 S tali che w 1 = f(v 1 ) e w 2 = f(v 2 ). Da (13.1) segue che λ 1 w 1 + λ 2 w 2 = λ 1 f(v 1 ) + λ 2 f(v 2 ) = f(λ 1 v 1 + λ 2 v 2 ). Siccome S è per ipotesi un sottospazio, allora λ 1 v 1 + λ 2 v 2 S e λ 1 w 1 + λ 2 w 2 f(s) (essendo immagine tramite f dell elemento λ 1 v 1 + λ 2 v 2 S). Per il criterio c) della proposizione 4.3.3, f(s) è un sottospazio di W. Questo prova il primo punto. Siano v 1, v 2 N (f) e λ 1, λ 2 R. Da (13.1) segue che f(λ 1 v 1 + λ 2 v 2 ) = λ 1 f(v 1 ) + λ 2 f(v 2 ) = λ 1 0 V + λ 2 0 V = 0 V, ovvero λ 1 v 1 + λ 2 v 2 N (f). Per il criterio c) della proposizione 4.3.3, N (f) è un sottospazio di V. Questo prova il secondo punto. Siano v 1, v 2,..., v n dei generatori di S. Per ogni w f(s) esiste v S tale che f(v) = w. Possiamo scrivere v come combinazione lineare dei generatori, v = λ 1 v 1 + λ 2 v 2 +... + λ n v n, e da (13.3) segue che w = λ 1 f(v 1 ) + λ 2 f(v 2 ) +... + λ n f(v n ). Siccome questo vale per ogni w f(s), i vettori f(v 1 ),..., f(v n ) sono un insieme di generatori di f(s). Ricordiamo che: una applicazione f è suriettiva se ogni elemento del codominio è nell immagine di f, ovvero f(v ) = W ; è iniettiva se manda elementi distinti in elementi distinti, ovvero f(v) = f(v ) v = v. 99

Proposizione 13.2.2. Una applicazione lineare f è iniettiva se e solo se N (f) = {0 V }. Dimostrazione. Se N (f) contiene un vettore v non nullo, allora f(v) = 0 W = f(0 V ) ed f non è iniettiva. Viceversa se N (f) = {0 V }, allora f(v) f(v ) = f(v v ) si annulla se e solo se v v = 0 V, e questo prova l iniettività di f. Proposizione 13.2.3. Una applicazione lineare iniettiva f manda vettori linearmente indipendenti in vettori linearmente indipendenti. Dimostrazione. Siano v 1, v 2,..., v n linearmente indipendenti e w i = f(v i ). Siccome N (f) = {0 V }, la combinazione λ 1 w 1 +... + λ n w n = f(λ 1 v 1 +... + λ n v n ) è nulla se e solo se la combinazione λ 1 v 1 +... + λ n v n è nulla, ovvero se e solo se λ 1 =... = λ n = 0 (per ipotesi sull indipendenza dei vettori v i ). Questo prova che i vettori w i sono linearmente indipendenti. Corollario 13.2.4. Sia f : V W una applicazione lineare e siano n = dim(v ) e m = dim(w ). Si ha: 1. se f è suriettiva, allora n m; 2. se f è iniettiva, allora n m; 3. se f è biunivoca, allora n = m e per ogni base B = (v 1,..., v n ) di V l insieme (f(v 1 ),..., f(v n )) è una base di W. Dimostrazione. Sia B = (v 1,..., v n ) una base di V. Se f è suriettiva, segue dal punto 3 della proposizione 13.2.1 che (f(v 1 ),..., f(v n )) sono generatori di f(v ) = W. Quindi n m (per il lemma di Steinitz). Segue dal punto 3 della proposizione 13.2.1 e dalla proposizione precedente che, per ogni sottospazio S V, una applicazione lineare iniettiva f manda basi di S in basi di f(s). Quindi se f è iniettiva, (f(v 1 ),..., f(v n )) è una base di f(v ) W, da cui n = dim f(v ) m. Se f è sia iniettiva che suriettiva, allora manda basi di V in basi di f(v ) = W, ed ovviamente n = m. Una applicazione lineare biunivoca f : V W è detta isomorfismo fra V e W. Se V è finitamente generato e (v 1,..., v n ) è una sua base, l applicazione φ B : V R n che associa ad ogni vettore la sua n-upla delle componenti, Isomorfismo φ B (x 1 v 1 + x 2 v 2 +... + x n v n ) = (x 1, x 2,..., x n ), è un isomorfismo. 100

Teorema 13.2.5 (della dimensione). Sia n = dim(v ) e f : V W una applicazione lineare. Allora: dim N (f) + dim f(v ) = n. Teorema della dimensione Dimostrazione. Se N (f) = {0 V }, l applicazione è iniettiva e manda basi di V in basi di f(v ). Quindi dim f(v ) = dim(v ) = n come richiesto. Supponiamo che N (f) {0 V }. Sia k la dimensione di N (f) e (v 1,..., v k ) una sua base. Usando il metodo del completamento ad una base, possiamo completare tale insieme ad una base (v 1,..., v k, v k+1,..., v n ) di V. Osserviamo che f si annulla sui primi k vettori di base, e w 1 = f(v k+1 ) w 2 = f(v k+2 )... w n k = f(v n ) sono generatori di f(v ). Facciamo vedere che sono linearmente indipendenti. Sia λ 1 w 1 + λ 2 w 2 +... + λ n k w n k = f(λ 1 v k+1 + λ 2 v k+2 +... + λ n k v n ) = 0 W una combinazione lineare nulla. Allora λ 1 v k+1 + λ 2 v k+2 +... + λ n k v n N (f) L(v k+1,..., v n ). Per costruzione, poiché (v 1,..., v k, v k+1,..., v n ) sono linearmente indipendenti, l unico elemento del nucleo che è combinazione lineare dei vettori (v k+1,..., v n ) è il vettore nullo. Quindi λ 1 v k+1 + λ 2 v k+2 +... + λ n k v n = 0 V e per l indipendenza lineare dei v i questo implica λ 1 = λ 2 =... = λ n k = 0. Abbiamo provato che i vettori w i sono vettori linearmente indipendenti, e quindi una base di f(v ). Segue che dim f(v ) = n k = n dim N (f), e questo conclude la dimostrazione. 101

Lezione XIV Rango e sistemi lineari Sommario: applicazioni e sistemi lineari; rango di una matrice; teoremi di Rouché- Capelli e di Cramer; teorema degli orlati. Esercizi. 14.1 Applicazioni e sistemi lineari Sia L A l applicazione dell esempio 13.1.7 associata ad una matrice A = (a ij ) R k,n. Notiamo che il nucleo di L A è l insieme dei vettori colonna X = t (x 1,..., x n ) tali che a 11 x 1 + a 12 x 2 +... + a 1n x n 0 a L A (X) = A X = 21 x 1 + a 22 x 2 +... + a 2n x n. = 0., a k1 x 1 + a k2 x 2 +... + a kn x n 0 ovvero l insieme delle soluzioni del sistema lineare omogeneo che ha A come matrice dei coefficienti. Se (A B) è la matrice completa di un sistema compatibile, una soluzione è un vettore colonna X tale che L A (X) = B. Risolvere il sistema vuol dire quindi trovare tutti i vettori che hanno per immagine un vettore B fissato. Il sistema è compatibile se e solo se B è nell immagine di L A. Proposizione 14.1.1. Data una soluzione X 0 di un sistema lineare compatibile A X = B, (14.1) tutte e sole le soluzioni di (14.1) si ottengono aggiungendo ad X 0 un elemento di N (L A ), ovvero una soluzione del sistema omogeneo associato. Chiameremo X 0 una soluzione particolare di (14.1). Dimostrazione. Sia Y una soluzione del sistema. Allora A(Y X 0 ) = A Y A X 0 = B B = 0, ovvero Y X 0 risolve il sistema omogeneo associato. Viceversa se A Z = 0, allora detto Y = X 0 + Z si ha A Y = A X 0 + A Z = B + 0 = B, ovvero Y è soluzione del sistema lineare. Soluzione particolare 14.2 Rango di una matrice Siano e i i vettori della base canonica di R n. E immediato verificare che l immagine di e i tramite L A è data dall i-esima colonna della matrice A: a 1i a 2i L A (e i ) =. 102 a ki

per ogni i = 1,..., n. Siccome una applicazione lineare manda generatori in generatori, le colonne di A generano l immagine di L A. Indichiamo con ρ colonne (A), detto rango per colonne di A, la dimensione dello spazio generato dalle colonne di A; ovvero la dimensione dell immagine di L A. Indichiamo con ρ righe (A) = ρ colonne ( t A), detto rango per righe di A, la dimensione dello spazio generato dalle righe di A. Rango per colonne Rango per righe Teorema 14.2.1. Il rango per righe è uguale al rango per colonne: ρ righe (A) = ρ colonne (A) per ogni A R k,n. Tale numero sarà chiamato rango di A ed indicato con ρ(a). Dimostrazione. Come illustrato nella sezione 12.4, la dimensione dello spazio generato dalle righe di A si può calcolare riducendo la matrice e contando le righe non nulle della matrice ridotta ottenuta, sia essa A e m il numero di righe non nulle. Quindi ρ righe (A) = m. Il sistema omogeneo AX = 0 è equivalente ad A X = 0, e per la proposizione 11.3.4 le soluzioni formano uno spazio vettoriale di dimensione n m. Quindi dim N (L A ) = n m. Per il teorema della dimensione (teorema 13.2.5), dim N (L A ) + dim L A (R n ) = dim(r n ) = n. Ma per definizione dim L A (R n ) = ρ colonne (A). Quindi ρ colonne (A) = n dim N (L A ) = n (n m) = m = ρ righe (A). Corollario 14.2.2. Sia A R k,n. La dimensione dello spazio delle soluzioni del sistema omogeneo AX = 0 è n ρ(a). Segue inoltre dalla proposizione 14.1.1 che: Corollario 14.2.3. Se AX = B è un sistema compatibile di k equazioni in n incognite, tutte e sole le soluzioni sono della forma X = X 0 + t 1 X 1 +... + t m X m dove: m = n ρ(a), t 1,..., t m sono parametri reali, 103

X 1,..., X m formano una base dello spazio delle soluzioni del sistema omogeneo associato, X 0 è una soluzione particolare del sistema AX = B. Teorema 14.2.4 (Rouché-Capelli). Un sistema di matrice completa (A B) è compatibile se e solo se ρ(a B) = ρ(a). Dimostrazione. Per riduzione trasformiamo (A B) in (A B ), con A ridotta per righe. Il sistema A X = B è compatibile se e solo se non contiene equazioni del tipo 0 = b, con b termine noto non nullo; ovvero, se e solo se il numero di righe non nulle di A è uguale al numero di righe non nulle di (A B ). Siccome il numero di righe non nulle di A è ρ(a) ed il numero di righe non nulle di (A B ) è ρ(a B), il sistema AX = B è compatibile se e solo se ρ(a B) = ρ(a). 14.3 Proprietà del rango Evidentemente, siccome ρ righe (A) = ρ colonne ( t A) ed il rango per righe coincide con quello per colonne, si ha ρ(a) = ρ( t A) per ogni matrice A. Proposizione 14.3.1. Se A R k,n, allora ρ(a) min(k, n). Diremo che A ha rango massimo se ρ(a) = min(k, n). Dimostrazione. Se A R k,n, l immagine di L A è contenuta in R k ed ha dimensione al più pari ad k. Quindi ρ(a) k. Per lo stesso motivo, ρ( t A) n. Siccome ρ(a) = ρ( t A), ρ(a) è minore del minimo fra k ed n. Abbiamo già osservato che se A R k,n è ridotta per righe, ρ(a) è dato dal numero di righe non nulle di A. Se A R k,n è triangolare superiore completa, allora ha rango massimo. Infatti in questo caso A è ridotta per righe, ed il numero di righe non nulle è il minimo fra k e n (vedere i due casi k n e k > n a pagina 77). Lemma 14.3.2. A M n (R) ha determinante diverso da zero se e solo se ρ(a) = n. Dimostrazione. Se A 0, applicando il metodo di eliminazione di Gauss si ottiene da A una matrice A triangolare superiore completa. Le righe di una matrice triangolare superiore completa sono tutte non nulle, quindi ρ(a) = n. Viceversa se ρ(a) = n, riducendo per righe A si ottiene una matrice ridotta A che ha tutte le righe non nulle. A può essere trasformata in una matrice triangolare superiore completa A riordinando le colonne. Una matrice triangolare superiore completa 104

ha sempre determinante non nullo, e siccome A = A è uguale ad A a meno di un segno, si ricava A 0. Teorema 14.3.3 (Cramer). Un sistema di n equazioni lineari in n incognite AX = B ammette un unica soluzione se e solo se A 0, ed in tal caso la soluzione è data da X = (x 1,..., x n ) con a 11... a 1,i 1 b 1 a 1,i+1... a 1,n a 21... a 2,i 1 b 2 a 2,i+1... a 2,n..... a n1... a n,i 1 b n a n,i+1... a n,n x i = (14.2) A per i = 1,..., n. La matrice a numeratore si ottiene da A = (a ij ) sostituendo alla i-esima colonna il vettore colonna dei termini noti B = t (b 1,..., b n ). Dimostrazione. Se il sistema è compatibile, ρ(a) = ρ(a B) e le soluzioni sono dipendono da n ρ(a) parametri. La soluzione è unica se e solo se ρ(a) = n, ovvero se e solo se A 0 (per il Lemma 14.3.2). Viceversa se A 0, la matrice A è invertibile ed esiste un unico vettore X che ha per immagine, tramite L A, il vettore B. Tale vettore è dato da: Teorema di Cramer X = A 1 B. Il sistema è quindi compatibile ed ammette un unica soluzione. Sia Γ ij il complemento algebrico di a ij. Per il teorema di Laplace l elemento in posizione (i, j) della matrice A 1 è dato da c ij = A 1 Γ ji. Quindi x i = n c ijb j = A 1 n b jγ ji. j=1 j=1 Nell ultima sommatoria riconosciamo lo sviluppo di Laplace della matrice a numeratore dell equazione (14.2), fatto rispetto alla colonna i-esima. Questo conclude la dimostrazione. Anche il calcolo del rango può essere ridotto ad un calcolo di determinanti, usando il seguente teorema (enunciato senza dimostrazione), noto come teorema di Kronecker o anche teorema degli orlati. Definizione 14.3.4. Data una matrice A R k,n, una matrice quadrata M ottenuta da A eliminando k p righe e n p colonne si dirà minore di ordine p di A. Teorema 14.3.5. Una matrice A R k,n ha rango p se e solo se esiste un minore M di ordine p il cui determinante è non nullo, e tutti i minori di ordine p + 1 contenenti M hanno determinante nullo. I minori di ordine p + 1 contenenti un minore M di ordine p si dicono orlati di M, da cui il nome del teorema. Minori Teorema degli orlati Orlati 105

14.4 Esercizi Esercizio 14.4.1 (4.2.1 di [BruLan]). Determinare il rango della matrice: Soluzione 1 (per riduzione). 1 0 1 A = 2 1 1. 1 1 0 Indicando come al solito con R i le righe, per riduzione si ottiene: R 2 R 2 2R 1 1 0 1 1 0 1 R A 3 R 3 +R 1 0 1 3 R 3 R 3 R 2 A = 0 1 3. 0 1 1 0 0 4 Quindi ρ(a) = ρ(a ) = 3. Soluzione 2. Calcoliamo il determinante di A, usando lo sviluppo di Laplace rispetto alla prima riga: A = 1 1 1 0 + 2 1 1 1 = 1 + 3 = 4 0. Dal Lemma 14.3.2 segue che A ha rango massimo, ovvero ρ(a) = 3. Esercizio 14.4.2 (da 4.6.3 di [BruLan]). Determinare il rango della matrice: Soluzione 1 (per riduzione). 0 1 2 1 0 1 1 1 A = 0 2 3 2. 1 1 0 0 1 2 2 1 Riducendo A si ottiene: R 2 R 2 R 1 0 1 2 1 0 1 2 1 R 3 R 3 2R 1 R A 4 R 4 R 1 0 0 1 0 R 3 R 3 R 2 A 0 0 1 0 = 0 0 1 0 0 0 0 0. 1 1 0 0 Quindi ρ(a) = ρ(a ) = 3. 106

Soluzione 2 (con il teorema degli orlati). Chiamiamo M il minore di ordine 3 di A evidenziato: 0 1 2 1 0 1 1 1 0 2 3 2 1 2 2 1 Il determinante di M è non nullo. Infatti con lo sviluppo di Laplace rispetto alla prima colonna M = 1 1 2 3 = 1. Il suo unico orlato è l intera matrice A, e con lo sviluppo di Laplace rispetto alla prima colonna si calcola 1 2 1 A = 1 1 1 2 3 2 e questo vale 0, poiché l ultima riga è somma delle prime due (proposizione 5.4.4, punto 7). Per il teorema degli orlati, questo prova che il rango della matrice è 3. Esercizio 14.4.3. Risolvere il sistema di equazioni lineari x 1 + x 3 = 3 2x 1 + x 2 x 3 = 0 x 1 + x 2 = 3 Soluzione. La matrice dei coefficienti è la matrice A dell esercizio 14.4.1, ed il determinante è A = 4 è diverso da zero. Per il teorema di Cramer, la soluzione è unica e data da 3 0 1 0 1 1 3 1 0 x 1 = A 1 3 1 2 0 1 1 3 0 x 2 = A 1 0 3 2 1 0 1 1 3 x 3 = A Ricordiamo che la prima matrice a numeratore si ottiene sostituendo alla prima colonna di A la colonna dei termini noti (in rosso), la seconda matrice a numeratore si ottiene sostituendo alla seconda colonna di A la colonna dei termini noti, e la terza matrice a numeratore si ottiene sostituendo alla terza colonna di A la colonna dei termini noti. Calcolando i determinanti, ad esempio con lo sviluppo di Laplace rispetto alla colonna in rosso, si trova (x 1, x 2, x 3 ) = (0, 3, 3). 107

Lezione XV Esercitazione 15.1 Applicazioni lineari Esercizio 15.1.1. Per λ R si consideri la matrice 2 1 4 A = 0 5 0. 1 λ λ Determinare una base per nucleo e immagine dell endomorfismo L A : R 3 R 3. Soluzione. L immagine di L A è lo spazio generato dalle colonne di A, ovvero dalle righe di B = t A. Riordinando le righe di B si ottiene 2 0 1 1 5 λ 1 5 λ B = 1 5 λ R 1 R 2 B = 2 0 1 R 3 R 3 2R 2 B = 2 0 1, 4 0 λ 4 0 λ 0 0 λ 2 in cui abbiamo chiamato R i le righe di B e R i le righe di B. La matrice B è ridotta per righe, per ogni λ R; le righe non nulle sono una base di L A (R 3 ). Si ha: 1. Se λ 2, una base di L A (R 3 ) è formata dai vettori v 1 = (1, 5, λ), v 2 = (2, 0, 1), v 3 = (0, 0, λ 2). La dimensione di L A (R 3 ) è 3, quindi L A (R 3 ) = R 3. 2. Se λ = 2, una base di L A (R 3 ) è formata dai vettori v 1 = (1, 5, 2), v 2 = (2, 0, 1). La dimensione di L A (R 3 ) è 2. Per il teorema della dimensione, il nucleo N (L A ) ha dimensione 0 nel primo caso e 1 nel secondo. Se λ 2 si ha quindi N (L A ) = {0}. Se λ = 2, qualunque vettore non nullo X = (x 1, x 2, x 3 ) N (L A ) è una base del nucleo. Per determinare X, sostituiamo λ = 2 nell espressione di A e risolviamo il sistema A X = 0. Dette E i le righe di A, riducendo A per righe: 2 1 4 2 1 4 A E 3 E 3 1 2 E 1 0 5 0 E 3 E 3 3 10 E 2 A = 0 5 0 0 3 0 0 0 0 2 si ottiene il sistema equivalente A X = 0, ovvero { 2x1 + x 2 + 4x 3 = 0 5x 2 = 0 che risolto per sostituzione dà X = ( 2x 3, 0, x 3 ). prendendo x 3 = 1, ed è data dal vettore ( 2, 0, 1). Una base del nucleo si ottiene 108

15.2 Basi e dimensione Esercizio 15.2.1 (4.6.1 di [BruLan]). Si considerino l insieme I = {v 1, v 2, v 3, v 4, v 5 } dei vettori di R 4 : v 1 = (1, 1, 2, 1), v 2 = ( 2, 2, 4, 2), v 3 = (1, 1, 1, 1), v 4 = ( 1, 3, 3, 3), v 5 = (1, 2, 1, 2). Detto W = L(I): a) Estrarre una base B di W dall insieme di generatori I. b) Completare B ad una base di R 4. Soluzione. Sia A la matrice che ha per righe i vettori di I, ossia 1 1 2 1 2 2 4 2 A = 1 1 1 1 1 3 3 3 1 2 1 2 Riducendo per righe si ha R 3 R 2 +2R 1 1 1 2 1 1 1 2 1 R 3 R 3 R 1 R 4 R 4 +R 1 0 0 0 0 R 4 R A 5 R 5 R 1 R 4 R 3 0 0 0 0 A R = 0 2 1 2 5 2R 5 3R 3 A = 0 2 1 2 0 2 1 2 0 0 0 0 0 3 1 1 0 0 1 8. Come al solito abbiamo chiamato R i = v i le righe di A ed R i le righe di A. Una base B di W è data dalle righe R i non nulle di A, quindi B = ( R 1 = (1, 1, 2, 1), R 3 = (0, 2, 1, 2), R 5 = (0, 0, 1, 8) ). Al punto a) si chiede però di trovare una base formata da vettori di I. Per estrarre una base B dall insieme di generatori I è sufficiente prendere le righe di A corrispondenti alle righe non nulle di A. Quindi B = ( R 1 = v 1, R 3 = v 3, R 5 = v 5 ). Per completare B ad una base di R 4 è sufficiente trovare un vettore e i della base canonica che, aggiunto alla matrice A, dà una matrice che è ancora ridotta per righe: infatti, in questo caso e i è linearmente indipendente dai vettori di B, quindi non contenuto in W, quindi linearmente indipendente dai vettori di B. 109

Il vettore cercato è e 4 = (0, 0, 0, 1), infatti R 1 1 1 2 1 R 3 = 0 2 1 2 0 0 1 8 R 5 e 4 0 0 0 1 è ridotta per righe. La base di R 4 cercata è quindi (v 1, v 3, v 5, e 4 ). Esercizio 15.2.2. Si considerino i vettori di R 4 : ed i vettori di R 3 : v 1 = (1, 2, 3, 1), v 2 = (4, 2, 2, 0), v 3 = (4, 1, 9, 2), w 1 = (1, 4, 4), w 2 = (2, 2, 1), w 3 = (3, 2, 9), w 4 = ( 1, 0, 2). Determinare le dimensioni di V = L(v 1, v 2, v 3 ) e di W = L(w 1, w 2, w 3, w 4 ). Soluzione. I vettori v i formano le righe, ed i vettori w j le colonne, della matrice: 1 2 3 1 A = 4 2 2 0 4 1 9 2 Quindi dim(v ) = dim(w ) = ρ(a). Il rango può essere calcolato come al solito per riduzione o con il teorema degli orlati. Usiamo il secondo metodo. Il minore di ordine 2 evidenziato ha determinante non nullo: 1 2 4 2 = 6. Ha due orlati, ottenuti eliminando la terza e la quarta riga rispettivamente. Il loro determinante è nullo, come si verifica con lo sviluppo di Laplace rispetto alla colonna in rosso: 1 2 1 4 2 0 4 1 2 1 2 3 4 2 2 4 1 9 = 1 4 2 4 1 0 1 2 4 1 + 2 1 2 4 2 = 1 ( 12) + 0 ( 9) 2 ( 6) = 12 12 = 0, = 3 4 2 4 1 ( 2) 1 2 4 1 + ( 9) 1 2 4 2 = 3 ( 12) + 2 ( 9) 9 ( 6) = 36 18 + 54 = 0. Quindi ρ(a) = 3. 110

15.3 Sistemi lineari Esercizio 15.3.1. Si consideri il sistema lineare: x 1 x 2 + x 3 = λ λx 4 = 1 x 1 + λx 2 + x 3 + x 4 = 0 x 1 x 2 = 0 a) Stabilire per quali λ R il sistema è compatibile. b) Determinare la soluzione generale del sistema per i valori di λ per i quali è compatibile. c) Per ogni λ R, determinare una base dello spazio W delle soluzioni del sistema lineare omogeneo associato. Soluzione. Detta (A B) la matrice completa del sistema ed R i le sue righe, riduciamo la matrice dei coefficienti: 1 1 1 0 λ 1 1 1 0 λ 0 0 0 λ 1 R (A B) = 3 R 3 R 1 0 0 0 λ 1 1 λ 1 1 0 0 λ + 1 0 1 λ 1 1 0 0 0 1 1 0 0 0 1 1 1 0 λ R 2 R 4 (A B 1 1 0 0 0 ) = 0 λ + 1 0 1 λ 0 0 0 λ 1 1 1 1 0 λ R 3 R 3 +R 4 (A B 1 1 0 0 0 ) = 0 λ + 1 0 λ + 1 1 λ. 0 0 0 λ 1 Le matrici A e (A B ) sono ridotte per righe per ogni valore di λ. Ricordiamo che ρ(a) è il numero di righe non nulle di A e ρ(a B) è il numero di righe non nulle di (A B ). Distinguiamo due casi: i) se λ = 0 o λ = 1, ρ(a) = 3 ρ(a B) = 4 ed il sistema non ammette soluzioni (per il teorema di Rouché-Capelli); ii) se λ / {0, 1}, ρ(a) = ρ(a B) = 4 ed il sistema è compatibile. In risposta al punto a): il sistema è compatibile se e solo se λ / {0, 1}. 111

Per λ / {0, 1} le soluzioni si determinano risolvendo il sistema equivalente di matrice completa (A B ), ovvero x 1 x 2 + 1x 3 = λ 1x 1 x 2 = 0 (λ + 1)x 2 + x 4 = λ λx 4 = 1 Risolvendo per sostituzione dal basso verso l alto si ottiene la risposta al punto b): (x 1, x 2, x 3, x 4 ) = ( λ+λ 1 λ+1, λ+λ 1 λ+1, λ, λ 1 ). Passiamo al punto c). Il sistema omogeneo associato è equivalente al sistema A X = 0, ossia x 1 x 2 + 1x 3 = 0 1x 1 x 2 = 0 (λ + 1)x 2 + x 4 = 0 λx 4 = 0 Lo spazio W delle soluzioni ha dimensione 4 ρ(a), ossia 0 nel caso ii) e 1 nel caso 1. Se λ = 0, risolvendo per sostituzione si trova (x 1, x 2, x 3, x 4 ) = (t, t, 0, t) con t R. Una base di W è quindi data dal vettore (1, 1, 0, 1). Se λ = 1, risolvendo per sostituzione si trova (x 1, x 2, x 3, x 4 ) = (t, t, 0, 0) con t R. Una base di W è quindi data dal vettore (1, 1, 0, 0). 112

Lezione XVI Endomorfismi semplici Sommario: matrice del cambiamento di base; matrici simili e coniugate; matrici diagonalizzabili/endomorfismi semplici. Rotazioni nel piano. 16.1 Matrice del cambiamento di base Consideriamo due basi B = (v 1,..., v n ) e B = (v 1,..., v n) di uno spazio vettoriale V. Possiamo allora scrivere i vettori v i nella base B: v 1 = a 11 v 1 + a 12 v 2 +... + a 1n v n, v 2 = a 21 v 1 + a 22 v 2 +... + a 2n v n,.. v n = a n1 v 1 + a n2 v 2 +... + a nn v n. Definiamo tre matrici n n: a 11 a 12... a 1n v 1 v 1 a A = 21 a 22... a 2n..., E = v 2., v E = 2.. a n1 a n2... a nn v n Si ha allora: E = A E. La matrice A, i cui elementi sono le componenti dei vettori della base B nella base B, è detta matrice del cambiamento di base da B a B. Analogamente i vettori v i si possono scrivere nella base B, e chiameremo A la matrice del cambiamento di base da B a B: v n Matrice del cambiamento di base E = A E. Proposizione 16.1.1. La matrice A del cambiamento di base da B a B è invertibile, e la sua inversa è la matrice A del cambiamento di base da B a B. Dimostrazione. Per l associatività del prodotto righe per colonne E = A E = A (A E) = (A A) E. (16.1) Poiché le righe di E sono una base di R n, il rango è ρ(e) = n e la matrice E è invertibile (Lemma 14.3.2). Moltiplicando ambo i membri di (16.1) per E 1 da destra, si ottiene: A A = I n. 113

Quindi A = A 1. E naturale chiedersi che relazione c è tra le matrici rappresentative di una applicazione lineare f : V V (un endomorfismo di V ) in due basi diverse di V. Ricordiamo che B = (b ij ) si dice matrice rappresentativa di f nella base B se: f(v 1 ) = b 11 v 1 + b 21 v 2 +... + b n1 v n, f(v 2 ) = b 12 v 1 + b 22 v 2 +... + b n2 v n,.. f(v n ) = b 1n v 1 + b 2n v 2 +... + b nn v n, e in maniera simile è definita la matrice rappresentativa B = (b ij) di f nella base B. In notazione matriciale, dette F ed F le matrici f(v 1 ) f(v 1) f(v F = 2 )., F f(v = 2)., f(v n ) f(v n) si ha F = t B E, F = t B E. Proposizione 16.1.2. Le matrici rappresentative B e B sono legate dalla relazione: t B = A tb A 1, o equivalentemente B = ( t A) 1 B ta. Dimostrazione. Come prima cosa, dalla linearità di F segue che f(v i) = f(a i1 v 1 + a i2 v 2 +... + a in v n ) = a i1 f(v 1 ) + a i2 f(v 2 ) +... + a in f(v n ) o in forma matriciale Quindi F = A F. t B E = A tb E. Usando E = A E = A 1 E si ottiene: t B E = A tb A 1 E, e siccome la matrice E è invertibile, si ha t B = A tb A 1. 114

Applicando la trasposizione ambo i membri di questa uguaglianza, e usando la proprietà della trasposizione di invertire l ordine in un prodotto (proposizione 10.2.5, punto ii), si trova la relazione equivalente B = t (A tb A 1 ) = ( t A) 1 B ta. Esempio 16.1.3. In R 2, si considerino le basi B = ( v 1 = (1, 0), v 2 = (0, 1) ) e B = ( v 1 = (1, 1), v 2 = ( 1, 1) ). Le matrici del cambiamento di base sono date da ( ) 1 1 A =, A = A 1 = 1 ( ) 1 1. 1 1 2 1 1 Se f : R 2 R 2 è l applicazione lineare f(x, y) = ( y, x) la matrice rappresentativa nella base B è ( ) 0 1 B = 1 0 e la matrice rappresentativa nella base B è B = ( t A) 1 B ta = 1 ( )( )( ) ( ) 1 1 0 1 1 1 1 0 =. 2 1 1 1 0 1 1 0 1 La matrice B si poteva calcolare direttamente notando che f(v 1 ) = f(1, 1) = ( 1, 1) = v 1, f(v 2 ) = f(1, 1) = (1, 1) = v 2. L applicazione f è una riflessione nel piano rispetto alla bisettrice del II e IV quadrante, come mostrato in figura. v 2 v 1 (x, y) y y x x ( y, x) I punti della bisettrice, corrispondenti ai vettori proporzionali a v 2 = (1, 1), sono lasciati invariati da f. I punti fuori dalla bisettrice vengono riflessi rispetto ad essa. 115

16.2 Matrici simili e coniugate Definizione 16.2.1. Due matrici A, A M n (R) si dicono: simili se sono matrici rappresentative di uno stesso endomorfismo f : R n R n in due basi B e B di R n ; coniugate se esiste una matrice P M n (R) invertibile tale che A = P 1 AP. Matrici simili e coniugate Osservazione 16.2.2. Le due basi nella definizione precedente non devono essere necessariamente distinte. In particolare, una matrice è sempre simile a se stessa. Proposizione 16.2.3. A e A sono simili se e solo se sono coniugate. In questo caso, t P è la matrice del cambiamento di base da B a B. Dimostrazione. Se A e A sono simili, ovvero sono matrici rappresentative di un endomorfismo f : R n R n in due basi B e B rispettivamente, allora per la proposizione 16.1.2 sono legate dalla relazione A = P 1 AP, dove t P è la matrice del cambiamento di base da B a B. Quindi A e A sono coniugate. Viceversa, supponiamo esista una matrice invertibile P tale che A = P 1 AP. Poniamo f = L A, B = (e 1,..., e n ) uguale alla base canonica di R n e B = (v 1,..., v n) la base i cui vettori formano le colonne della matrice P. I vettori della base canonica sono le righe della matrice identica, quindi e 1 v 1 e E = 2. = I v n, E = 2. = t P. e n v n La matrice del cambiamento di base da B a B è esattamente t P, poiché E = t P I n = t P E. La matrice rappresentativa di f nella base canonica è chiaramente A. Per la proposizione 16.1.2, La matrice rappresentativa di f nella base B è data da P 1 AP = A. Le matrici A e A sono quindi simili. Definizione 16.2.4. Una matrice A si dice diagonalizzabile se è simile ad una matrice diagonale, ovvero λ 1 0 0... 0 0 λ 2 0... 0 = 0 0 λ 3... 0.... Matrici diagonalizzabili con λ 1,..., λ n R. 0 0 0... λ n 116

Un endomorfismo f di V si dice semplice se esiste una base B = (v 1,..., v n ) di V in cui è rappresentato da una matrice diagonale, ovvero Endomorfismi semplici f(v 1 ) = λ 1 v 1 + 0 v 2 + 0 v 3 +... + 0 v n = λ 1 v 1, f(v 2 ) = 0 v 1 + λ 2 v 2 + 0 v 3 +... + 0 v n = λ 2 v 2, f(v 3 ) = 0 v 1 + 0 v 2 + λ 3 v 3 +... + 0 v n = λ 3 v 3,.. f(v n ) = 0 v 1 + 0 v 2 + 0 v 3 +... + λ n v n = λ n v n. Proposizione 16.2.5. L endomorfismo L A è semplice se e solo se A è diagonalizzabile. Dimostrazione. La matrice rappresentativa di L A nella base canonica è A. Se L A è semplice, esiste una base in cui la matrice rappresentativa è diagonale, quindi A è simile ad una matrice diagonale, ovvero diagonalizzabile. Viceversa, se A è diagonalizzabile, ovvero A = P P 1 con diagonale e P invertibile, allora nella base formata dalle colonne di P l endomorfismo f = L A è rappresentato dalla matrice diagonale. Quindi L A è semplice. Esempio 16.2.6. La matrice B dell esempio 16.1.3 è diagonalizzabile, essendo simile alla matrice B, che è diagonale. Anche la matrice B dell esempio 16.1.3 è diagonalizzabile, essendo già in forma diagonale. La matrice identica I n è diagonale, quindi diagonalizzabile. La trasformazione identica L In è rappresentata dalla matrice identica in ogni base di R n, poiché (per la proprietà dell elemento neutro e dell inverso) l unica matrice simile alla matrice identica è la matrice identica stessa: P 1 I n P = P 1 P = I n. L endomorfismo f : R 2 R 2, f(x, y) = (2x, 3y), è semplice, essendo rappresentato nella base canonica dalla matrice diagonale ( ) 2 0 A =. 0 3 L endomorfismo f : R 2 R 2, f(x, y) = (x + 2y, 3x + 2y), è semplice, essendo rappresentato nella base B = ( v 1 = (2, 3), v 2 = (1, 1) ) dalla matrice ( ) 4 0 A =. 0 1 117

Come mostrato nel seguente esempio, non tutti gli endomorfismi sono semplici, e non tutte le matrici sono diagonalizzabili. Esempio 16.2.7. L endomorfismo f : R 2 R 2, f(x, y) = ( y, x), (16.2) non è semplice. In altre parole la sua matrice rappresentativa A nella base canonica: ( ) 0 1 A = 1 0 non è diagonalizzabile. Infatti, supponiamo per assurdo che esista un vettore v = (x, y) non nullo ed uno scalare λ R tale che f(v) = λv. Allora (x, y) risolve il sistema { y = λx x = λy Tale sistema ha però come unica soluzione quella nulla, qualunque sia il valore di λ. Un problema che si presenta spesso nelle applicazioni consiste, dato un endomorfismo di uno spazio vettoriale, nel determinare una base (se esiste) in cui è rappresentato da una matrice diagonale. Vedremo nel prossimo capitolo come si risolve questo problema. Osservazione 16.2.8. Notiamo che l applicazione (16.2) rappresenta una rotazione antioraria di 90 rispetto all origine degli assi, come si evince dalla figura qui sotto. ( y, x) x (x, y) y y x 16.3 Esercizio: rotazioni nel piano Sia X = t (x 1, x 2 ) R 2 un vettore non nullo ed Y = t (y 1, y 2 ) un secondo vettore della stessa lunghezza ottenuto da X con una rotazione (rispetto all origine) in senso antiorario di un angolo ϑ. Vogliamo risolvere il seguente problema: Esercizio 16.3.1. Esprimere (y 1, y 2 ) in funzione di (x 1, x 2 ). 118

y 2 Y ϑ β α X x 2 y 1 x 1 Figura 6: Rotazione nel piano La situazione è illustrata in figura 6. Proposizione 16.3.2. Si ha y 1 = x 1 cos ϑ x 2 sin ϑ, y 2 = x 2 cos ϑ + x 1 sin ϑ, ovvero Y = L R(ϑ) (X) dove abbiamo chiamato R(ϑ) la matrice: ( ) cos ϑ sin ϑ R(ϑ) :=. (16.3) sin ϑ cos ϑ Dimostrazione. Detto r = X = Y il raggio del cerchio, si ha x 1 = r cos α, x 2 = r sin α, y 1 = r cos β e y 2 = r sin β. Poiché β = α + ϑ, usando le formule di addizione e sottrazione di seno e coseno si ottiene: y 1 = r cos(α + ϑ) = r cos α cos ϑ r sin α sin ϑ = x 1 cos ϑ x 2 sin ϑ, y 2 = r sin(α + ϑ) = r sin α cos ϑ + r cos α sin ϑ = x 2 cos ϑ + x 1 sin ϑ. L applicazione lineare L R(ϑ) : R 2 R 2 è quindi una rotazione (rispetto all origine) in senso antioriario di un angolo ϑ. Le rotazioni soddisfano numerose proprietà, la cui trattazione va oltre gli scopi di questo corso. Le matrici di rotazione non sono diagonalizzabili (su questo torneremo più avanti). 119

Lezione XVII Autovalori e autovettori Sommario: autovalori, autovettori, autospazi; polinomio caratteristico; molteplicità geometrica e algebrica di un autovalore. Esempi. 17.1 Autovalori e autovettori Definizione 17.1.1. Sia f : V V una applicazione lineare e v V un vettore non nullo. Se esiste λ R tale che f(v) = λv, Autovalori e autovettori diremo che λ è un autovalore di f e che v è un autovettore di f associato a λ. In altre parole, v è autovettore di f se è trasformato da f in un vettore parallelo al vettore v stesso. Osservazione 17.1.2. Un endomorfismo f è semplice (definizione 16.2.4) se esiste una base di V fatta di autovettori di f. Definizione 17.1.3. Data A M n (R), diremo che v R n è un autovettore di A di autovalore λ se v è autovettore di L A di autovalore λ, ovvero soddisfa: Av = λv. Osservazione 17.1.4. A M n (R) è diagonalizzabile (definizione 16.2.4) se esiste una base di V fatta di autovettori di L A. Esempio 17.1.5. Siano a, b R e sia f : R 2 R 2 l applicazione f(x, y) = (ax, by). I vettori e 1 = (1, 0) ed e 2 = (0, 1) sono autovettori di f: f(e 1 ) = a e 1, f(e 2 ) = b e 2, associati agli autovalori a e b, rispettivamente. Sia ( ) 3 2 A =. 0 1 Il vettore e 1 = (1, 0) è autovettore di A di autovalore 3: Ae 1 = 3e 1. Il vettore v = (1, 1) è autovettore di A di autovalore 1: infatti, Av = v. 120

Esempio 17.1.6. La matrice A = 1 ( ) 1 1 2 1 1 non possiede autovettori. Infatti, per assurdo un autovettore v = (x 1, x 2 ) di autovalore λ dovrebbe risolvere il sistema { x1 x 2 = 2 λx 1 x 1 + x 2 = 2 λx 2 Ma tale sistema non è compatibile (Esercizio: verificare che il sistema non ammette soluzioni). Notiamo che A rappresenta una rotazione (antioraria, fatta rispetto all origine) di 45, come si vede sostituendo ϑ = 45 nell equazione (16.3). In generale, nessuna matrice di rotazione R(ϑ) possiede autovettori 9, poiché non esiste nessun vettore non nullo v che con una rotazione è trasformato in un vettore parallelo a v. Lemma 17.1.7. Se A = P P 1, con λ 1 0 0... 0 0 λ 2 0... 0 = 0 0 λ 3... 0.... (17.1) 0 0 0... λ n diagonale (λ 1,..., λ n R). Allora la colonna i-esima di P è un autovettore di A di autovalore λ i. Dimostrazione. Sia A = P P 1 con P = (p ij ) invertibile e come nell equazione (17.1). Evidentemente A P = (P P 1 )P = P (P 1 P ) = P I n = P. Indicando con X i le colonne di P, si ha A P = ( ) A X 1, A X 2,..., A X n, p 11 p 12 p 13... p 1n λ 1 0 0... 0 p 21 p 22 p 23... p 2n 0 λ 2 0... 0 P = p 21 p 22 p 23... p 2n 0 0 λ 3... 0........ p n1 p n2 p n3... p nn 0 0 0... λ n 9 tranne, ovviamente, il caso in cui ϑ è un multiplo di 360 : in questo caso R(ϑ) è la matrice identica. 121

λ 1 p 11 λ 2 p 12 λ 3 p 13... λ n p 1n λ 1 p 21 λ 2 p 22 λ 3 p 23... λ n p 2n = λ 1 p 21 λ 2 p 22 λ 3 p 23... λ n p 2n.... λ 1 p n1 λ 2 p n2 λ 3 p n3... λ n p nn = ( ) λ 1 X 1, λ 2 X 2,..., λ n X n. L uguaglianza A P = P è quindi equivalente a A X i = λ i X i i = 1,..., n, ovvero X i è autovettore di A di autovalore λ i. E naturale domandarsi se la matrice A del lemma 17.1.7 possiede altri autovalori oltre agli elementi di matrice di. Vedremo che la risposta è negativa. Definizione 17.1.8. Se λ è un autovalore di f, chiameremo autospazio di f associato a λ l insieme: V λ = { v V : f(v) = λv }. Per estensione, se f = L A diremo che V λ è un autospazio della matrice A. Autospazio Proposizione 17.1.9. Per ogni f e per ogni suo autovalore λ, l autospazio V λ è un sottospazio vettoriale di V. Dimostrazione. Come al solito dobbiamo provare che per ogni v 1, v 2 V λ e per ogni a 1, a 2 R, la combinazione lineare a 1 v 1 +a 2 v 2 appartiene a V λ. Per ipotesi f(v i ) = λv i. Per la linearità di f si ha f(a 1 v 1 + a 2 v 2 ) = a 1 f(v 1 ) + a 2 f(v 2 ) = a 1 λv 1 + a 2 λv 2 = λ(a 1 v 1 + a 2 v 2 ). Quindi a 1 v 1 + a 2 v 2 è autovettore di f con autovalore λ, ovvero appartiene a V λ. Segue dalla precedente proposizione che l autovettore di f associato ad un autovalore λ non è mai unico. Ad esempio se 0 v V λ, allora anche il vettore v appartiene a V λ (così come il vettore av per ogni a R). Esempio 17.1.10. Sia f : R 2 R 2 l applicazione f(x, y) = (2x, 3y). Gli autospazi di f sono dati da: V 2 = { (x, 0) : x R }, V 3 = { (0, y) : y R }. Sia f : R 2 R 2 l applicazione f(x, y) = (3x + 2y, y). Gli autospazi di f sono dati da: V 1 = { (t, t) : t R }, V 3 = { (t, 0) : t R }. 122

Proposizione 17.1.11. Sia f : V V una applicazione lineare e siano v 1, v 2 due autovettori di f associati ad autovalori λ 1, λ 2 distinti (cioè λ 1 λ 2 ). Allora {v 1, v 2 } sono linearmente indipendenti. Dimostrazione. Sia per assurdo v 2 = av 1. Allora λ 2 v 2 = f(v 2 ) = f(av 1 ) = af(v 1 ) = aλ 1 v 1 = λ 1 v 2. Quindi (λ 1 λ 2 )v 2 = 0. Ma λ 1 λ 2 0 per ipotesi, e v 2 0 per definizione di autovettore. Abbiamo raggiunto un assurdo: v 2 non può essere proporzionale a v 1, ovvero i due vettori sono linearmente indipendenti (teorema 6.1.8). La proposizione precedente si può generalizzare come segue. Proposizione 17.1.12. Sia f : V V una applicazione lineare e siano v 1, v 2,..., v k degli autovettori di f associati ad autovalori λ 1, λ 2,..., λ k distinti (λ i λ j i j). Allora v 1, v 2,..., v k sono linearmente indipendenti. Dimostrazione. Un autovettore è per definizione non nullo, quindi v 1 0. Per il teorema 6.1.8 è sufficiente dimostrare, per ogni i = 2,..., k, che v i non è combinazione lineare dei vettori v 1, v 2,..., v i 1. La dimostrazione procede per induzione. Supponiamo che sia vera per v i 1 (v i 1 non è combinazione lineare dei vettori v 1, v 2,..., v i 2, ovvero i vettori v 1, v 2,..., v i 1 sono linearmente indipendenti). Ammettiamo per assurdo che Allora v i = a 1 v 1 + a 2 v 2 +... + a i 1 v i 1. f(v i ) = a 1 f(v 1 ) + a 2 f(v 2 ) +... + a i 1 f(v i 1 ) = a 1 λ 1 v 1 + a 2 λ 2 v 2 +... + a i 1 λ i 1 v i 1. Ma deve essere anche f(v i ) = λ i v i = λ i a 1 v 1 + λ i a 2 v 2 +... + λ i a i 1 v i 1. Sottraendo le ultime due equazioni si trova: a 1 (λ 1 λ i )v 1 + a 2 (λ 2 λ i )v 2 +... + a i 1 (λ i 1 λ i )v i 1 = 0. Per ipotesi induttiva, i vettori v 1, v 2,..., v i 1 sono linearmente indipendenti e dalla precedente equazione si ricava a j (λ j λ i ) = 0 j = 1,..., i 1. 123

Siccome per ipotesi λ j λ i 0, i coefficienti a j devono essere tutti nulli. Quindi v i = 0, contraddicendo l ipotesi che si tratta di un autovettore. Questo dimostra il passo induttivo: v i non può essere combinazione lineare dei vettori v 1, v 2,..., v i 1. Corollario 17.1.13. Se V è uno spazio vettoriale di dimensione n, un endomorfismo f : V V ha al più n autovalori distinti. Una matrice A M n (R) ha al più n autovalori distinti. Dimostrazione. Il primo punto segue dalla proposizione 17.1.12 e dal fatto che in V non è possibile trovare più di n vettori linearmente indipendenti. Il secondo punto si ottiene dal primo quando f = L A e V = R n. 17.2 Polinomio caratteristico Un problema tipico consiste nel determinare autovalori ed autovettori di un endomorfismo o di una matrice, e di stabilire se l endomorfismo è semplice e la matrice diagonalizzabile. Lo studio di autovalori ed autovettori di un endomorfismo f si può ridurre al caso delle matrici scegliendo una base (qualsiasi) per il dominio di f, e studiando la matrice rappresentativa in quella base. In questo paragrafo vediamo come si risolve il problema nel caso delle matrici. Data A = (a ij ) M n (R) e X R n, l equazione A X = λx si può riscrivere nella forma (A λi n )X = 0 (17.2) Condizione necessaria e sufficiente affinché il sistema omogeneo (17.2) ammetta soluzioni non nulle è che la matrice dei coefficienti sia non invertibile, ossia che il suo determinante sia zero: a 11 λ a 12 a 13... a 1n a 21 a 22 λ a 23... a 2n A λi n = a 31 a 32 a 33 λ... a 3n = 0. (17.3).... a n1 a n2 a n3... a nn λ Il determinante (17.3) è un polinomio a coefficienti reali di grado n nella variabile λ, detto polinomio caratteristico di A ed indicato con p A (λ). Il polinomio caratteristico è della forma Polinomio caratteristico p A (λ) = A λi n = ( 1) n λ n + c 1 λ n 1 + c 2 λ n 2 +... + c n 1 λ + c n 124

con coefficienti c i R che dipendono dalla matrice A. In particolare, c n = A è il determinante di A e ( 1) n 1 c 1 = a 11 + a 22 + a 33 +... + a nn è la somma degli elementi sulla diagonale, ed è detto traccia della matrice A. Abbiamo detto che λ 0 R è autovalore di A, ossia esiste un vettore non nullo X tale che AX = λ 0 X, se e solo se p A (λ 0 ) = 0. Gli autovalori di A sono quindi le radici reali del polinomio caratteristico. Traccia Osservazione 17.2.1. Gli autovalori di A sono le radici reali del polinomio caratteristico p A (λ). Osservazione 17.2.2. Per il teorema di Binet, se P è una matrice invertibile allora P 1 (A λi n )P = P 1 (A λi n ) P = A λi n, ovvero matrici coniugate hanno lo stesso polinomio caratteristico. In particolare, le matrici rappresentative di un endomorfismo f hanno tutte lo stesso polinomio caratteristico, e le radici reali di tale polinomio sono gli autovalori di f. Osservazione 17.2.3. Una conseguenza dell osservazione precedente è che due matrici coniugate hanno lo stesso determinante e la stessa traccia. Esempio 17.2.4. Se ( ) a11 a 12 A = a 21 a 22 è una matrice 2 2, il suo polinomio caratteristico è dato da A λi 2 = a 11 λ a 12 a 21 a 22 λ = λ2 (a 11 + a 22 )λ + a 11 a 22 a 12 a 21. Esempio 17.2.5. Se il polinomio caratteristico è ( ) 0 1 A = 1 0 p A (λ) = λ 2 + 1. Tale polinomio non ammette radici reali 10, e quindi A non possiede autovettori. 10 Le sue radici sono λ = ± 1 = ±i, con i unità immaginaria dei numeri complessi. 125

Esempio 17.2.6. Sia 3 1 1 A = 1 0 2. 1 2 0 Il polinomio caratteristico è dato da 3 λ 1 1 p A (λ) = 1 λ 2 1 2 λ = (3 λ) λ 2 2 λ 1 1 2 λ + 1 1 λ 2 = (3 λ)(λ 2 4) ( λ 2) + (2 + λ) = λ 3 + 3λ 2 + 6λ 8 (calcolato con lo sviluppo di Laplace rispetto alla prima colonna). Il polinomio si può fattorizzare come segue: p A (λ) = (λ 1)(λ 4)(λ + 2) e gli autovalori di A sono dati da λ = 1, 4, 2. Metodo pratico di ricerca degli autovalori e autovettori di A: 1. si determinano gli autovalori, ovvero le radici reali del polinomio caratteristico; 2. per ogni autovalore λ, si determinano gli autovettori associati risolvendo il sistema omogeneo (A λi n )X = 0. Lo spazio delle soluzioni è l autospazio V λ, e la sua dimensione è data da dim(v λ ) = n ρ(a λi n ) in cui ρ(a λi n ) è il rango di A λi n (corollario 14.2.2). Definizione 17.2.7. Chiamiamo molteplicità geometrica dell autovalore λ di A, indicata con g λ, la dimensione dell autospazio associato: g λ = dim(v λ ). Molteplicità geometrica Se λ 0 è una radice di p A (λ), allora il polinomio si può fattorizzare come segue: p A (λ) = (λ λ 0 ) k q(λ) dove q(λ) è un polinomio e q(λ 0 ) 0. L esponente k è detto molteplicità di λ 0. 126

Definizione 17.2.8. Chiamiamo molteplicità algebrica dell autovalore λ di A, indicata con m λ, la sua molteplicità come radice del polinomio caratteristico. Molteplicità algebrica Teorema 17.2.9. Per ogni autovalore λ 0 di A, la molteplicità geometrica è minore o uguale alla molteplicità algebrica: g λ0 m λ0. Dimostrazione. Supponiamo g λ0 = k. Possiamo prendere una base (v 1,..., v k ) di V λ0 e completarla ad una base B = (v 1,..., v k, v k+1,..., v n ) di R n. Siccome (A λi n )v i = (λ 0 λ)v i per ogni i k, l applicazione lineare L A λin nella base B è rappresentata da una matrice λ 0 λ 0... 0... 0 λ 0 λ... 0........ ( ) λ0 λi k M = = 0 0... λ 0 λ... 0 0 0... 0... 0 0... 0........ 0 0... 0... dove 0 è la matrice nulla con n k righe e k colonne ed i blocchi indicati con un asterisco sono arbitrari. Il polinomio caratteristico è p A (λ) = M. Facendo k volte lo sviluppo di Laplace rispetto alla prima riga si trova p A (λ) = (λ 0 λ) k q(λ) dove q(λ) è un polinomio in λ. La molteplicità algebrica di λ 0 è k se λ 0 non è una radice di q(λ), altrimenti è maggiore di k. Questo prova che m λ0 k = g λ0. Esempio 17.2.10. Sia A la matrice 1 2 3 A = 0 1 5 0 0 1 Siccome A λi 3 è una matrici triangolare, il determinante è il prodotto degli elementi sulla diagonale: p A (λ) = A λi 3 = (1 λ) 3. 127

Quindi λ = 1 è autovalore di molteplicità algebrica m λ = 3. Determiniamo la molteplicità geometrica. Dobbiamo risolvere il sistema (A I 3 )X = 0 ovvero { 2x2 + 3x 3 = 0 5x 3 = 0 La soluzione è x 2 = x 3 = 0 e x 1 = t R arbitrario. L autospazio associato a λ = 1 è quindi V 1 = { (t, 0, 0) : t R } e la molteplicità geometrica dell autovalore è dim(v 1 ) = 1 ed è strettamente minore della molteplicità algebrica. Esempio 17.2.11. Gli autovalori di una matrice triangolare superiore sono gli elementi sulla diagonale. Se infatti a 11 a 12 a 13... a 1n 0 a 22 a 23... a 2n A = 0 0 a 33... a 3n.... Matrici triangolari superiori 0 0 0... a nn allora A λi n è una matrice triangolare, ed il determinante è dato dal prodotto degli elementi sulla diagonale: p A (λ) = A λi n = (a 11 λ)(a 22 λ)(a 33 λ)... (a nn λ). Tutte e sole le radici del polinomio caratteristico (ovvero gli autovalori di A) sono date dagli elementi a 11, a 22,..., a nn. 128

Lezione XVIII Diagonalizzazione di matrici Sommario: criteri per la diagonalizzabilità di una matrice. Esempi ed esercizi. 18.1 Diagonalizzazione Ricordiamo che un polinomio p(x) di grado n si può sempre scrivere come segue: p(x) = (x z 1 ) m 1 (x z 2 ) m 2... (x z r ) mr dove z 1,..., z r C sono radici complesse distinte di p(x) e m i è detta molteplicità della radice z i. Ad esempio x 3 + x 2 33x + 63 = (x 3) 2 (x + 7). Ovviamente m 1 + m 2 +... + m r = n. Osservazione 18.1.1. Gli autovalori di una matrice A M n (R) sono le radici reali di p A (λ). Dette λ 1,..., λ r le radici reali distinte, per la molteplicità algebrica vale la disuguaglianza m λ1 + m λ2 +... + m λ1 n, e si ha uguaglianza se e solo se tutte le radici di p A (λ) sono reali. Lemma 18.1.2. Se A = P P 1, con λ 1 0 0... 0 0 λ 2 0... 0 = 0 0 λ 3... 0.... 0 0 0... λ n diagonale (λ 1, λ 2,..., λ n R). Allora tutti e soli gli autovalori di A sono dati da λ 1, λ 2,..., λ n. Dimostrazione. Segue dall osservazione 17.2.2 che p A (λ) = p (λ) = ( 1) n (λ λ 1 )(λ λ 2 )... (λ λ n ). Le radici (reali) del polinomio caratteristico sono quindi date da λ 1, λ 2,..., λ n. 129

Osservazione 18.1.3. Notiamo che la traccia di è data da λ 1 + λ 2 +... + λ n ed il determinante da λ 1 λ 2 λ n. Come conseguenza del lemma precedente, poiché A e hanno lo stesso determinante e la stessa traccia, si ha la traccia di una matrice diagonalizzabile è la somma dei suoi autovalori (ciascuno contato con la sua molteplicità); il determinante di una matrice diagonalizzabile è il prodotto dei suoi autovalori (ciascuno contato con la sua molteplicità). Proposizione 18.1.4. La somma di autospazi di un endomorfismo f : V V è diretta. Dimostrazione. Siano λ 1,..., λ r autovalori distinti di f, e supponiamo che v V λ1 + V λ2 +... + V λr si possa scrivere in due modi v = v 1 + v 2 +... + v r = w 1 + w 2 +... + w r come somma di vettori degli autospazi, v i, w i V λi i = 1,..., r. Allora (v 1 w 1 ) + (v 2 w 2 ) +... + (v r w r ) = 0. Quindi i vettori v i w i V λi sono linearmente dipendenti. Dalla proposizione 17.1.12 si deduce che questi vettori devono essere tutti nulli (altrimenti sarebbero linearmente indipendenti), quindi v i = w i i e per ogni vettore v la decomposizione come somma di vettori degli autospazi V λi è unica. Questo prova che la somma di autospazi è diretta. Teorema 18.1.5. Un endomorfismo f : V V è semplice se e solo se V = V λ1 V λ2... V λr, dove λ 1, λ 2,..., λ r sono gli autovalori distinti di f (r n) e V λ1,..., V λr associati. gli autospazi Dimostrazione. Proviamo prima che se f è semplice, V è somma diretta degli autospazi. Sia n = dim(v ) e B = (v 1,..., v n ) una base di V formata da autovettori di f (che per ipotesi è semplice) allora: V = L(v 1,..., v n ) V λ1 + V λ2 +... + V λr ; l inclusione opposta è ovvia. Poiché la somma è diretta (prop. 18.1.4), si ha la tesi. Viceversa, sia B i una base di V λi, per i = 1,..., r. Se V è somma diretta degli autospazi di f, allora B 1 B 2... B r è una base di V, ed è ovviamente formata da autovettori di f. 130

Il teorema che segue fornisce un criterio per stabilire quando una matrice reale è diagonalizzabile (ovvero quando l endomorfismo associato è semplice). Teorema 18.1.6. Una matrice A M n (R) è diagonalizzabile se e solo se: i) tutte le radici del polinomio caratteristico sono reali; ii) ogni autovalore ha molteplicità algebrica uguale alla molteplicità geometrica. Dimostrazione. Dimostriamo prima che la condizione è necessaria. Indichiamo con λ 1, λ 2,..., λ r gli autovalori distinti di A (r n), e con g λi e m λi le molteplicità geometriche e algebriche. Per il teorema 18.1.5 (applicato ad f = L A ) si ha n = dim(v ) = dim(v λ1 V λ2... V λr ) = dim(v λ1 ) + dim(v λ2 ) +... + dim(v λr ) = g λ1 + g λ2 +... + g λr m λ1 + m λ2 +... + m λr n, dove la seconda riga segue dalla formula di Grassmann e la prima disuguaglianza segue dal teorema 17.2.9. Deve essere quindi: m λ1 + m λ2 +... + m λr = n = g λ1 + g λ2 +... + g λr e per l osservazione 18.1.1 questo significa che tutte le radici di p A (λ) sono reali. Siccome g λi m λi, la precedente uguaglianza implica anche g λi = m λi (per ogni i = 1,..., r). Questo prova i) e ii). Viceversa, se i) e ii) sono verificati, poiché tutte le radici di p A (λ) sono reali, si ha n = m λ1 + m λ2 +... + m λr = dim(v λ1 ) + dim(v λ2 ) +... + dim(v λr ) dove l ultima uguaglianza segue dall ipotesi. Quindi dim(v ) = dim(v λ1 V λ2... V λr ) e per il corollario 7.1.5: V = V λ1 V λ2... V λr. Per il teorema 18.1.5, questo prova che f = L A è semplice, ovvero A è diagonalizzabile. Corollario 18.1.7. Se A M n (R) ha n autovalori distinti, allora è diagonalizzabile. Dimostrazione. Le radici distinte di p A (λ) sono al più n. Se A ha n autovalori distinti, questi sono tutte e sole le radici di p A (λ), che ha quindi solo radici reali e con molteplicità m λi = 1 (per i = 1,..., n). Siccome 1 g λi m λi segue che g λi = m λi = 1 ed A è diagonalizzabile per il teorema 18.1.6. Questo si poteva anche dimostrare in maniera diretta, notando che se A ha n autovalori distinti, ha n autovettori linearmente indipendenti, ed n vettori linearmente indipendenti formano sempre una base di R n. 131

Ricordiamo che una matrice A M n (R) è diagonalizzabile se e solo se esiste P M n (R) invertibile tale che P 1 AP è diagonale. La matrice P, detta matrice diagonalizzante di A, si può determinare come segue. Sappiamo che le colonne di P sono autovettori di A (lemma 17.1.7). Essendo P è invertibile, ha rango massimo e le sue colonne sono n vettori linearmente indipendenti: formano quindi una base di R n. Data una matrice A M n (R) diagonalizzabile, per determinare una matrice diagonalizzante P (in generale, non unica) è sufficiente trovare una base B = (v 1,..., v n ) di R n formata da autovettori di A. Una matrice diagonalizzante è la matrice che ha i vettori v i come colonne. Matrice diagonalizzante Proposizione 18.1.8. Sia A M n (R) diagonalizzabile e B = (v 1,..., v n ) una base di R n formata da autovettori di A. Detta P la matrice che ha per colonne i vettori v i, P 1 AP è diagonale. Dimostrazione. Per ipotesi Av i = λ i v i, con λ i R autovalori di A. Dette w i le righe di P 1, la condizione P 1 P = I n equivale a { 0 se i j, w i v j = 1 se i = j. L elemento di matrice (i, j) di P 1 AP vale quindi { 0 se i j, w i Av j = w i (λ i v i ) = λ i (w i v i ) = λ i se i = j. Esempio 18.1.9. Una base di R 2 formata da autovettori della matrice ( ) 0 1 A = 1 0 è data da: v 1 = (1, 1), v 2 = ( 1, 1). Si può infatti verificare che Av 1 = v 1 e Av 2 = v 2. La matrice diagonalizzante è P = ( ( ) ) 1 1 t v t 1 v 2 =. 1 1 L inversa di P è data da P 1 = 1 2 ( ) 1 1 1 1 e si può verificare facilmente che P 1 AP = 1 ( )( )( ) ( ) 1 1 0 1 1 1 1 0 = 2 1 1 1 0 1 1 0 1 è diagonale e che gli elementi sulla diagonale sono gli autovalori di A. 132

Esercizio 18.1.10. Diagonalizziamo la matrice 3 1 1 A = 1 0 2. 1 2 0 Soluzione. Gli autovalori sono già stati calcolati nell esempio 17.2.6, e sono dati da λ 1 = 1, λ 2 = 4 e λ 3 = 2. Avendo tre autovalori distinti, A è diagonalizzabile. Una base ( v1 = (x 1, y 1, z 1 ), v 2 = (x 2, y 2, z 2 ), v 3 = (x 3, y 3, z 3 ) ) si ottiene risolvendo i sistemi lineari Av 1 = v 1, Av 2 = 4v 2, Av 3 = 2v 3. Procedendo ad esempio con il metodo di Gauss, si trova che una soluzione non nulla del primo è data da v 1 = ( 1, 1, 1), una soluzione non nulla del secondo è data da v 2 = (2, 1, 1), ed una soluzione non nulla del terzo è data da v 2 = (0, 1, 1). I tre vettori trovati formano una base di R 3 composta da autovettori di A. La matrice diagonalizzante è data da P = ( 1 2 0 ) t v t 1 v t 2 v 3 = 1 1 1 1 1 1 Verifichiamo che P 1 AP è diagonale e che gli elementi sulla diagonale sono gli autovalori di A. Determinante ed aggiunta di P sono dati da: P = 1 1 1 1 1 2 1 1 1 1 = 6, + 1 1 1 1 1 1 1 1 + 1 1 1 1 2 2 0 P = 2 0 1 1 + 1 0 1 1 1 2 1 1 = 2 1 3. + 2 0 1 1 1 0 1 1 + 1 2 2 1 3 1 1 Usando il teorema di Laplace si trova quindi: P 1 = 1 t (P ) = 1 2 2 2 2 1 1. P 6 0 3 3 133

Si può verificare che P 1 AP = 1 2 2 2 3 1 1 1 2 0 2 1 1 1 0 2 1 1 1 6 0 3 3 1 2 0 1 1 1 = 1 2 2 2 1 8 0 1 0 0 2 1 1 1 4 2 = 0 4 0 6 0 3 3 1 4 2 0 0 2 = λ 1 0 0 0 λ 2 0 0 0 λ 3 come aspettato. Abbiamo già incontrato esempi di matrici che non ammettono autovalori, e matrici che ne ammettono ma non sono diagonalizzabili. La matrice dell esempio 17.2.10 ha un autovalore con molteplicità algebrica 3 e geometrica 1, e per il teorema 18.1.6 non può essere diagonalizzata. Nel seguito diamo un esempio geometrico. Esempio 18.1.11. Per 0 < θ < 2π consideriamo la matrice cos θ sin θ 0 A = sin θ cos θ 0. 0 0 1 Se v = (x, y, 0) è un vettore del piano z = 0, allora A agisce su v come una rotazione di un angolo θ. Se v = (0, 0, z) è un vettore ortogonale al suddetto piano, allora Av = v: il vettore resta invariato. La matrice A rappresenta quindi una rotazione nello spazio tridimensionale attorno all asse z. Il vettore (0, 0, 1) è una base dell autospazio V 1. Un vettore non nullo v = (x, y, 0) non è mai autovettore di A, in quanto non può essere trasformato da una rotazione nel piano in un vettore v parallelo a v. La matrice A non ha quindi altri autovettori oltre ai vettori di V 1. Non esiste una base di R 3 formata da autovettori di A, che quindi non è diagonalizzabile. Un caso molto importante è dato dalle matrici simmetriche. Una matrice A R n si dice simmetrica se t A = A. Le matrici simmetriche si possono sempre diagonalizzare. Più in generale, vale il seguente teorema (qui enunciato senza dimostrazione): Matrici simmetriche Teorema 18.1.12. Sia A una matrice simmetrica. Allora: A è diagonalizzabile; autovettori associati ad autovalori distinti sono ortogonali; esiste una base ortonormale di R n fatta di autovettori di A. 134

18.2 Esercizi Esercizio 18.2.1. Siano A, B, C le seguenti matrici: ( ) ( ) ( ) 1 1 1 2 3 4 A =, B =, C =. 0 1 3 1 1 0 a) Determinare il polinomio caratteristico di ciascuna matrice. b) Determinare gli autovalori di ciascuna matrice. c) Stabilire quali delle tre matrici sono diagonalizzabili. Soluzione. a) p A (λ) = (λ + 1) 2, p B (λ) = λ 2 + 5, p C (λ) = λ 2 + 3λ 4 = (λ 1)(λ + 4). b) la matrice A ha autovalore 1 con molteplicità algebrica 2; B non ha autovalori reali; gli autovalori di C sono λ 1 = 1, λ 2 = 4. c) B non è diagonalizzabile. C ha due autovalori distinti, quindi è diagonalizzabile. Un autovettore v = t (x 1, x 2 ) di A deve risolvere il sistema ( 0 1 (A ( 1)I 2 )v = 0 0 )( x1 x 2 ) = ( ) 0. 0 Quindi V 1 = {(x, 0) : x R} ha dimensione 1 ed A non è diagonalizzabile (la molteplicità geometrica di λ è 1, ed è minore della molteplicità algebrica). Esercizio 18.2.2. Per t R si consideri la matrice 1 0 t 2 A = 0 t 0. 1 0 1 a) Dire per quali valori di t la matrice è diagonalizzabile. b) Per i valori di t determinati in a), trovare una base di R 3 formata da autovettori di A. Soluzione. a) il polinomio caratteristico è p A (λ) = (t λ)(λ 2 2λ + 1 t 2 ). Le sue radici sono λ 1 = t, λ 2 = 1 t, λ 3 = 1 + t. Si hanno tre casi 1. se t = 0, gli autovalori sono λ 1 = 0 e λ 2 = λ 3 = 1; A è diagonalizzabile se e solo se la molteplicità geometrica dell autovalore 1 è pari alla molteplicità algebrica, 135

ovvero uguale a 2. La molteplicità geometrica g è la dimensione del nucleo di A I 2, ovvero g = 3 ρ(a I 2 ). Poiché 0 0 0 A I 3 = 0 1 0, 1 0 0 si ha ρ(a I 2 ) = 2 e g = 1. Quindi la matrice A non è diagonalizzabile. 2. se t = 1/2, gli autovalori sono λ 1 = λ 2 = 1/2 e λ 3 = 3/2; come nel primo caso, A è diagonalizzabile se e solo se ρ(a λ 2 I 2 ) = ρ(a 1I 2 2) = 1. Evidentemente 1/2 0 1/4 A 1I 2 3 = 0 0 0. 1 0 1/2 Siccome la terza riga è il doppio della prima, il rango è 1 ed A è quindi diagonalizzabile. 3. se t / {0, 1/2} i tre autovalori sono distinti. Quindi A è diagonalizzabile. b) Diagonalizziamo A nei casi t = 1/2 e t / {0, 1/2}: 1. se t = 1/2, gli autovettori v = t (x, y, z) associati all autovalore λ 1 = λ 2 = 1/2 risolvono 1/2 0 1/4 x 0 = (A 1I 2 3)v = 0 0 0 y = 1 0 1/2 z 1 4 1 2 (2x + z) 0. (2x + z) Quindi z = 2x ed y è arbitrario. Una base di V 1/2 è data dai vettori (1, 0, 2) e (0, 1, 0). Gli autovettori v = t (x, y, z) associati all autovalore λ 3 = 3/2 risolvono 1 1/2 0 1/4 x ( 2x + z) 4 0 = (A 3I 2 3)v = 0 1 0 y = y. 1 0 1/2 z 1 ( 2x + z) 2 Quindi z = 2x e y = 0. Una base di V 3/2 è data dal vettore (1, 0, 2). I tre autovettori insieme formano una base B di R 2 : B = ( (1, 0, 2), (0, 1, 0), (1, 0, 2) ). 2. se t / {0, 1/2}, un autovettore v = t (x, y, z) associato all autovalore λ 1 = t si ottiene risolvendo 1 t 0 t 2 x (1 t)x + t 2 z 0 = (A ti 2 )v = 0 0 0 y = 0. 1 0 1 t z x + (1 t)z 136

Una soluzione è data da v 1 = (0, 1, 0). Un autovettore v = t (x, y, z) associato all autovalore λ 2 = 1 t si ottiene risolvendo t 0 t 2 x t(x + tz) 0 = (A (1 t)i 2 )v = 0 2t 1 0 y = (2t 1)y. 1 0 t z x + tz Una soluzione è data da v 2 = (t, 0, 1). Un autovettore v = t (x, y, z) associato all autovalore λ 3 = 1 t si ottiene risolvendo t 0 t 2 x t(x tz) 0 = (A (1 + t)i 2 )v = 0 1 0 y = y. 1 0 t z x tz Una soluzione è data da v 3 = (t, 0, 1). I tre vettori v 1, v 2, v 3 formano la base cercata. Esercizio 18.2.3. Per t R si considerino le matrici t 0 0 t 1 10 A = 0 2 0, B = 0 2 0. 0 0 3 0 t t a) Determinare nucleo e immagine dell endomorfismo L B : R 3 R 3. b) Si stabilisca per quali valori di t le matrici A e B sono simili. Soluzione. a) L immagine di L B è generata dalle colonne di B, ovvero dalle righe di t B. Si può trovare una base riducendo t B per righe. Dette R i le sue righe, si ha R t 0 0 1 R 3 R 2 R 1 1 2 t t R B = 3 R 2 1 2 t M = 10 0 t. 10 0 t t 0 0 La matrice M è ridotta per righe per ogni valore di t. Se t 0, ρ(b) = ρ(m) = 3 e l immagine di L B è R 3 ; se t = 0, le due righe non nulle di M formano una base dell immagine di L B, che ha quindi dimensione 2. Per il teorema della dimensione, se t 0 il nucleo è N (L B ) = {0}. Se t = 0, il nucleo ha dimensione 1 ed i suoi vettori si trovano risolvendo il sistema 0 1 10 x y + 10z 0 0 2 0 y = 2y = 0. 0 0 0 z 0 0 137

Si trova y = z = 0 e x arbitrario. Quindi N (L B ) = L{(1, 0, 0)}. b) Condizione necessaria è che A e B abbiano gli stessi autovalori. Gli autovalori di A sono t, 2, 3. Quelli di B sono le radici di p B (λ) = (t λ) 2 (2 λ). Le due matrici hanno gli stessi autovalori se e solo se t = 3. In quest ultimo caso, B è diagonalizzabile (quindi, simile ad A) se e solo se l autovalore λ = 3 ha molteplicità geometrica pari a quella algebrica (che è 2). L autospazio associato è formato dai vettori v = t (x, y, z) che risolvono: 0 1 10 x y + 10z 0 = (B 3I 2 )v = 0 1 0 y = y. 0 3 0 z 3y Quindi y = z = 0 ed x è arbitrario. Una base di V 3 è data da (1, 0, 0), e la molteplicità geometrica di λ = 3 è dim(v 3 ) = 1. Possiamo concludere che le matrici A e B non sono simili per nessun valore di t. Esercizio 18.2.4. Siano A, B, C le seguenti matrici: 2 1 0 1 1 0 1 1 1 A = 0 2 0, B = 0 2 0, C = 0 t 0. 0 0 1 0 0 2 0 0 2 a) Determinare autovalori ed autovettori di A e B. b) Stabilire se A e B sono simili. c) Esistono valori di t R per cui B e C sono simili? Soluzione. a) le tre matrici sono triangolari superiori: gli autovalori sono gli elementi sulla diagonale. Gli autovalori di A sono λ 1 = 1 e λ 2 = 2. Il primo ha molteplicità algebrica 1, il secondo 2. Gli autovettori associati, v 1 = t (x, y, z) e v 2 = t (x, y, z ), devono risolvere 1 1 0 x x + y 0 = (A λ 1 I 2 )v 1 = 0 1 0 y = y 0 0 0 z 0 e 0 1 0 0 = (A λ 2 I 2 )v 2 = 0 0 0 0 0 1 138 x y z y = 0. z

Quindi V λ1 = {(0, 0, z) : z R} e V λ2 = {(x, 0, 0) : x R}. Notiamo che la matrice A non è diagonalizzabile, poiché λ 2 ha molteplicità geometrica data da dim(v λ2 ) = 1 ed algebrica uguale a 2. Gli autovalori di B sono λ 1 = 1 e λ 2 = 2. Il primo ha molteplicità algebrica 1, il secondo 2. Gli autovettori associati, v 1 = t (x, y, z) e v 2 = t (x, y, z ), devono risolvere 0 1 0 x y 0 = (B λ 1I 2 )v 1 = 0 1 0 y = y 0 0 1 z z e 1 1 0 0 = (B λ 2I 2 )v 2 = 0 0 0 0 0 0 x y z = x + y 0 0. Quindi V λ 1 = {(x, 0, 0) : x R} e V λ 2 = {(x, x, z ) : x, z R}. I tre vettori (1, 0, 0) V λ 1 e (1, 1, 0), (1, 1, 1) V λ 2 formano una base di R 3, quindi B è diagonalizzabile (in alternativa, basta si poteva notare che la molteplicità algebrica di ciascun autovalore è uguale a quella algebrica). b) A e B non sono simili: infatti B è diagonalizzabile ed A no. c) Condizione necessaria è che B e C abbiano gli stessi autovalori, quindi t = 2. Per t = 2, C è simile a B se è diagonalizzabile, ovvero se la molteplicità geometrica dell autovalore λ = 2 è pari a 2. Determiniamo l autospazio associato. Un vettore v = t (x, y, z) è autovettore di C associato all autovalore λ = 2 se risolve 1 1 1 x x + y + z 0 = (C 2I 2 )v = 0 0 0 y = 0. 0 0 0 z 0 Quindi V 2 = {(y + z, y, z) : y, z R}. Una base di V 2 è data ad esempio dai vettori (1, 1, 0) e (1, 0, 1). La molteplicità geometrica dell autovalore λ = 2 è dim(v 2 ) = 2, quindi C è diagonalizzabile. In risposta al punto c), B e C sono simili se (e solo se) t = 2. Esercizio 18.2.5. Sia A la matrice 2 1 1 0 0 3 4 0 A = 0 0 5 0. 0 0 0 1 Riconoscere che è diagonalizzabile e determinare una matrice diagonalizzante P. 139

Soluzione. A ha quattro autovalori distinti (gli elementi sulla diagonale): λ 1 = 1, λ 2 = 2, λ 3 = 3, λ 4 = 5. E quindi diagonalizzabile. Per trovare un autovettore v = t (x 1, x 2, x 3, x 4 ) associato all autovalore λ 1 dobbiamo risolvere il sistema: 1 1 1 0 0 2 4 0 0 = (A I 2 )v = 0 0 4 0 0 0 0 0 x 1 x 2 x 3 x 4 x 1 + x 2 + x 3 = 2x 2 + 4x 3 4x 3 0 La soluzione è x 1 = x 2 = x 3 = 0 e x 4 arbitrario. Un autovettore è v 1 = (0, 0, 0, 1). In maniera simile, per trovare un autovettore associato all autovalore λ 2 risolviamo il sistema 0 1 1 0 0 1 4 0 0 = (A 2I 2 )v = 0 0 3 0 0 0 0 1 x 1 x 2 x 3 x 4 x 2 + x 3 = x 2 + 4x 3 3x 3 x 4 La soluzione è x 2 = x 3 = x 4 = 0 e x 1 arbitrario. Un autovettore è v 2 = (1, 0, 0, 0). Per λ 3 risolviamo il sistema 1 1 1 0 0 0 4 0 0 = (A 3I 2 )v = 0 0 2 0 0 0 0 2 x 1 x 2 x 3 x 4 x 1 + x 2 + x 3 = 4x 3 2x 3 2x 4 La soluzione è x 3 = x 4 = 0 e x 1 = x 2 arbitrario. Un autovettore è v 3 = (1, 1, 0, 0). Per λ 4 risolviamo il sistema 3 1 1 0 0 2 4 0 0 = (A 5I 2 )v = 0 0 0 0 0 0 0 4 x 1 x 2 x 3 x 4 3x 1 + x 2 + x 3 = 2x 2 + 4x 3 0 4x 4 La soluzione è x 4 = 0, x 2 = 2x 3 e x 1 = x 3. Un autovettore è v 4 = (1, 2, 1, 0). La matrice diagonalizzante è 0 1 1 1 P = ( ) t v t 1 v t 2 v t 0 0 1 2 3 v 4 = 0 0 0 1. 1 0 0 0 140

Lezione XIX Geometria di R 2 Sommario: rette e circonferenze nel piano; intersezioni; distanze (punto punto, punto retta, retta circonferenza); rette tangenti ad una circonferenza. Esempi. 19.1 Equazioni di una retta Sia O = (0, 0) l origine del piano cartesiano. Consideriamo due punti, P di coordinate u = (u 1, u 2 ) e Q di coordinate x = (x 1, x 2 ) di R 2, distinti e diversi dall origine. I tre punti O, P e Q sono allineati se e solo se x = tu per qualche t 0, ovvero se e solo se i corrispondenti vettori x e u sono proporzionali. Ad esempio, assumendo per semplicità che x 1 e u 1 siano diversi da zero, l inclinazione del segmento OP è l arcotangente di x 2 /x 1, l inclinazione del segmento OQ è l arcotangente di u 2 /u 1, ed i punti sono allineati se e solo se x 2 /x 1 = u 2 /u 1, ovvero esiste t 0 tale che x 1 = tu 1 e x 2 = tu 2. In figura 7a è disegnato l esempio u = (1, 2) e x = 3u = (3, 6). L equazione { x1 = tu 1 x = tu x 2 = tu 2 al variare di t R descrive tutti i punti appartenenti alla retta r 0 passante per l origine e la cui direzione è data dal vettore u = (u 1, u 2 ) (l origine si ottiene per t = 0). Sommando a tu un vettore p = (p 1, p 2 ) indipendente da t si ottiene una retta parallela ad r 0 ma passante per il punto di coordinate p = (p 1, p 2 ). La retta r passante per p e parallela ad u è quindi il luogo dei punti 11 di coordinate x date da x = p + tu { x1 = p 1 + tu 1 x 2 = p 2 + tu 2 (19.1) Equazione parametrica di una retta Come esempio, in figura 7b è disegnata (in blu) la retta di direzione u = (2, 1) e passante per il punto p = (0, 1). L equazione (19.1) è detta equazione parametrica della retta r. L equazione parametrica di una retta non è unica. Moltiplicando ad esempio il vettore u per uno scalare, la retta rappresentata non cambia (vettori proporzionali hanno la stessa direzione). Inoltre come punto p è possibile scegliere un qualsiasi punto della retta. Ad esempio le equazioni: r : x = (1, 1) + t(3, 2), r : x = (1, 1) + t(6, 4), r : x = (4, 3) + t(6, 4), 11 Un luogo geometrico è l insieme di tutti e soli i punti del piano che hanno una determinata proprietà, solitamente espressa attraverso una equazione. 141

6 x u 2 u p 1 3 (a) Vettori proporzionali (b) Retta passante per p = (0, 1) e parallela a u = (2, 1) Figura 7 descrivono la stessa retta. Le rette r e r coincidono, perché abbiamo semplicemente moltiplicato per 2 il vettore che dà la direzione della retta. Inoltre il punto (4, 3) appartiene ad r (si ottiene scegliendo t = 1 nell equazione di r), quindi anche r coincide con r. Data una retta r di equazioni parametriche (19.1), possiamo ridurre l ambiguità nella scelta del vettore che ne individua la direzione chiedendo che abbia norma 1. Esistono solo due vettori di norma 1 paralleli ad r, sono dati da ±u/ u e si dicono versori della retta. Si dice invece vettore normale ad r un qualsiasi vettore non nullo n che sia perpendicolare alla retta stessa. Ad esempio, il vettore n = ( u 2, u 1 ) è ortogonale ad u, e tutti i vettori normali sono proporzionali ad esso. Eliminando da (19.1) il parametro t si ottiene una equazione detta equazione cartesiana della retta r. Per eliminare il parametro t è sufficiente prendere in ambo i membri di (19.1) il prodotto scalare con il vettore n = ( u 2, u 1 ). Si ottiene Versore Vettore normale n x = n p u 2 x 1 + u 1 x 2 = u 2 p 1 + u 1 p 2. Chiamando a = u 2, b = u 1 e c = u 2 p 1 u 1 p 2 si trova l equazione cartesiana di una generica retta r, data da ax 1 + bx 2 + c = 0. (19.2) Abbiamo provato che (19.1) implica (19.2). Mostriamo che è vero anche il viceversa, (19.2) implica (19.1) e quindi descrive lo stesso luogo geometrico (la stessa retta). Notiamo che per ipotesi (a, b) (0, 0), poiché u (0, 0). Il rango della matrice dei coefficienti è quindi 1, e la soluzione generale di (19.2) dipende da un parametro t. Evidentemente p è una soluzione particolare, poiché Equazione cartesiana di una retta ap 1 + bp 2 + c = u 2 p 1 + u 1 p 2 + u 2 p 1 u 1 p 2 = 0. 142

La soluzione generale ha quindi la forma x = p + tv dove v è una qualsiasi soluzione non nulla dell equazione omogenea associata. Possiamo scegliere v = u, infatti au 1 + bu 2 = u 2 u 1 + u 1 u 2 = 0, ottenendo in questo modo x = p + tu, che è esattamente (19.1). Osservazione 19.1.1. L equazione (19.2) descrive una retta se e solo se (a, b) (0, 0) (se a = b = 0 l insieme delle soluzioni è l insieme vuoto, se c 0, oppure l intero piano, se c = 0). Il vettore n = (a, b) è perpendicolare alla retta di equazione (19.2). Osservazione 19.1.2. Come per le equazioni parametriche, anche l equazione cartesiana di una retta non è unica. Ad esempio, moltiplicando tutti e tre i coefficienti a, b, c per uno scalare non nullo si ottiene una equazione differente della medesima retta. Vedremo in effetti, quando parleremo di intersezioni, che due equazioni ax 1 + bx 2 + c = 0 e a x 1 + b x 2 + c = 0 descrivono la stessa retta se e solo i vettori (a, b, c) e (a, b, c ) di R 3 sono proporzionali. Supponiamo di voler risolvere il seguente problema: sia r la retta di equazione ax 1 + bx 2 + c = 0 e p = (p 1, p 2 ) un punto qualsiasi del piano. Vogliamo scrivere l equazione parametrica della retta r passante per p ed ortogonale ad r. La soluzione è semplice: r ha equazione { r x1 = p 1 + ta : (19.3) x 2 = p 2 + tb come si evince notando che la direzione di r è data dal vettore (a, b), che è perpendicolare ad r (osservazione 19.1.1). Un altro problema che può capitare è di voler trovare un equazione della retta passante per due punti dati. Siano a = (a 1, a 2 ) e b = (b 1, b 2 ) due punti distinti: è immediato trovare l equazione parametrica della retta passante per questi due punti. In (19.1) si pone p = a e si nota che la retta deve essere parallela al vettore u = b a. Un equazione parametrica è quindi data da Rette ortogonali Rette passante per due punti { x1 = a 1 + t(b 1 a 1 ) x 2 = a 2 + t(b 2 a 2 ) (19.4) Si noti che ponendo t = 0 nelle equazioni parametriche si ritrova il punto x = a, e ponendo t = 1 si trova il punto x = b. Per ottenere un equazione cartesiane basta prendere l equazione x = a + t(b a) e fare il prodotto scalare ambo i membri con il vettore normale ( u 2, u 1 ) = (a 2 b 2, b 1 a 1 ). Si ottiene (a 2 b 2 )x 1 (a 1 b 1 )x 2 + a 1 b 2 a 2 b 1 = 0. 143

b u a Figura 8 In forma matriciale, l equazione si può scrivere nella forma: x 1 a 1 x 2 a 2 b 1 a 1 b 2 a = 0. (19.5) 2 Esempio 19.1.3. Scriviamo l equazione della retta passante per i punti a = (1, 2) e b = ( 2, 4). L equazione parametrica è data da { x1 = 1 3t x 2 = 2 + 2t L equazione cartesiana è data da: x 1 1 x 2 2 3 2 = 2x 1 + 3x 2 8 = 0. Il grafico è in figura 8. 19.2 Intersezione fra due rette Date due rette r e r ci sono tre possibilità: le rette si intersecano in un punto, sono parallele (quindi hanno intersezione vuota), oppure coincidono (e l intersezione è tutta la retta). Per stabilire quale dei tre casi si verifica, si può usare il rango. L intersezione r r è il luogo dei punti le cui coordinate risolvono il sistema { ax1 + bx 2 + c = 0 a x 1 + b x 2 + c = 0 in cui la prima equazione è un equazione cartesiana della retta r, la seconda è un equazione cartesiana della retta r, e per ipotesi (a, b) (0, 0) e (a, b ) (0, 0). Indicando con A e (A B) le matrici associate al sistema: ( ) ( ) a b a b c A =, (A B) =, a b a b c 144

evidentemente il rango soddisfa 1 ρ(a) ρ(a B) 2, in cui la prima disuguaglianza segue dal fatto che ogni riga di A ha almeno un elemento non nullo. Per il teorema di Rouché-Capelli, 1. se ρ(a) = 1 e ρ(a B) = 2 il sistema non ammette soluzione, e r r = è l insieme vuoto (questo vuol dire che le rette r e r sono parallele e distinte); 2. se ρ(a) = ρ(a B) = 1 le due righe della matrice dei coefficienti sono proporzionali, e le due rette coincidono: r = r ; in questo caso l intersezione r r = r è una retta; 3. se ρ(a) = ρ(a B) = 2 il sistema ammette un unica soluzione, e l intersezione r r è un punto. Esempio 19.2.1. Siano r e r le rette di equazioni cartesiane r : 2x 1 3x 2 + 1 = 0 r : 4x 1 6x 2 = 0 Si ha ρ(a) = 1 e ρ(a B) = 2: le due rette sono parallele e non coincidenti. Esempio 19.2.2. Siano r e r le rette di equazioni cartesiane r : 2x 1 3x 2 + 1 = 0 r : 4x 1 + 2x 2 1 = 0 Si ha ρ(a) = ρ(a B) = 2: le due rette si incontrano in un punto. Esempio 19.2.3. Siano r e r le rette di equazioni cartesiane r : 2x 1 3x 2 + 1 = 0 r : 4x 1 6x 2 + 2 = 0 Si ha ρ(a) = ρ(a B) = 1: le due rette coincidono. 19.3 Circonferenze Ricordiamo che la distanza del punto P di coordinate x = (x 1, x 2 ) dall origine, ovvero la lunghezza del segmento OP, è data da x = x 2 1 + x 2 2. Più in generale (vedere figura 9a), la distanza fra due punti di coordinate x = (x 1, x 2 ) e y = (y 1, y 2 ), indicata con d(x, y), è la norma del vettore (x 1 y 1, x 2 y 2 ), ossia d(x, y) = x y = (x 1 y 1 ) 2 + (x 2 y 2 ) 2. 145

x = (x 1, x 2 ) d(x, y) = x y x 2 y 2 x 1 y 1 y = (y 1, y 2 ) R c (a) Distanza (b) Circonferenza di centro c = (4, 2) e raggio R = 3. Figura 9 Una circonferenza di centro c = (c 1, c 2 ) e raggio R > 0 è l insieme dei punti del piano a distanza R dal punto c. Quindi un punto x è sulla circonferenza se e solo se soddisfa: Circonferenza x c = R, ovvero elevando al quadrato ambo i membri: (x 1 c 1 ) 2 + (x 2 c 2 ) 2 = R 2. (19.6) Equazione della circonferenza Un esempio è in figura 9b. Data una retta di equazione ax 1 + bx 2 + d = 0, l intersezione della retta con la circonferenza di equazione (19.6) è l insieme delle soluzioni del sistema (non lineare): Intersezione fra retta e una circonferenza { (x1 c 1 ) 2 + (x 2 c 2 ) 2 = R 2 ax 1 + bx 2 + d = 0 Per trovare le intersezioni si procede per sostituzione. Sappiamo che (a, b) (0, 0). Supponiamo ad esempio sia a 0, allora dalla seconda equazione ricaviamo x 1 = a 1 (bx 2 + d), che sostituita nella prima dà una equazione di secondo grado in una sola variabile. Il numero di soluzioni (reali) dipenderà dal segno del discriminante. Si hanno tre possibilità: 1. se il discriminante è positivo, retta e circonferenza si incontrano in due punti; 2. se il discriminante è zero, retta e circonferenza si incontrano in un punto (in questo caso la retta si dice tangente alla circonferenza); 3. se il discriminante è negativo, l intersezione è vuota. Retta tangente Esempio 19.3.1. Determiniamo l intersezione della retta di equazione x 1 x 2 + 2 = 0 con la circonferenza di centro (2, 1) e raggio 3 (figura 10a). Dobbiamo risolvere il sistema { (x1 2) 2 + (x 2 1) 2 = 9 x 1 x 2 + 2 = 0 146

(a) (b) (c) Figura 10 Dalla seconda si ricava x 2 = x 1 +2, che sostituita nella prima dà (x 1 2) 2 +(x 1 +1) 2 9 = 0. Sviluppando i quadrati si trova 2x 2 1 2x 1 4 = 0 che ha soluzioni x 1 = 2, 1. Usando x 2 = x 1 + 2 si evince che l intersezione è data dai due punti di coordinate (2, 4) e ( 1, 1). In maniera simile si trova l intersezione fra due circonferenze, diciamo una di centro c = (c 1, c 2 ) e raggio R e la seconda di centro c = (c 1, c 2) e raggio R. Se le due Intersezione circonferenze hanno lo stesso centro, allora coincidono oppure hanno intersezione vuota. Supponiamo quindi che c c. L intersezione è l insieme delle soluzioni del sistema (non lineare): { (x1 c 1 ) 2 + (x 2 c 2 ) 2 = R 2 (x 1 c 1) 2 + (x 2 c 2) 2 = R 2 Notiamo che sottraendo membro a membro le due equazioni, i termini di secondo grado scompaiono. Si ottiene in questo modo il sistema equivalente { (x1 c 1 ) 2 + (x 2 c 2 ) 2 = R 2(c 1 c 1)x 1 + 2(c 2 c 2)x 2 = (c 2 1 c 2 1 ) + (c 2 2 c 2 2 ) R 2 + R 2 La seconda equazione descrive una retta, ed il sistema si può ora risolvere come nel caso delle intersezioni fra retta e circonferenza. A seconda dei casi, le due circonferenze si incontreranno in un punto, in due o in nessuno. Esempio 19.3.2. In figura 10b è mostrata come esempio l intersezione fra la circonferenza di centro (2, 1) e raggio 3 e la circonferenza di centro ( 3 2, 5 2 ) e raggio 5 2/2. Le due circonferenze si incontrano nei punti ( 1, 1) e (2, 2). 147 fra due circonferenze

Un altro problema consiste, data una circonferenza di centro c e raggio R ed un punto p sulla circonferenza, nel trovare l equazione della retta r tangente alla circonferenza nel punto p. La tangente deve essere ortogonale al segmento da c a p, ovvero al vettore p c. L equazione cartesiana di r sarà quindi Tangenti ad una circonferenza (p c) (x p) = 0. Si vede infatti che la direzione è quella giusta e x = p è soluzione particolare dell equazione, quindi p è un punto della retta. Esempio 19.3.3. La retta tangente alla circonferenza di centro c = (2, 2) e raggio R = 5 nel punto p = (5, 2) ha equazione 3x 1 4x 2 23 = 0. La situazione è illustrata in figura 10c. 19.4 Distanze La distanza di un punto p da una retta r è la lunghezza del segmento che va da p alla proiezione ortogonale di p su r, sia essa q. Se r ha equazione cartesiana (19.2), la retta r ortogonale ad r è data da (19.3). L intersezione fra r ed r si ottiene sostituendo i valori di x 1 e x 2 dati da (19.3) nell equazione (19.2) e risolvendo in t. Si ottiene ovvero ax 1 + bx 2 + c = a(p 1 + ta) + b(p 2 + tb) + c = 0 t = ap 1 + bp 2 + c a 2 + b 2. Sostituendo in (19.3) si trovano le coordinate del punto q = (x 1, x 2 ), date da x 1 = p 1 ap 1 + bp 2 + c a 2 + b 2 a, x 1 = p 2 ap 1 + bp 2 + c a 2 + b 2 b. La distanza fra p ed r è quindi data da d(p, r) = p q = ap 1 + bp 2 + c a2 + b 2. (19.7) Distanza punto-retta Esempio 19.4.1. La distanza fra la retta r di equazione 7x 1 4x 2 + 6 = 0 ed il punto p = (4, 1) vale d(p, r) = La situazione è illustrata in figura 11a. 7 4 4 1 + 6 72 + 4 2 = 30 65. 148

r d(p, r) r d(r, C) p c (a) Figura 11 (b) Analogamente, per calcolare la distanza fra due rette parallele r ed r si calcola la distanza di r da un qualsiasi punto p r. Per finire, data una circonferenza C di centro c e raggio R, un punto p ed una retta r, se d(p, c) R la distanza di p da C è data dalla distanza dal centro meno il raggio: d(p, C) = d(p, c) R, e in maniera simile se d(r, c) R la distanza di r da C è d(r, C) = d(c, r) R. Esempio 19.4.2. La distanza fra la retta r di equazione 3x 1 4x 2 + 14 = 0 e la circonferenza di centro c = (3, 1) e raggio R = 5/4 è data da: d(r, C) = La situazione è illustrata in figura 11b. 3 3 4 1 + 14 32 + 4 2 5 4 = 19 5 5 4 = 51 20. 19.5 Esercizi Osservazione 19.5.1. Osserviamo che x 1 a 1 x 2 a 2 x 1 x 2 1 b 1 a 1 b 2 a = a 2 1 a 2 1. b 1 b 2 1 Quindi, l equazione cartesiana di una retta passante per due punti distinti a = (a 1, a 2 ) e b = (b 1, b 2 ) si può anche scrivere nella forma x 1 x 2 1 a 1 a 2 1 = 0. b 1 b 2 1 In particolare, questo significa che tre punti x = (x 1, x 2 ), a = (a 1, a 2 ) e b = (b 1, b 2 ) sono allineati (cioé contenuti in una retta) se e solo se il determinante qui sopra è nullo. 149

Esercizio 19.5.2. Stabilire se i punti (1, 3), ( 2, 1) e (3, 1) sono allineati. Soluzione. Usiamo l osservazione 19.5.1. Calcolando il determinante per riduzione e poi con lo sviluppo di Laplace rispetto alla terza colonna si trova: 1 3 1 R 2 R 2 R 1 R 3 R 3 R 1 1 3 1 2 1 1 = 3 4 0 = 3 4 3 1 1 2 2 0 2 2 = 6 + 8 = 14. Quindi i punti non sono allineati. Esercizio 19.5.3. Determinare una equazione cartesiana e una parametrica della retta passante per i punti (2, 1) e ( 2, 3). Soluzione. Usando (19.4) si trova una equazione parametrica: { x1 = 2 4t x 2 = 1 + 2t e usando (19.5) si trova quella cartesiana. Poiché x 1 2 x 2 1 4 2 = 2x 1 + 4x 2 8, una equazione cartesiana è x 1 + 2x 2 4 = 0. Esercizio 19.5.4. Si determini la distanza del punto p = (2, 1) dalla retta r di equazione 2x 1 x 2 + 5 = 0. Si determini la distanza del punto p = (1, 3) dalla retta r di equazione x 1 + 2x 2 7 = 0. Soluzione. Usando la formula (19.7) si ottiene: d(p, r) = 2 2 1 1 + 5 22 + 1 2 = 8 5, e d(p, r ) = 1 1 + 2 3 7 12 + 2 2 = 0. La distanza di p da r è zero. Si può in effetti notare che p r. Esercizio 19.5.5. Si determini la distanza fra le rette di equazioni: { x1 = 2 4t r : x 2 = 1 + 2t, r : x 1 + 2x 2 7 = 0. 150

Soluzione. Notiamo che le due rette sono parallele. La prima è parallela al vettore u = ( 4, 2), la seconda è ortogonale al vettore (a, b) = (1, 2), ovvero parallela al vettore u = ( 2, 1). Siccome u = 2u le due rette sono parallele. La distanza fra r e r è la distanza fra un qualsiasi punto p r ed r. Ad esempio, possiamo scegliere p = (2, 1) e calcolare d(p, r ) = 1 2 + 2 1 7 12 + 2 2 = 3 5. Esercizio 19.5.6. Determinare l intersezione fra le circonferenze C e C di equazione (x 1 3) 2 + (x 2 + 4) 2 = 25, (x 1 + 1) 2 + x 2 2 = 9. Soluzione. Sottraendo membro a membro le due equazioni si ottiene l equazione: r : 8x 1 + 8x 2 + 8 = 0. Poiché C C = r C, basta determinare l intersezione di C con la retta r. Dall equazione di r si ricava x 1 = x 2 + 1, che sostituita nell equazione di C dà: (x 2 + 2) 2 + x 2 2 = 9 2x 2 2 + 4x 2 5 = 0. 7 Le soluzioni sono date da x 2 = 1 ±, ed i corrispondenti valori di x 7 2 1 sono ±. 2 L intersezione è quindi nei due punti ( 7/2, 7/2 1 ) e ( 7/2, 7/2 1 ). La situazione è illustrata in figura 12. r Figura 12 151

Lezione XX Esercitazione Sommario: esempi svolti di temi d esame. 12 20.1 Tema d esame #1 Esercizio 20.1.1. Si consideri il seguente sistema di equazioni lineari dipendente da un parametro λ R: x 2 + x 4 = 2 x 1 + 2x 2 + 2x 3 + 2x 4 = 3 x 2 + (λ + 2)x 3 + (λ + 3)x 4 = 2 (λ 1)x 1 + 2x 2 + λx 3 + 2x 4 = 5 a) Determinare i valori di λ per cui il sistema ammette soluzioni; b) per i valori di λ trovati al punto a), determinare la soluzione generale del sistema. Esercizio 20.1.2. Nello spazio vettoriale R 4 si considerino i seguenti sottospazi: V := L { (2, 4, 1, 3), (1, 0, 1, 0), ( 4, 8, 2, 6), (2, 12, 1, 9) }, W := { (x 1, x 2, x 3, x 4 ) R 4 : x 1 x 3 = 2x 1 + x 2 + 2x 3 + x 4 = 0 }. a) Si determini, se esiste, una base per ciascuno dei sottospazi: V, W, V W, V +W ; b) la somma V + W è diretta? c) si determini, se esiste, una base di W. Esercizio 20.1.3. Si consideri la matrice: 2 0 4 A = t + 1 1 2t t + 1 0 2t + 2 Stabilire per quali valori di t R la matrice A è diagonalizzabile. 12 Con un abuso di notazione, in questo capitolo la riga i-esima di una qualsiasi matrice verrà indicata sempre con il simbolo R i. 152

20.2 Tema d esame #2 Esercizio 20.2.1. Considerare la matrice 1 0 2 1 1 3 A = 2 1 3 0 1 1 a) Calcolare il rango di A; b) indicare una base per lo spazio delle righe ed una per lo spazio delle colonne di A; c) discutere il sistema A X = B nelle variabili X = t (x 1, x 2, x 3 ), con B = t (1, 1, 4, 2); d) esistono valori di t R per cui A X = B, con B = t (1, 1, t, t), ammette soluzione? Esercizio 20.2.2. Sia V il sottospazio di R 3 formato dai vettori v della forma v = ( 2a 1 + a 2, a 1 a 3, a 1 + a 2 + a 3 ) con a 1, a 2, a 3 R. a) Calcolare la dimensione di V ; b) scrivere una base di V. Esercizio 20.2.3. Siano A e B le matrici 4 1 0 A = 0 2 0 0 0 2 con t parametro reale., B = 2 1 0 0 2 0 0 0 t, a) Calcolare gli autovalori di A e trovare una base per ciascun autospazio di A; b) la matrice A è diagonalizzabile? In caso affermativo, trovare una matrice diagonalizzante; c) esistono valori di t R per cui le matrici A e B sono simili? 153

20.3 Soluzioni tema d esame #1 Esercizio 20.3.1. Si consideri il seguente sistema di equazioni lineari dipendente da un parametro λ R: x 2 + x 4 = 2 x 1 + 2x 2 + 2x 3 + 2x 4 = 3 x 2 + (λ + 2)x 3 + (λ + 3)x 4 = 2 (λ 1)x 1 + 2x 2 + λx 3 + 2x 4 = 5 a) Determinare i valori di λ per cui il sistema ammette soluzioni; b) per i valori di λ trovati al punto a), determinare la soluzione generale del sistema. Soluzione. a) La matrice completa del sistema è (A B) = 0 1 0 1 2 1 2 2 2 3 0 1 λ + 2 λ + 3 2. λ 1 2 λ 2 5 Per riduzione si ottiene 1 2 2 2 3 (A B) R 1 R 2 0 1 0 1 2 λ 1 2 λ 2 5 0 1 λ + 2 λ + 3 2 1 2 2 2 3 R 4 R 4 (λ 1)R 1 0 1 0 1 2 0 1 λ + 2 λ + 3 2 0 2λ + 4 λ + 2 2λ + 4 3λ + 8 1 2 2 2 3 R 3 R 3 R 2 R 4 R 4 +(2λ 4)R 2 (A B ) = 0 1 0 1 2 0 0 λ + 2 λ + 2 0. 0 0 λ + 2 0 λ La matrice completa A è ridotta per righe, qualunque sia il valore di λ. Se λ = 2, allora ρ(a) = 3 ρ(a B) = 4, e il sistema non è compatibile. Se λ = 2, allora ρ(a) = ρ(a B) = 3: il sistema è compatibile e le soluzioni dipendono da un parametro reale. Se λ ±2, allora ρ(a) = ρ(a B) = 4, e il sistema è compatibile ed ammette un unica soluzione. b) Il sistema di matrice completa (A B ) è equivalente a quello di partenza ed è dato 154

da x 1 + 2x 2 + 2x 3 + 2x 4 = 3 x 2 + x 4 = 2 (λ + 2)(x 3 + x 4 ) = 0 ( λ + 2)x 3 = λ Se λ ±2 l unica soluzione si trova per sostituzione dal basso verso l alto. Si ottiene ( λ + 2 (x 1, x 2, x 3, x 4 ) = λ 2, λ 4 λ 2, λ ) λ 2, λ λ 2 Se λ = 2 il sistema diventa x 1 + 2x 2 + 2x 3 + 2x 4 = 3 x 2 + x 4 = 2 4x 3 = 2 Assegnando un valore t arbitrario ad x 4 e risolvendo per sostituzione si trova (x 1, x 2, x 3, x 4 ) = ( 0, 2 t, 1 2, t), con t R. Esercizio 20.3.2. Nello spazio vettoriale R 4 si considerino i seguenti sottospazi: V := L { (2, 4, 1, 3), (1, 0, 1, 0), ( 4, 8, 2, 6), (2, 12, 1, 9) }, W := { (x 1, x 2, x 3, x 4 ) R 4 : x 1 x 3 = 2x 1 + x 2 + 2x 3 + x 4 = 0 }. a) Si determini, se esiste, una base per ciascuno dei sottospazi: V, W, V W, V +W ; b) la somma V + W è diretta? c) si determini, se esiste, una base di W. Soluzione. a) Dei generatori di V, il terzo è proporzionale al primo. Per stabilire se i restanti vettori, li scriviamo come righe di una matrice e la riduciamo per righe: 2 4 1 3 2 4 1 3 2 4 1 3 1 0 1 0 R 3 R 3 3R 1 1 0 1 0 R 3 R 3 +4R 2 1 0 1 0. 2 12 1 9 4 0 4 0 0 0 0 0 La terza riga è nulla. Una base B di V è data dai primi due generatori: B = ( u 1 = (2, 4, 1, 3), u 2 = (1, 0, 1, 0) ). 155

W è lo spazio delle soluzioni di un sistema di due equazioni lineari omogenee: la prima è equivalente a x 1 = x 3, che usata nella seconda dà 2x 1 + x 2 + 2x 3 + x 4 = x 2 + x 4 = 0, ossia x 2 = x 4. I vettori di W hanno quindi la forma 1 0 0 1 v = (t 1, t 2, t 1, t 2 ) = 1 0 0 1 con t 1, t 2 R. In altre parole, W è l immagine dell applicazione lineare L A : R 2 R 4 associata alla matrice 1 0 0 1 A = 1 0. 0 1 Tale immagine è generata dalle colonne di A, che sono evidentemente linearmente indipendenti e formano quindi una base. Una base B di W è quindi data dai vettori: B = ( u 2 = (1, 0, 1, 0), u 3 = (0, 1, 0, 1) ). ( t1 t 2 ) I tre vettori u 1, u 2, u 3 generano V + W. La matrice B = u 1 u 2 u 3 = 2 4 1 3 1 0 1 0 0 1 0 1 ha rango massimo, cioé ρ(b) = 3. Infatti il minore 3 3 evidenziato ha determinante non nullo (con lo sviluppo di Laplace rispetto alla terza riga si verifica che il determinante è 1). Quindi le righe di B sono linearmente indipendenti e formano una base di V + W. Una base di V + W è quindi data dai vettori u 1, u 2, u 3. L intersezione V W è data dai vettori di V che soddisfano le equazioni che definiscono W. Ogni vettore di V ha la forma: (x 1, x 2, x 3, x 4 ) = t 1 u 1 + t 2 u 2 = (2t 1 + t 2, 4t 1, t 1 + t 2, 3t 1 ). Sostituendo nelle equazioni di W si trova { x 1 x 3 = (2t 1 + t 2 ) (t 1 + t 2 ) = t 1 = 0 2x 1 + x 2 + 2x 3 + x 4 = x 2 + x 4 = 4t 1 + 3t 1 = 0 I vettori di V W hanno quindi la forma (t 2, 0, t 2, 0), ovvero sono proporzionali al vettore u 2. Se ne deduce che una base di V W è formata dal vettore u 2. 156

b) Ricordiamo che la somma di due sottospazi è diretta se e solo se la loro intersezione è data dal solo vettore nullo. Siccome V W = L(u 2 ) {0}, la somma V + W non è diretta. c) Un vettore v = (x 1, x 2, x 3, x 4 ) appartiene a W se e solo se il suo prodotto scalare con i vettori della base B è zero: { u2 v = x 1 + x 3 = 0 u 3 v = x 2 x 4 = 0 La soluzione dipende da due parametri reali, ed è data da 1 0 0 1 v = (λ 1, λ 2, λ 1, λ 2 ) = 1 0 con λ 1, λ 2 R. In altre parole, W è l immagine dell applicazione lineare L C : R 2 R 4 associata alla matrice 1 0 0 1 C = 1 0. 0 1 0 1 Le colonne di C sono linearmente indipendenti e formano quindi una base di W. ( λ1 λ 2 ) Esercizio 20.3.3. Si consideri la matrice: 2 0 4 A = t + 1 1 2t t + 1 0 2t + 2 Stabilire per quali valori di t R la matrice A è diagonalizzabile. Soluzione. Il polinomio caratteristico è dato da 2 λ 0 4 p A (λ) = A λi 3 = t + 1 1 λ 2t t + 1 0 2t + 2 λ. Con lo sviluppo di Laplace rispetto alla seconda colonna si trova: p A (λ) = (λ + 1) 2 λ 4 t + 1 2t + 2 λ = (λ + 1) ( λ 2 (2t + 4)λ ) = (λ + 1) ( λ (2t + 4) ) λ. 157

Gli autovalori sono quindi λ 1 = 0, λ 2 = 1, λ 3 = 2t + 4. Se i tre autovalori sono distinti, ossia se t / { 2, 5 }, la matrice è A certamente 2 diagonalizzabile. Rimangono da studiare i due casi t = 2 e t = 5/4. Sia t = 2, quindi λ 3 = λ 1 = 0. A è diagonalizzabile se e solo se la molteplicità geometrica dell autovalore 0, data da g 0 = 3 ρ(a 0I 3 ), è pari a 2. Per t = 2, 2 0 4 0 0 0 A = 1 1 4 R 1 R 1 +2R 3 A = 1 1 4. 1 0 2 1 0 2 A è ridotta per righe, quindi ρ(a) = ρ(a ) = 2. La molteplicità geometrica dell autovalore 0 è g 0 = 3 2 = 1 e la matrice A non è diagonalizzabile. Passiamo al caso t = 5/2, quindi λ 3 = λ 2 = 1. A è diagonalizzabile se e solo se la molteplicità geometrica dell autovalore 1, data da g 1 = 3 ρ(a + 1I 3 ), è pari a 2. Per t = 2, A + I 3 = 3 2 3 2 3 0 4 0 5 0 2 R 2 R 2 + 1 2 R 1 R 3 R 3 + 1 2 R 1 A = 3 0 4 0 0 3 0 0 0 A è ridotta per righe, quindi ρ(a) = ρ(a ) = 2. La molteplicità geometrica dell autovalore 1 è g 1 = 3 2 = 1 e la matrice A non è diagonalizzabile. In conclusione: A è diagonalizzabile se e solo se t / { 2, 5 2 }.. 20.4 Soluzioni tema d esame #2 Esercizio 20.4.1. Considerare la matrice 1 0 2 1 1 3 A = 2 1 3 0 1 1 a) Calcolare il rango di A; b) indicare una base per lo spazio delle righe ed una per lo spazio delle colonne di A; c) discutere il sistema A X = B nelle variabili X = t (x 1, x 2, x 3 ), con B = t (1, 1, 4, 2); 158

d) esistono valori di λ R per cui A X = B λ, con B λ = t (1, 1, λ, λ), ammette soluzione? Soluzione. a) Per riduzione si trova: A R 2 R 2 +R 1 R 3 R 3 2R 1 1 0 2 0 1 1 0 1 1 0 1 1 R 3 R 3 R 2 R 4 R 4 R 2 1 0 2 0 1 1 0 0 0 0 0 0. Quindi il rango è ρ(a) = 2. Le righe non nulle della matrice trovata formano una base per lo spazio generato dalle righe di A. Quindi: b) Una base per lo spazio delle righe di A è data da: B = ( (1, 0, 2), (0, 1, 1) ). Una base per lo spazio delle colonne si ottiene riducendo t A. Si ha: 1 1 2 0 1 1 2 0 1 1 2 0 t A = 0 1 1 1 R 3 R 3 +2R 1 0 1 1 1 R 3 R 3 R 2 0 1 1 1. 2 3 3 1 0 1 1 1 0 0 0 0 Una base per lo spazio delle colonne di A è quindi data da B = ( (1, 1, 2, 0), (0, 1, 1, 1) ). c) Con le stesse operazioni usate al punto a) si riduce la matrice completa (A B) del sistema: Un sistema equivalente è quindi: 1 0 2 1 R 3 R 3 R 2 3R 1 R (A B) 4 R 4 R 2 R 1 (A B 0 1 1 1 ) = 0 0 0 0. { x1 2x 3 = 1 x 2 + x 3 = 1 Il sistema è compatibile, e la soluzione generale è data da per t R. (x 1, x 2, x 3 ) = (1 + 2t, 1 t, t) 0 0 0 0 159

d) Ripetendo le stesse operazioni del punto c) riduciamo la matrice (A B λ ): 1 0 2 1 R 3 R 3 R 2 3R 1 R (A B λ ) 4 R 4 R 2 R 1 0 1 1 1 0 0 0 λ 4. 0 0 0 λ 2 Qualunque sia il valore di λ almeno una fra la terza e la quarta riga è non nulla: poiché ρ(a) = 2 e ρ(a B λ ) {3, 4}, si ha sempre ρ(a) ρ(a B λ ). La risposta è quindi (per il teorema di Rouché-Capelli): il sistema al punto d) non ammette soluzioni per nessun valore di λ. Esercizio 20.4.2. Sia V il sottospazio di R 3 formato dai vettori v della forma con a 1, a 2, a 3 R. a) Calcolare la dimensione di V ; b) scrivere una base di V. Soluzione. Notiamo che v = ( 2a 1 + a 2, a 1 a 3, a 1 + a 2 + a 3 ) 2 1 0 v = 1 0 1 1 1 1 a 1 a 2 a 3. Quindi V è l immagine dell applicazione lineare associata alla matrice 2 1 0 A = 1 0 1. 1 1 1 L immagine di L A è generata dalle colonne di A, ovvero dalle righe di t A. Per trovare una base possiamo ridurre t A per righe, ottenendo: 2 1 1 2 1 1 t A = 1 0 1 R 3 R 3 +R 1 1 0 1 0 1 1 2 0 2 R 3 R 3 2R 2 2 1 1 1 0 1 0 0 0. Le righe non nulle della matrice ridotta così trovata formano una base di V. Quindi: b) una base di V è data da B = ( (2, 1, 1), (1, 0, 1) ). a) la dimensione di V è 2. 160

Esercizio 20.4.3. Siano A e B le matrici 4 1 0 A = 0 2 0 0 0 2 con t parametro reale., B = 2 1 0 0 2 0 0 0 t, a) Calcolare gli autovalori di A e trovare una base per ciascun autospazio di A; b) la matrice A è diagonalizzabile? In caso affermativo, trovare una matrice diagonalizzante; c) esistono valori di t R per cui le matrici A e B sono simili? Soluzione. a) Siccome A è triangolare superiore, gli autovalori sono λ 1 = 4 (con molteplicità algebrica m 1 = 1) e λ 2 = 2 (con molteplicità algebrica m 2 = 2). Un autovettore associato all autovalore λ 1 si ottiene risolvendo il sistema: 0 1 0 x 1 (A λ 1 I 3 )X = 0 2 0 x 2 = 0. 0 0 2 La soluzione è (x 1, x 2, x 3 ) = (a, 0, 0) con a R. Una base dell autospazio V λ1 si ottiene ad esempio prendendo t = 1, ed è data dal vettore v 1 = (1, 0, 0). Gli autovettori associati all autovalore λ 2 risolvono il sistema: 2 1 0 x 1 (A λ 2 I 3 )X = 0 0 0 x 2 = 0. 0 0 0 x 3 x 3 La soluzione è (x 1, x 2, x 3 ) = (t 1, 2t 1, t 2 ) con t 1, t 2 R. Una base B dell autospazio V λ2 è data ad esempio dai vettori che si ottengono prendendo (t 1, t 2 ) = (1, 0) e (t 1, t 2 ) = (0, 1). Quindi B = ( v 2 = (1, 2, 0), v 3 = (0, 0, 1) ). b) A è diagonalizzabile: (v 1, v 2, v 3 ) è una base di R 3 formata da autovettori di A. Una matrice diagonalizzante P è data da P = ( 1 1 0 ) t v t 1 v t 2 v 3 = 0 2 0. 0 0 1 c) La matrice B è simile ad A se e solo se è diagonalizzabile ed ha gli stessi autovalori di A. Essendo triangolare superiore, gli autovalori di B sono 2 (con molteplicità algebrica 161

m = 2) e t (con molteplicità algebrica 1). Condizione necessaria perché A e B siano simili è quindi t = λ 1 = 4. La matrice B è diagonalizzabile se la molteplicità geometrica dell autovalore 2 è pari a quella algebrica, deve essere quindi 3 ρ(b 2I 3 ) = m = 2. Poiché ρ(b 2I 3 ) = 0 1 0 0 0 0 0 0 t 2 per t = 4 il rango di B 2I 3 è 2 e la matrice B non è diagonalizzabile. La risposta al punto c) è quindi: per nessun valore di t R le matrici A e B sono simili. 162

Lezione XXI Geometria di R 3 : rette, piani e intersezioni Sommario: rette e piani nello spazio tridimensionale; equazioni parametriche e cartesiane; intersezioni. 21.1 Rette e piani in R 3 : equazioni parametriche La geometria di R 3 è in molti aspetti simile a quella di R 2. Un punto P dello spazio tridimensionale è individuato da tre coordinate p = (p 1, p 2, p 3 ) R 3. Graficamente, il punto è il vertice di un parallelepipedo rettangolo i cui lati hanno lunghezza p 1, p 2 e p 3 (come mostrato in figura 13a). Possiamo anche identificare p con il vettore geometrico uscente dall origine e di estremo P. p 3 x 3 x 3 u u + v P = (p 1, p 2, p 3 ) v p 1 p 2 x 2 x 2 x 1 x 1 (a) Coordinate in 3D. (b) Regola del parallelogramma. Figura 13 Il prodotto di u = (u 1, u 2, u 3 ) per uno scalare dà un vettore parallelo a u, e due vettori sono paralleli se e solo se sono proporzionali. Come nel caso di R 2, questa osservazione permette di scrivere le equazioni parametriche di una retta r passante per p e parallela ad u: r : x = p + tu x 1 = p 1 + tu 1 x 2 = p 2 + tu 2 (21.1) x 3 = p 3 + tu 3 Equazioni parametriche di una retta Come in R 2, anche in questo caso la somma di due vettori u e v è data dalla diagonale del parallelogramma che ha u e v per lati (figura 13b). Notiamo che due vettori u e v non allineati individuano un piano Π, e che u + v appartiene allo stesso piano 163

x 3 u u + v v x 1 x 2 Figura 14: Piano individuato da due vettori. Π (figura 14). Più in generale, il piano Π è l insieme di tutte le combinazioni lineari t 1 u + t 2 v, con t 1, t 2 R. Le equazioni parametriche del piano Π passante per l origine e individuato da u e v sono date da Π : x = t 1 u + t 2 v e più in generale sommando un vettore p indipendente dai parametri t 1, t 2 si ottengono le equazioni parametriche del piano passante per p e parallelo ad u e v: x 1 = p 1 + t 1 u 1 + t 2 v 1 x = p + t 1 u + t 2 v x 2 = p 2 + t 1 u 2 + t 2 v 2 (21.2) x 3 = p 3 + t 1 u 3 + t 2 v 3 Equazioni parametriche di un piano Le equazioni qui sopra descrivono un piano se e solo se i vettori u e v sono linearmente indipendenti, ovvero ( ) u1 u 2 u 3 ρ = 2. v 1 v 2 v 3 Viceversa, se il rango è 1 si ritrova l equazione di una retta (uno dei due parametri è ridondante). Come nel caso di R 2, anche in R 3 è possibile eliminare il parametro t dalle equazioni di una retta. In maniera simile, si possono eliminare i parametri t 1, t 2 dalle equazioni di un piano. Esempio 21.1.1. Si consideri la retta r R 3 di equazioni parametriche x 1 = 1 t x 2 = 3 2t x 3 = 5 + 3t 164

p u x 3 5 3 1 x 2 x 1 q Figura 15: Esempio di retta in R 3. La direzione è data da u = ( 1, 2, 3), e la retta passa per i punti p = (1, 3, 5) e q = (3, 1, 1) (che si ottiene scegliendo t = 2). Il disegno è in figura 15. Ricavando dalla prima equazione t = x 1 1 e sostituendo questa espressione nella seconda e nella terza possiamo eliminare il parametro t ed ottenere x 2 = 3 + 2x 1 + 2 e x 3 = 5 3x 1 3, ovvero: { 2x1 + x 2 + 1 = 0 3x 1 + x 3 2 = 0 Esempio 21.1.2. Si consideri il piano Π R 3 di equazioni parametriche x 1 = 1 + 2t 1 + t 2 x 2 = 2 t 1 t 2 x 3 = t 2 Risolvendo le ultime due equazioni rispetto a t 1 e t 2 si trova: t 1 = 2 x 2 x 3 e t 2 = x 3. Sostituendo queste espressioni nella prima equazione si trova un equazione cartesiana del piano Π: x 1 + 2x 2 + x 3 5 = 0. 21.2 Equazioni cartesiane di una retta Dagli esempi precedenti si intuisce che un piano in R 3 è definito da una equazione lineare in tre incognite, ed una retta è definita da un sistema di due equazioni in tre incognite. Iniziamo in questo paragrafo a studiare il caso della retta in R 3. Uno schema riassuntivo è nella tabella 1. Le equazioni parametriche (21.1) descrivono una retta se e solo se (u 1, u 2, u 3 ) (0, 0, 0). Supponiamo ad esempio che sia u 1 0. Possiamo allora eliminare il parametro 165

t ricavando dalla prima equazione t = (x 1 p 1 )/u 1. Sostituendo questa espressione nelle due rimanenti si ottiene { x2 = p 2 + u 2 (x 1 p 1 )/u 1 x 3 = p 3 + u 3 (x 1 p 1 )/u 1 { u2 x 1 u 1 x 2 u 2 p 1 + p 2 = 0 u 3 x 1 u 1 x 3 u 3 p 1 + p 3 = 0 Chiamando (a, b, c) = (u 2, u 1, 0), (a, b, c ) = (u 3, 0, u 1 ), e chiamando d = u 2 p 1 + p 2 e d = u 3 p 1 + p 3, le equazioni cartesiane della retta r si possono scrivere nella forma: { a x1 + b x 2 + c x 3 + d = 0 a x 1 + b x 2 + c x 3 + d = 0 (21.3) Equazioni cartesiane di una retta Osserviamo che i vettori (a, b, c) = (u 2, u 1, 0) e (a, b, c ) = (u 3, 0, u 1 ) sono linearmente indipendenti (ossia, non allineati), infatti la matrice ( ) ( ) a b c u2 u 1 0 = a b c u 3 0 u 1 ha rango 2 (è ridotta per righe ed ha due righe non nulle, essendo u 1 0). Più in generale, le equazioni (21.3) descrivono una retta se e solo se ( ) a b c ρ = 2, a b c ovvero i vettori (a, b, c) e (a, b, c ) sono non allineati. Osserviamo che i vettori (u 2, u 1, 0) e (u 3, 0, u 1 ) sono perpendicolari rispetto al vettore u, che individua la direzione della retta (esercizio: verificare che il prodotto scalare è zero). Più in generale, in maniera analoga al caso di R 2, al variare di d e d le equazioni (21.3) descrivono un fascio di rette parallele di direzione ortogonale ai vettori (a, b, c) e (a, b, c ). Se si chiede quindi di scrivere le equazioni di una retta r ortogonale al piano di equazione parametrica (21.2) (quindi, ortogonale a u e v), in forma cartesiana r avrà equazione { u1 x 1 + u 2 x 2 + u 3 x 3 + d = 0 con d, d R. v 1 x 1 + v 2 x 2 + v 3 x 3 + d = 0 Osservazione 21.2.1. Abbiamo visto come si passa dalle equazione parametriche a quelle cartesiane di una retta. Per passare dalle equazioni cartesiane (21.3) a quelle parametriche è sufficiente risolvere il sistema (21.3). Siccome la matrice dei coefficienti ha rango 2, la soluzione dipenderà da un solo parametro reale. 166

21.3 Equazioni cartesiane di un piano L equazione cartesiana Π : ax 1 + bx 2 + cx 3 + d = 0 (21.4) descrive un piano in R 3 se e solo se (a, b, c) (0, 0, 0). Al variare di d R si ottiene un fascio di piani paralleli. In particolare, per d = 0 si ottiene il piano contenente l origine, la cui equazione è (a, b, c) (x 1, x 2, x 3 ) = 0. Osserviamo che il vettore (a, b, c) è ortogonale al piano di equazione (21.4). In particolare, i piani ortogonali alla retta di equazione parametrica (21.1) hanno equazione cartesiana u 1 x 1 + u 2 x 3 + u 3 x 3 + d = 0 Equazione cartesiana di un piano con d R. Data una equazione cartesiana di un piano Π, si possono trovare delle equazioni parametriche risolvendo l equazione di Π. Se ad esempio a 0, la soluzione generale è x 1 = a 1 (bt 1 + ct 2 + d) x 2 = t 1 x 3 = t 2 Date delle equazioni parametriche di un piano, della forma (21.2), la corrispondente equazione cartesiana si può scrivere in maniera compatta nella forma x p x 1 p 1 x 3 p 2 x 3 p 3 u = u 1 u 2 u 3 = 0. v v 1 v 2 v 3 Tale determinante infatti si annulla se e solo se la prima riga è combinazione lineare delle altre due, ovvero vale un equazione del tipo (21.2). Osservazione 21.3.1. Come nel caso di R 2, data una retta r di R 3, le sue equazioni cartesiana/parametriche di r non sono uniche. E dato un piano Π di R 3, le sue equazioni cartesiana/parametriche di Π non sono uniche. Ad esempio le equazioni cartesiane 2x 1 + x 2 x 3 = 4 e 4x 1 + 2x 2 2x 3 = 8 descrivono lo stesso piano (la seconda è un multiplo della prima, si tratta quindi di equazioni equivalenti). 167

Tabella 1: Equazioni di rette e piani. Retta r Piano Π Equazioni parametriche x = p + tu x = p + t 1 u + t 2 v ( ) ( ) u u1 u 2 u 3 Condizione u 0 ρ = ρ = 2 v v 1 v 2 v 3 Equazioni cartesiane { a x1 + b x 2 + c x 3 + d = 0 a x 1 + b x 2 + c x 3 + d = 0 ax 1 + bx 2 + cx 3 + d = 0 Condizione ( ) a b c ρ a b c = 2 (a, b, c) (0, 0, 0) Osservazioni u r, (a, b, c) r, (a, b, c ) r. (a, b, c) Π, u Π, v Π. 21.4 Intersezioni Iniziamo con lo studio dell intersezione di due piani. Siano Π e Π due piani di equazioni cartesiane: Intersezione di due piani Π : ax 1 + bx 2 + cx 3 + d = 0, Π : a x 1 + b x 2 + c x 3 + d = 0. L intersezione Π Π è l insieme delle soluzioni del sistema di matrice completa ( ) a b c d (A B) =. a b c d Notiamo che 1 ρ(a) ρ(a B) 2 (la prima disuguaglianza segue dal fatto che ciascuna riga di A ha almeno un elemento non nullo). Possono allora verificarsi tre casi: 1. Se ρ(a) = 1 e ρ(a B) = 2, il sistema è incompatibile e l intersezione è vuota. 2. Se ρ(a) = ρ(b) = 1, possiamo eliminare una delle due equazioni (per riduzione ad esempio) e quella che rimane è l equazione di un piano: Π Π = Π = Π è quindi un piano di R 3. 3. Se ρ(a) = ρ(b) = 2, si ottengono le equazioni cartesiane di una retta: Π Π è una retta di R 3. Notiamo che Π = Π se e solo se i vettori (a, b, c, d) e (a, b, c, d ) di R 4 sono proporzionali. 168

Consideriamo ora l intersezione del piano Π con una retta r di equazioni cartesiane { a1 x 1 + b 1 x 2 + c 1 x 3 + d 1 = 0 Intersezione di una retta e un piano a 2 x 1 + b 2 x 2 + c 2 x 3 + d 2 = 0 L intersezione r Π in questo caso è l insieme delle soluzioni del sistema lineare di matrice completa, che continuiamo a indicare con il simbolo (A B), data da a 1 b 1 c 1 d 1 (A B) = a 2 b 2 c 2 d 2. a b c d Notiamo che (a 1, b 1, c 1 ) e (a 2, b 2, c 2 ) devono essere linearmente indipendenti (altrimenti le prime due equazioni non descrivono una retta). Quindi 2 ρ(a) ρ(a B) 3. Possono allora verificarsi tre casi: 1. Se ρ(a) = 2 e ρ(a B) = 3, il sistema è incompatibile e l intersezione è vuota. 2. Se ρ(a) = ρ(b) = 2, una delle tre equazioni può essere eliminata (per riduzione ad esempio). Siccome le prime due equazioni sono indipendenti, la terza (quella di Π) deve essere combinazione lineare delle prime due. Quindi r Π = r (ovvero la retta r è contenuta nel piano Π). 3. Se ρ(a) = ρ(b) = 3, la soluzione è unica e l intersezione è un punto. Per finire, sia r una seconda retta, di equazioni cartesiane: { a 1 x 1 + b 1x 2 + c 1x 3 + d 1 = 0 Intersezione di due rette a 2x 1 + b 2x 2 + c 2x 3 + d 2 = 0 L intersezione r r è l insieme delle soluzioni di un sistema lineare la cui matrice completa è a 1 b 1 c 1 d 1 a 2 b 2 c 2 d 2 (A B) = a 1 b 1 c 1 d 1. a 2 b 2 c 2 d 2 Come nel caso precedente, il rango della matrice dei coefficienti è maggiore uguale di due, ed è minore o uguale al numero di righe. Quindi: 2 ρ(a) 3 e ρ(a) ρ(a B) 4. Possono allora verificarsi i seguenti casi: 1. Se ρ(a) = 2 e ρ(a B) = 3, il sistema non ammette soluzioni e r r =. 2. Se ρ(a) = 2 e ρ(a B) = 4, come nel primo caso l intersezione è vuota. 169

Tabella 2: Intersezioni. ρ(a) ρ(a B) r r r Π Π Π 1 1 retta 1 2 2 2 retta (r = r ) retta (r Π) piano (Π = Π ) 2 3 3 3 punto punto 3 4 3. Se ρ(a) = 3 e ρ(a B) = 4, come nel primo caso l intersezione è vuota. 4. Se ρ(a) = ρ(b) = 2, possiamo eliminare due equazioni (ad esempio, per riduzione) ed ottenere le equazioni cartesiane di una retta: questo vuol dire che r = r e r r = r = r è una retta. 5. Se ρ(a) = ρ(b) = 3, possiamo eliminare una equazione ed ottenere un sistema di tre equazioni in tre incognite. Siccome la matrice dei coefficienti ha rango massimo (uguale a 3), la soluzione è unica e l intersezione è un punto. Osservazione 21.4.1. Il secondo caso (ρ(a) = 2 e ρ(a B) = 4) non può mai verificarsi. Infatti se ρ(a B) = 4, il determinante della matrice (A B) è diverso da zero. Il determinante si può calcolare con lo sviluppo di Laplace rispetto all ultima colonna: a 2 b 2 c 2 a 1 b 1 c 1 a 1 b 1 c 1 a 1 b 1 c 1 (A B) = d 1 a 1 b 1 c 1 d 2 a 1 b 1 c 1 + d 1 a 2 b 2 c 2 d 2 a 2 b 2 c 2. a 2 b 2 c 2 a 2 b 2 c 2 a 2 b 2 c 2 a 1 b 1 c 1 Le matrici 3 3 che compaiono nella formula sono i minori di ordine 3 di A. Se (A B) 0, almeno un minore di ordine 3 di A deve avere determinante non nullo, da cui (per il teorema degli orlati) deve essere ρ(a) 3. Osservazione 21.4.2. Si può dire qualcosa di più sul primo e terzo caso. Se ρ(a) = 2 e ρ(a B) = 3 le due rette sono parallele ma non coincidenti. Se ρ(a) = 3 e ρ(a B) = 4 le due rette non sono parallele e non si intersecano: due rette di questo tipo si dicono sghembe. Siccome due rette contenute nello stesso piano sono sempre parallele oppure si intersecano in un punto, due rette sono sghembe se e solo se non sono complanari. Rette sghembe Uno schema riassuntivo è nella tabella 2. 170

Lezione XXII Geometria di R 3 : lunghezze, aree e volumi Sommario: distanze, aree e volumi; equazione di una sfera; prodotto vettoriale e prodotto misto; area di un parallelogramma e volume di un parallelepipedo; retta passante per due punti distinti; piano individuato da tre punti non allineati. 22.1 Distanze, equazione di una sfera Come in R 2, anche in R 3 la distanza di un punto p = (p 1, p 2, p 3 ) dall origine è data dalla norma del corrispondente vettore uscente dall origine, data da p = p 2 1 + p 2 2 + p 2 3. (22.1) Distanza dall origine Per provarlo basta guardare la figura 16a. Per il teorema di Pitagora, la diagonale del rettangolo nel piano x 3 = 0 disegnato in figura ha lunghezza L = p 2 1 + p 2 2; il segmento OP è la diagonale di un triangolo rettangolo (in rosso) i cui cateti hanno lunghezza L e p 3 rispettivamente: per il teorema di Pitagora, la lunghezza di OP è data da L 2 + p 2 3 = p 2 1 + p 2 2 + p 2 3, ovvero dalla formula (22.1). Dati due punti a = (a 1, a 2, a 3 ) e b = (b 1, b 2, b 3 ), possiamo costruire il parallelogramma in figura 16b che ha per lati i vettori a e b a, e per diagonale la loro somma, ovvero a + (b a) = b (regola del parallelogramma). La lunghezza del segmento di estremi a e b è uguale alla lunghezza del segmento di estremi O e b a, quindi d(a, b) = d(o, b a) = b a. Si ottiene in questo modo la formula per la distanza fra due punti arbitrari: d(a, b) = (a 1 b 1 ) 2 + (a 2 b 2 ) 2 + (a 3 b 3 ) 2. (22.2) Distanza fra due punti Per la distanza d(p, Π) di un punto p = (p 1, p 2, p 3 ) da un piano Π, di equazione ax 1 + bx 2 + cx 3 + d = 0, esiste una semplice formula, simile a quella che in R 2 dà la distanza di un punto da una retta. La distanza è data dalla lunghezza del segmento di estremi p e q, con q = (q 1, q 2, q 3 ) proiezione ortogonale di p sul piano. Le coordinate di q si trovano intersecando Π con 171

x 3 x 3 b p 3 b a P = (p 1, p 2, p 3 ) b a a d(a, b) O p 2 p 1 L x 2 O x 2 x 1 x 1 (a) Distanza di un punto dall origine. (b) Distanza fra due punti. Figura 16 la retta r ortogonale a Π e passante per p. Tale retta ha equazioni parametriche: x 1 = p 1 + at x 2 = p 2 + bt x 3 = p 3 + ct Sostituendo queste espressioni nell equazione di Π si ottiene il valore del parametro t corrispondente alle coordinate di q. Si ha a(p 1 + at) + b(p 2 + b) + c(p 3 + ct) + d = 0 t = ap 1 + bp 2 + cp 3 + d a 2 + b 2 + c 2. Sostituendo questo valore di t nelle equazioni di r si trovano le coordinate di q: (q 1, q 2, q 3 ) = (p 1, p 2, p 3 ) ap 1 + bp 2 + cp 3 + d a 2 + b 2 + c 2 (a, b, c). La distanza è data da d(p, Π) = p q = ap 1 + bp 2 + cp 3 + d (a, b, c) a 2 + b 2 + c 2 = ap 1 + bp 2 + cp 3 + d a 2 + b 2 + c 2 (a, b, c) = ap 1 + bp 2 + cp 3 + d a2 + b a 2 + b 2 + c 2 + c 2. 2 Semplificando numeratore e denominatore si trova la formula finale: d(p, Π) = ap 1 + bp 2 + cp 3 + d a2 + b 2 + c 2. Distanza di un punto da un piano Usando la formula (22.2) della distanza, è possibile scrivere l equazione cartesiana di una superficie sferica. 172

x 3 x 2 x 1 Figura 17: Sfera di centro c = (0, 0, 1) e raggio R = 1. La superficie sferica di centro c = (c 1, c 2, c 3 ) e raggio R > 0 è l insieme dei punti x R 3 a distanza R dal punto c, ovvero soddisfacenti l equazione Superficie sferica d(x, c) = R. Elevando al quadrato ambo i membri dell equazione, ed usando la formula (22.2), si trova l equazione cartesiana di una superficie sferica (x 1 c 1 ) 2 + (x 2 c 2 ) 2 + (x 3 c 3 ) 2 = R 2. Un esempio è in figura 17. 22.2 Angolo fra due vettori di R 3 Abbiamo visto che, dato uno spazio vettoriale V con un prodotto scalare (definizione 8.3.1), questo può essere usato per definire l angolo convesso ϕ (cioè, 0 ϕ π) fra due vettori non nulli u e v attraverso la formula: cos ϕ = u v u v. Un prodotto scalare canonico è dato da (8.6), ed il corrispondente angolo in R 2 è proprio l angolo convesso individuato dai vettori geometrici u e v. In R 3, due vettori geometrici uscenti dall origine individuano un angolo convesso θ, come mostrato in figura 18a. Verifichiamo che l angolo θ e l angolo ϕ, definito in astratto a partire dal prodotto scalare, coincidono. 173

u u u + v u u L θ v O θ/2 v v v O (a) (b) Figura 18: Parallelograma ed angolo individuati dai vettori u e v. Lavoriamo nel piano contenente i vettori u e v. Per costruzione, i vettori u/ u e v/ v sono contenuti in una circonferenza di centro O e raggio 1, come illustrato in figura 18b. Evidentemente sin θ 2 = L. (22.3) Usando la formula di duplicazione del seno si scrive il membro di sinistra come sin θ 2 = 1 cos θ 2 mentre per il membro di destra notiamo che 2L = d ( u, v ) u v = u v ( ) ( ) u v = u v u v u v u v u = u + v v 2 u v = 2 2 u v u u v v u v L uguaglianza (22.3) diventa quindi: 1 cos θ 2 = 1 2 u v 2 2 u v. Confrontando membro di sinistra e membro di destra si ottiene esattamente come ci aspettavamo. cos θ = u v u v u v. 174

22.3 Prodotto vettoriale e prodotto misto Dati due vettori u e v di R 3, il loro prodotto vettoriale, indicato con u v, è il vettore di componenti Prodotto vettoriale u v = ( u 2 v 3 u 3 v 2, u 3 v 1 u 1 v 3, u 1 v 2 u 2 v 1 ). (22.4) La regola mnemonica è: ( u 1 u 2 u 3 u v = +, u 1 u 2 u 3, + u 1 u 2 u 3 v 1 v 2 v 3 v 1 v 2 v 3 v 1 v 2 v 3 ) Indicando come al solito con (e 1, e 2, e 3 ) è la base canonica di R 3, osserviamo che formalmente il prodotto vettoriale si può calcolare attraverso il determinante e 1 e 2 e 3 u v = u 1 u 2 u 3 (22.5) v 1 v 2 v 3 come si può verificare con lo sviluppo di Laplace rispetto alla prima riga. Si tratta solo formalmente di un determinante, in quanto gli elementi della prima riga non sono numeri ma i versori dei tre assi di R 3. Lo scalare (u v) w Prodotto misto è detto prodotto misto vettori u, v e w di R 3. Notiamo che u 1 u 2 u 3 (u v) w = w 1 w v 1 v 2 v 2 3 u 1 u 2 u 3 v 1 v 2 v 3 + w 3 u 1 u 2 u 3 v 1 v 2 v 3 Nell espressione precedente riconosciamo lo sviluppo di Laplace rispetto alla terza riga del determinante: u 1 u 2 u 3 (u v) w = v 1 v 2 v 3 (22.6) w 1 w 2 w 3 Lemma 22.3.1. Per i vettori della base canonica valgono le regole: e 1 e 2 = e 3, e 2 e 3 = e 1, e 3 e 1 = e 2. Dimostrazione. Se u = e 1 = (0, 0, 1) e v = e 2 = (0, 1, 0), si ha ( ) 1 0 0 u v =, 1 0 0 0 1 0 0 1 0, + 1 0 0 = (0, 0, 1) = e 3. 0 1 0 In modo analogo si provano le altre due uguaglianze. 175

Proposizione 22.3.2. 1. Il prodotto vettoriale R 3 R 3 R 3, (u, v) u v, è una operazione interna di R 3 non associativa e non commutativa. Gode invece della proprietà anticommutativa: u v = v u u, v R 3. 2. u, v R 3 sono linearmente dipendenti 13 u v = 0. 3. Vale la seguente identità di Lagrange: Identità di Lagrange u v 2 = u 2 v 2 u v 2. 4. Il prodotto vettoriale u v è ortogonale al piano individuato da u e v. 5. La norma del vettore u v è l area del parallelogramma di lati u e v. 6. Il prodotto misto gode della simmetria ciclica: Area di un parallelogramma (u v) w = (w u) v = (v w) u per ogni u, v, w R 3. 7. u, v, w R 3 sono linearmente dipendenti 14 (u v) w = 0. 8. (u v) w è il volume del parallelepipedo che ha per lati i vettori u, v e w. Volume di un parallelepipedo Dimostrazione. 1. Scambiando due righe di una matrice il determinante cambia segno. Da questa osserazione e da (22.5) segue la proprietà anticommutativa del prodotto vettoriale. Per il Lemma 22.3.1, e 1 e 2 = e 3 è diverso da e 2 e 1 = e 3 ; inoltre se u = (1, 1, 0), il vettore (e 1 e 2 ) u = e 3 u = ( 1, 1, 0) è diverso da e 1 (e 2 u) = e 1 (0, 0, 1) = (0, 1, 0) ; quindi il prodotto vettoriale non è commutativo e non è associativo. 2. E sufficiente osservare che le componenti di u v sono, a meno di un segno, il determinante dei minori di ordine 2 della matrice: ( ) u1 u 2 u 3 A =. v 1 v 2 v 3 13 Ricordiamo che due vettori di R 3 non nulli sono linearmente dipendenti se e solo se sono paralleli. 14 Ricordiamo che tre vettori non nulli di R 3 sono linearmente dipendenti se e solo se sono complanari. 176

I vettori u e v sono linearmente indipendenti se e solo se ρ(a) = 2, ed una condizione necessaria e sufficiente (per teorema degli orlati) è che almeno un minore di ordine 2 di A abbia determinante non nullo, ovvero almeno una componente di u v sia diversa da zero. Quindi u e v sono linearmente indipendenti se e solo se u v 0, affermazione equivalente a quella che si voleva dimostrare. 3. L identità di Lagrange si prova con un semplice calcolo. Si ha: u 2 v 2 (u v) 2 = (u 2 1 + u 2 2 + u 2 3)(v 2 1 + v 2 2 + v 2 3) (u 1 v 1 + u 2 v 2 + u 3 v 3 ) 2 = u 2 1v1 2 + u 2 1v2 2 + u 2 1v3 2 + u 2 2v1 2 + u 2 2v2 2 + u 2 2v3 2 + u 2 3v1 2 + u 2 3v2 2 + u 2 3v3 2 ( ) u 2 1v1 2 + u 2 2v2 2 + u 2 3v3 2 + 2u 1 u 2 v 1 v 2 + 2u 1 u 3 v 1 v 3 + 2u 2 u 3 v 2 v 3 = (u 2 v 3 u 3 v 2 ) 2 + (u 3 v 1 u 1 v 3 ) 2 + (u 1 v 2 u 2 v 1 ) 2 = u v 2. 4. Usando (22.6) si calcola il prodotto scalare u 1 u 2 u 3 (u v) u = v 1 v 2 v 3 = 0. u 1 u 2 u 3 Il determinante è zero perché la matrice ha due righe uguali. In maniera simile si prova che (u v) v = 0, da cui segue che u v è ortogonale a qualsiasi combinazione lineare dei vettori u e v, ovvero la tesi. 5. L area del parallelogramma in figura 18a è Area = base altezza = u v sin θ. D altra parte dall identità di Lagrange, ricordando che u v = u v cos θ, segue che da cui la tesi. u v = u 2 v 2 (u v) 2 = u 2 v 2 (1 cos 2 θ) = u v 1 cos 2 θ = u v sin θ, 6. Segue da (22.6) e dalle proprietà del determinante (che cambia segno se si scambiano due righe, e rimane invariato se si effettuano un numero pari di scambi). 7. Segue da (22.6) e dalle proprietà del determinante: tre vettori sono linearmente indipendenti se e solo se la matrice che ha i vettori come righe ha rango 3. Nel caso di una matrice 3 3, per il teorema degli orlati è necessario e sufficiente che tale matrice abbia determinante non nullo. 177

w pr u v (w) O u h v Figura 19: Parallelepipedo individuato dai vettori u, v e w. 8. La situazione è illustrata in figura 19. Per il punto 5, la base del parallelepipedo ha area data da u v. L altezza è la norma del vettore ovvero Il volume è quindi pr u v (w) = λ u v, altezza = λ = (u v) w u v (u v) w u v 2,. Volume = base altezza = (u v) w u v u v = (u v) w, come volevasi dimostrare. Da un punto di vista geometrico, dati due vettori u e v linearmente indipenenti, u v ha direzione ortogonale al piano Π contenente i vettori u e v (figura 20) e la norma è data dall area del parallelogramma di lati u e v. Per determinare il verso di u v esistono varie regole mnemoniche (la regola della mano destra, la regola di Fleming della mano sinistra, la regola della vite destrorsa, etc.), che non tratteremo in questo corso. Notiamo che, dato un piano Π di equazioni parametriche: Π : x = p + t 1 u + t 2 v, l equazione parametrica della retta r ortogonale a Π e passante per un punto p sarà data da r : x = p + t(u v). 178

x 3 u v v u x 2 x 1 Figura 20: Prodotto u v. Per finire, osserviamo che come nel caso di matrici 2 2 (paragrafo 8.2), anche il determinante di una matrice A M 3 (R) ha una interpretazione geometrica: il suo modulo è il volume del parallelepipedo che ha le righe di A come lati. Proposizione 22.3.3. Siano u, v R 3 due vettori linearmente indipendenti. Allora la terna ( u, v, u v ) è una base di R 3. Dimostrazione. Chiamiamo w = u v. Il prodotto misto di u, v, w, è dato da (u v) w = (u v) (u v) = u v 2 e quindi è diverso da zero per il punto 2 della proposizione 22.3.2. Dalla proposizione 22.3.2, punto 7, segue che i vettori u, v, w sono linearmente indipendenti, e quindi formano una base di R 3. 22.4 Retta per due punti, piano individuato da tre punti Non è difficile scrivere le equazioni parametriche della retta r passante per due punti distinti a e b. Si ha r : x = a + t(b a). Siccome u = b a 0, la precedente equazione descrive una retta. Per t = 0 si ottiene il punto a, e per t = 1 si ottiene il punto a + (b a) = b. Quindi a, b r come richiesto. D altra parte x a = t(b a) se e solo se i vettori x a e b a sono linearmente dipendenti. Due vettori di R 3 sono linearmente dipendenti se e solo se il loro prodotto vettoriale è zero, quindi le equazioni cartesiane di r si possono scrivere nella forma (b a) (x a) = 0. 179

Notiamo che si tratta di tre equazioni in tre incognite, ma solo due sono indipendenti fra di loro. Infatti, il sistema in forma matriciale è dato da: 0 (b 3 a 3 ) b 2 a 2 x 1 a 1 b 3 a 3 0 (b 1 a 1 ) x 2 a 2 = 0 (b 2 a 2 ) b 1 a 1 0 x 3 a 3 e la matrice dei coefficienti ha rango 2 (con lo sviluppo di Laplace si prova che il determinante è zero, ed è facile trovare un minore di ordine due con determinante non nullo, da cui per il teorema degli orlati il rango è 2). Consideriamo ora tre punti a, b, c R 3. Le equazioni parametriche: Π : x = a + t 1 (b a) + t 2 (c a) descrivono un piano se e solo se i due vettori u = b a e v = c a sono linearmente indipendenti (ovvero i tre punti a, b, c non sono allineati). Notiamo che se (t 1, t 2 ) = (0, 0), si ottiene x = a; se (t 1, t 2 ) = (1, 0), si ottiene x = b; se (t 1, t 2 ) = (0, 1), si ottiene x = c. Quella trovata è quindi l equazione del piano passante per tre punti a, b, c non allineati. Ricordiamo che due vettori sono linearmente indipendenti se e solo se il loro prodotto vettoriale è diverso da zero, si ottiene quindi la condizione (b a) (c a) 0. Scrivendo le equazioni parametriche di Π nella forma x a = t 1 (b a) + t 2 (c a), si vede che x Π se e solo se i tre vettori x a, b a e c a sono linearmente dipendenti. Ricordiamo che tre vettori di R 3 sono linearmente dipendenti se e solo se il loro prodotto misto è zero, quindi x appartiene al piano Π se e solo se: La (22.7) è l equazione cartesiana di Π. equivalente: Proviamo che (22.7) è equivalente a (22.8). (x a) (b a) (c a) = 0. (22.7) L equazione può essere scritta nella forma x 1 x 2 x 3 1 a 1 a 2 a 3 1 Π : = 0. (22.8) b 1 b 2 b 3 1 c 1 c 2 c 3 1 Per riduzione, sottraendo la seconda riga della matrice in (22.8) alle altre tre, si ottiene x 1 x 2 x 3 1 x 1 a 1 x 2 a 2 x 3 a 3 0 a 1 a 2 a 3 1 a 1 a 2 a 3 1 =, b 1 b 2 b 3 1 b 1 a 1 b 2 a 2 b 3 a 3 0 c 1 c 2 c 3 1 x 1 a 1 x 2 a 2 x 3 a 3 0 180

Tabella 3: Retta passante per a, b R 3 ; piano contenente a, b, c R 3. Retta r Piano Π Equazioni parametriche Equazioni cartesiane x = a + t(b a) x = a + t 1 (b a) + t 2 (c a) (b a) (x a) = 0 (x a) (b a) (c a) = 0 Condizione a b (b a) (c a) 0 e con lo sviluppo di Laplace rispetto all ultima colonna otteniamo x 1 a 1 x 2 a 2 x 3 a 3 x a = b 1 a 1 b 2 a 2 b 3 a 3 = b a x 1 a 1 x 2 a 2 x 3 a 3 c a cioé il determinante in (22.8) è proprio il prodotto misto in (22.7). Uno schema riassuntivo è nella tabella 3., 181

Appendice A Equazioni polinomiali Sommario: equazioni polinomiali; il campo dei numeri complessi; polinomi; teorema fondamentale dell algebra (senza dimostrazione); le equazioni di secondo e terzo grado; cenni sull equazione di quarto grado. A.1 Introduzione Una equazione algebrica o polinomiale di grado n in una incognita x è una equazione della forma a 0 x n + a 1 x n 1 +... + a n 1 x + a n = 0 Equazioni polinomiali con a i elementi di un qualche campo, e qui assumeremo sempre a i R salvo indicazioni contrarie, e a 0 0. Dividendo per a 0, l equazione si può sempre ridurre alla forma con il coefficienti di x n uguale ad 1. x n + a 1 a 0 x n 1 +... + a n 1 x + an a 0 = 0 Gli autovalori di una matrice n n sono soluzioni di una equazione di grado n. Una equazione polinomiale a coefficienti reali può non ammettere soluzioni reali: ad esempio x 2 +1 = 0, ovvero x 2 = 1, non ammette soluzioni reali, poiché il quadrato di un numero reale è sempre positivo o nullo. a 0 A.2 Richiami sui numeri complessi Intuitivamente i numeri complessi si ottengono dai reali aggiungendo una radice del numero reale 1. Tale radice è detta unità immaginaria ed è generalmente indicata con il simbolo i, ma qui verrà indicata con il simbolo 1 per non confonderla con un indice di riga. Un numero complesso è un numero della forma Unità immaginaria z = x + 1 y x, y R. La parte reale di z, indicata con R(z), e la parte immaginaria, indicata con I(z), sono i numeri reali: R(z) = x ;, I(z) = y. Sia z = x + 1 y (con x, y R). I numeri complessi si sommano e moltiplicano secondo la regola z + z = (x + x ) + 1 (y + y ), z z = xx yy + 1 (xy + x y). 182

L insieme di tutti i numeri complessi è indicato con C. E un anello commutativo, con somma e prodotto definiti qui sopra ed elementi neutri lo 0 e l 1 dei numeri reali. L applicazione lineare R 2 C, (x, y) x + 1 y, è biunivoca. Diremo che i numeri complessi formano uno spazio vettoriale reale di dimensione 2, isomorfo ad R 2. Il complesso coniugato di z = x + 1 y è il numero z = x 1 y. Complesso coniugato Il prodotto z z = x 2 + y 2 è non negativo, e si annulla se e solo se z = 0. In particolare ogni z 0 è invertibile, con inverso: z 1 = z z z. I numeri complessi formano quindi un campo. Ogni punto di R 2 si può rappresentare nella forma (x, y) = (r cos θ, r sin θ), con r 0 e 0 θ < 2π. I numeri r, θ sono univocamente determinati se (x, y) (0, 0), e si dicono coordinate polari del punto (x, y). Usando le coordinate polari, ogni Coordinate polari numero complesso non nullo si può scrivere nella forma z = r(cos θ + 1 sin θ). Il numero r = z z è detto modulo del numero complesso z. Un numero complesso diverso da zero ha esattamente n radici di ordine n, date da { ( n z = n r cos θ + 2kπ + 1 sin θ + 2kπ ) } : k = 0,..., n 1 n n, Modulo dove n r indica la radice n-esima positiva di r. Le radici di z sono disposte su un cerchio di raggio r ed equidistanti fra di loro. In figura 21, a titolo di esempio, sono riportate le radici n-esime di 1 per n = 3, 4. A.3 Polinomi Sia n 0 un intero non negativo. Un polinomio di grado n nella variabile ξ a coefficienti in un campo K è una espressione del tipo p(ξ) = a 0 ξ n + a 1 ξ n 1 +... + a n 1 ξ + a n 183

y y ( 1 2, 3 ) 2 2π 3 (0, 1) π 2 0 (1, 0) x ( 1, 0) (1, 0) π 0 x 4π 3 ( 1 2, 3 ) 2 (a) n = 3 3π 2 (0, 1) (b) n = 4 Figura 21: Radici complesse n-esime di 1 con a i K per ogni i, e a 0 0. A noi interesserà il caso K = R. In quasto paragrafo utilizziamo il simbolo ξ per indicare la variabile, per enfatizzare che si tratta appunto di un simbolo e non un numero. Sia p (ξ) = a 0ξ n + a 1ξ n 1 +... + a n 1ξ + a n un altro polinomio. Due polinomi p(ξ) e p (ξ) sono uguali se e solo se a 0 = a 0, a 1 = a 1,... a n = a n. Dato ξ 0 R, valutare il polinomio in ξ 0 vuol dire sostituire al simbolo ξ il numero reale ξ 0 : si ottiene in questo modo un numero reale p(ξ 0 ). La funzione reale: f : R R, x p(x), che associa ad ogni x R il numero p(x) è detta funzione polinomiale. Polinomi e funzioni polinomiali sono in corrispondenza biunivoca (due polinomi sono uguali se e solo se sono uguali le funzioni polinomiali associate). Un numero ξ 0 R è detto radice del polinomio p(ξ) se è uno zero della corrispondente funzione polinomiale: p(ξ 0 ) = 0. Un polinomio reale può non ammettere radici reali: ad esempio p(ξ) = ξ 2 + 1 non ammette radici reali. Ammette però due radici complesse. Più in generale, vale il seguente teorema. Teorema A.3.1 (Teorema fondamentale dell algebra). Un polinomio di grado n a coefficienti in C ammette sempre n radici complesse, ovvero può essere scritto nella forma p(ξ) = a(ξ z 1 )(ξ z 2 )... (ξ z n ), dove z 1,..., z n C sono le sue radici e a C. Radici Teorema fondamentale dell algebra 184

Siccome R C, come caso particolare si ottiene che un polinomio a coefficienti reali ammette sempre radici complesse. Corollario A.3.2. Un polinomio di grado n a coefficienti in R ammette sempre n radici complesse, ovvero può essere scritto nella forma p(ξ) = a(ξ z 1 )(ξ z 2 )... (ξ z n ), dove z 1,..., z n C sono le sue radici e a R. Le radici z 1,..., z n non sono necessariamente distinte. Ad esempio il polinomio x 2 2x + 1 = (x 1) 2 ammette due radici, entrambe uguali ad 1. In generale, indicando con µ 1,..., µ r le radici distinte del polinomio p(ξ) (r n), si avrà p(ξ) = a(ξ µ 1 ) m 1 (ξ µ 2 ) m 2... (ξ µ r ) mr, dove m i Z + è detto molteplicità della radice µ i, e Molteplicità m 1 + m 2 +... + m r = n. A.4 L equazione di secondo grado La formula risolutiva per le equazioni di secondo grado è ben nota dalle scuole superiori. L equazione ax 2 + bx + c = 0 (con a 0) ha soluzioni x = b ± b 2 4ac. 2a La formula risolutiva vale sia quando i coefficienti sono reali, sia quando sono complessi. Se a, b, c R, si possono verificare tre casi, che dipendono dal segno della grandezza b 2 4ac, detta discriminante: se il discriminante è positivo si hanno due soluzioni reali distinte; se è nullo si ha una sola soluzione ed è reale (di molteplicità 2); se è negativo si hanno due soluzioni complesse coniugate. Formula risolutiva equazione di 2 grado Discriminante Osservazione A.4.1. Notiamo che per ogni λ 1, λ 2 C vale l identità (x λ 1 )(x λ 2 ) = x 2 (λ 1 + λ 2 )x + λ 1 λ 2. Risolvere l equazione x 2 + bx + c = 0 equivale quindi a trovare due numeri λ 1, λ 2 tali che { λ1 + λ 2 = b λ 1 λ 2 = c 185

A.5 L equazione di terzo grado Un equazione di terzo grado si può sempre scrivere nella forma: Con la sostituzione x 3 + ax 2 + bx + c = 0. (1.1) y = x + a 3 l equazione (1.1) si trasforma in una in cui manca il termine di grado 2. Si ha infatti: y 3 + py + q = 0 (1.2) con p = 1 3 a2 + b, q = 2 27 a3 1 3 ab + c. Per motivi imperscrutabili, scriviamo y = u + v e sostituiamo in (1.2). Sostituendo si trova l equazione (u 3 + v 3 + q) + (u + v)(3uv + p) = 0. Per trovare una soluzione di questa equazione in due variabili, è sufficiente risolvere il sistema (non lineare) di due equazioni in due incognite { u 3 + v 3 = q 3uv = p (1.3) Il miracolo è che tutte le soluzioni dell equazione di terzo grado di partenza si possono ottenere risolvendo questo sistema. Si ha infatti: Proposizione A.5.1. y è soluzione dell equazione (1.2) se e solo se y = u + v, con u e v soluzioni di (1.3). Dimostrazione. Dobbiamo provare il solo se. Sia y soluzione di (1.2). Possiamo sempre trovare due numeri u, v tali che u + v = y e 3uv = p (per l osservazione A.4.1, u e v sono le soluzioni dell equazione z 2 yz p = 0) e ricavare 3 0 = y 3 + py + q = (u 3 + v 3 + q) + (u + v)(3uv + p) = u 3 + v 3 + q che è la seconda equazione cercata. Prendendo il cubo della seconda equazione in (1.3), si vede che u 3, v 3 risolvono l equazione di secondo grado (osservazione A.4.1): z 2 + qz p3 27 = 0. Non tutte le soluzioni di questa equazione daranno però soluzioni di (1.3). Elevando al cubo l equazione 3uv = p abbiamo aggiunto delle soluzioni. 186

Usando la formula risolutiva per le equazioni di secondo grado si trova { {u 3, v 3 } = q } q 2 + 2 4 + p3 q 27, q 2 2 4 + p3 27 e quindi y = u + v = 3 q 2 + q 2 4 + p3 27 + 3 q 2 q 2 Questa è la celebre formula risolutiva per l equazione (1.2). 4 + p3 27. Ripetiamo che non tutte le radici cubiche daranno soluzioni dell equazione (1.2). Due radici cubiche u, v di u 3, v 3 danno soluzioni dell equazione di terzo grado se e solo se 3uv = p. Ci chiediamo ora, nel caso in cui i coefficienti p, q siano reali, quante sono le soluzioni reali di (1.2). Questo dipende dal valore di Formula risolutiva equazione di 3 grado Discriminante q 2 4 + p3 27, detto discriminante dell equazione. Si può verificare che se il discriminante è minore o uguale a zero tutte le soluzioni sono reali, mentre se il discriminante è positivo l equazione ha una soluzione reale (che si ottiene prendendo le radici reali nella formula risolutiva) e due complesse coniugate 15. Esempio A.5.2. Un caso particolare di (1.1) si ha quando c = ab. In tal caso e le soluzioni sono x = a e x = ± b. x 3 + ax 2 + bx + c = (x + a)(x 2 + b) A.6 Cenni sull equazione di quarto grado Un equazione di quarto grado si può sempre scrivere nella forma: x 4 + ax 3 + bx 2 + cx + d = 0. (1.4) Con la sostituzione y = x + a 4 si trasforma (1.4) nell equazione y 4 + py 2 + qy + r = 0 15 Per maggiori dettagli, si può leggere l articolo di G. Gorni, L equazione di terzo grado, on-line qui: http://sole.dimi.uniud.it/~gianluca.gorni/dispense/terzogrado.pdf 187

dove abbiamo chiamato p = 3 8 a2 + b, q = 1 8 a3 1 2 ab + c, r = 3 256 a4 + 1 16 a2 b 1 4 ac + d. Cerchiamo quindi una soluzione della forma y = u + v + w. Si può dimostrare che u, v, w sono le soluzioni dell equazione di terzo grado z 3 + p ( p 2 z2 + 16 4) r z q2 64 = 0. Quest ultima equazione può essere risolta come illustrato nel paragrafo precedente. La situazione cambia drasticamente nel caso di equazioni polinomiali di grado superiore al quarto. Per tali equazioni è noto che non esistono formule risolutive esprimibili tramite radicali (Teorema di Abel-Ruffini). La storia delle equazioni algebriche, dai Babilonesi ai nostri giorni, si può trovare nel libro Storia della matematica di C.B. Boyer (Mondadori, 2000). A.7 Polinomi a coefficienti interi Nel caso di un polinomio a coefficienti interi, sia esso p(x) = a n x n + a n 1 x n 1 +... + a 1 x + a 0 Teorema delle radici razionali con a n 0, è possibile trovare le radici razionali con il metodo illustrato nel seguito. Per il teorema delle radici razionali, se un numero razionale r = p/q è una radice di p(x) allora i) p divide a 0 ; ii) q divide a n. Per trovare le radici razionali basta allora verificare per sostituzione quali fra le combinazioni p/q, con p divisore di a 0 e q divisore di a n, sono radici. Con questo metodo ovviamente non è possibile determinare radici che non siano razionali. Esempio A.7.1. Determiniamo le radici razionali di p(x) = x 3 + 3x 2 + 6x 8. I divisori di a 0 = 8 sono ±1, ±2, ±4, ±8; i divisori di a 3 = 1 sono ±1; quindi p/q {±1, ±2, ±4, ±8}. Per sostituzione si verifica che le radici sono 1, 4, 2, quindi p(x) = (x 1)(x 4)(x + 2). 188

Esempio A.7.2. Determiniamo le radici razionali di p(x) = x 3 + 1 2 x2 2x 1. Come prima cosa moltiplichiamo p(x) per 2, in modo da ottenere un polinomio a coefficienti interi che indichiamo con p(x): I divisori di a 0 = 2 sono ±1, ±2; quindi i divisori di a 3 = 2 sono ±1, ±2; quindi p(x) = 2p(x) = 2x 3 + x 2 4x 2. p {±1, ±2}. q {±1, ±2}. Dobbiamo provare tutte le combinazioni p/q e vedere quali sono radici del polinomio. Facendo la verifica si trova p(1) = 3, p( 1) = 1, p( 1) = 3, p( 1 ) = 0, p(2) = 10, p( 2) = 6 2 4 2 L unica radice razionale è quindi 1/2. Si può in effetti verificare che p(x) = (x + 1 2 )(x 2)(x + 2). Regola di Ruffini Dato uno scalare r e un polinomio p(x) di grado n: Regola di Ruffini p(x) = a n x n + a n 1 x n 1 +... + a 1 x + a 0 con a n 0, la regola di Ruffini permette di decomporre p(x) nella forma p(x) = (x r)q(x) + R in cui q(x) = b n 1 x n 1 +... + b 1 x + b 0 è un polinomio di grado n 1 e R è una costante detta resto. Per calcolare i coefficienti b 0,..., b n 1 si procede come illustrato nella tabella seguente: a n a n 1 a n 2... a 2 a 1 a 0 r b n 1 r b n 2 r... b 2 r b 1 r b 0 r a n a n 1 + b n 1 r a n 2 + b n 2 r... a 2 + b 2 r a 1 + b 1 r a 0 + b 0 r = b n 1 = b n 2 = b n 3... = b 1 = b 0 = R 189

Se r è una radice di p(x), allora il resto è R = 0. La regola di Ruffini permette allora di scrivere un polinomio come il prodotto di x r, con r radice, per un polinomio di grado inferiore. Se p(x) ha coefficienti interi, una radice razionale (se esiste) si può trovare come illustrato all inizio del paragrafo, e poi si può applicare la regola di Ruffini per provare a determinare le radici rimanenti. Esempio A.7.3. Sia p(x) = x 3 + 1 2 x2 2x 1. Sappiamo che r = 1/2 è una radice. Determiniamo allora q(x) tale che p(x) = (x + 1 )q(x). Si ha 2 1 1/2 2 1 1/2 1/2 0 1 1 0 2 0 = b 2 = b 1 = b 0 = R Quindi q(x) = x 2 2 e p(x) = (x + 1 2 )(x2 2). Le rimanenti radici (irrazionali) si trovano notando che x 2 2 = (x + 2)(x 2). Esempio A.7.4. Sia p(x) = 2x 3 + 2x 2 x 3. Si vede a occhio che r = 1 è una radice (p(1) = 2 + 2 1 3 = 0). Con la regola di Ruffini: Quindi q(x) = 2x 2 + 4x + 3 e 2 2 1 3 1 2 4 3 2 4 3 0 = b 2 = b 1 = b 0 = R p(x) = (x 1)(2x 2 + 4x + 3). Si può verificare che q(x) non ha radici reali (il discriminante è negativo). l unica radice reale di p(x) è r = 1. Quindi 190