PROGRAMMA del corso di GEOMETRIA 1 - Algebra Lineare Laurea Triennale in Matematica Anno Accademico 2007/08 docente : Bruno Zimmermann (Il presente programma è stato redatto sulla base degli appunti del corso presi dalla signorina Laura Franzoi, che qui ringrazio. I vari argomenti sono stati un po riordinati secondo un criterio logico, piuttosto di quello cronologico della lezione in cui sono stati svolti. Dario Portelli) 1.- Premesse di Algebra. Definizione di gruppo. Unicità dell elemento neutro e dell inverso (con dimostrazione). Gruppi abeliani. Esempi: determinazione di tutti i gruppi finiti con al più quattro elementi; (Q, ) e (R, ) non sono gruppi, mentre lo sono sia (Q {0}, ) che (R {0}, ) Definizione di campo. Esempi: (Q, +, ) e (R, +, ); campi finiti Z 2 e Z 3. Costruzione del campo C dei numeri complessi, pensati come coppie ordinate di numeri reali. Giustificazione euristica geometrica della definizione di prodotto (la somma è ovvia). Verifica delle varie proprietà formali di un campo. Modulo di un numero complessso, e sue proprietà. Coniugio complesso. Teorema Fondamentale dell Algebra (solo enunciato): ogni polinomio a coefficienti complessi, non costante, ammette almeno una radice in C. Teorema di Ruffini (solo enunciato): siano f K[X] e α K. Allora f(α) = 0 se e solo se f = (X α) g(x). Corollario: ogni polinomio a coefficienti complessi, di grado n 1, si fattorizza in un prodotto di n fattori lineari, cioè: di grado 1. 2.- Spazi vettoriali. Sottospazi. Definizioni di spazio vettoriale su un campo K. 1
Prime conseguenze formali della definizione: λ 0 = 0 e 0 v = 0 per ogni λ K ed ogni v V ; λ v = 0 se e solo se λ = 0 oppure v = 0; infine ( 1)v = v. Esempi: K n e l insieme dei polinomi K[X]. Definizioni di sottospazio vettoriale. Sottospazi banali. Proposizione: un sottoinsieme W di uno spazio vettoriale V è un sottospazio di V se e solo se W ed inoltre, presi comunque λ, µ K e u, v W, si ha che λu + µv W. Proposizione: l intersezione di una famiglia arbitraria di sottospazi di V è ancora un sottospazio di V. L unione di due sottospazi W e W di V non è un sottospazio di V, in generale. Lo è se e solo se W W oppure W W. Combinazioni lineari. Famiglia finita di vettori linearmente indipendenti. Famiglia arbitraria di vettori linearmente indipendenti. Chiusura lineare di una famiglia di vettori. Proposizione: v 1,..., v r V sono linearmente indipendenti se e solo se ogni vettore appartenente alla chiusura lineare di v 1,..., v r si può scrivere in modo unico come combinazione lineare di v 1,..., v r. Sistema di generatori. Base di uno spazio vettoriale. Lemma: sia { v 1,..., v n } una base di uno spazio vettoriale V, e sia w = λ 1 v 1 +... + λ n v n un vettore di V. Se λ k 0 per un fissato k tale che 1 k n, allora { v 1,..., v k 1, w, v k+1,..., v n } è ancora una base di V. Teorema (del prolungamento ad una base): sia { v 1,..., v n } una base di V, e siano w 1,..., w r vettori di V linearmente indipendenti. Allora r n, e (dopo aver eventualmente riordinato gli indici 1,..., n) { w 1,..., w r, v n r+1,..., v n } è ancora una base di V. Corollario: se si può generare V con un numero finito di vettori, allora due basi di V hanno lo stesso nimero di elementi. Definizione di dimensione di uno spazio vettoriale. Esempi: base canonica (o standard ) di K n ; il K-spazio vettoriale K[X] non ha una base finita. Proposizione: se v 1,..., v n generano V, allora { v 1,..., v n } contiene una base di V. Proposizione: sia W un sottospazio di uno spazio vettoriale V, di dimensione finita. Allora dim(w ) dim(v ). Se le due dimensioni sono uguali, allora W = V. Insiemi ordinati parzialmente. Elementi massimali, elemento massimo, limitazioni superiori di un sottoinsieme per un insieme parzialmente ordinato. Lemma di Zorn (solo enunciato). Teorema: ogni spazio vettoriale possiede una base. Somma di sottospazi e somma diretta. Varie caratterizzazioni della somma diretta di due o più sottospazi. Teorema (formula di dimensione per sottospazi): sia V uno spazio vettoriale di dimensione finita. Se U e W sono due sottospazi, allora dim(u + W ) = dim(u) + dim(w ) dim(u W ) 2
3.- Matrici. Definizione di matrice e relativa nomenclatura. L insieme di tutte la matrici di tipo fissato m n, ad entrate in un campo K, è un K-spazio vettoriale, di dimensione mn. Spazio delle righe e spazio delle colonne di una matrice. Ranghi per righe e per colonne. Teorema: data una matrice A, il rango per righe di A è uguale al rango per colonne (tale numero si chiama semplicemente rango di A) Trasformazioni elementari di matrici (=operazioni elementari sulle loro righe, o sulle loro colonne). Osservazione che il rango di una matrice rimane invariato per trasformazioni elementari. Teorema (eliminazione di Gauss, o algoritmo di Gauss): ogni matrice si può trasformare in una matrice a gradini mediante operazioni elementari sulle righe. Prodotto righe per colonne di matrici. Tale prodotto non è commutativo. Matrici identità. Varie proprietà formali del prodotto righe per colonne; ad esempio, la sua distributività (sia a destra che a sinistra) rispetto alla somma di matrici. Matrici trasposte. Varie proprietà formali del passaggio alla trasposta. Matrici simmetriche ed antisimmetriche. Rango per righe e rango per colonne di una matrice. Teorema: i ranghi per righe e per colonne di una matrice arbitraria sono uguali. Matrici invertibili. Unicità dell inversa di una matrice invertibile. Il gruppo GL(n, K). Algoritmo per la determinazione effettiva dell inversa di una matrice (se esiste). A è invertibile se e solo se t A è invertibile. 4.- Applicazioni lineari. Definizione di applicazione lineare. Esempio: l applicazione L A : K n K m determinata da una matrice A, di tipo m n. Proposizione: se F : V W è un applicazione lineare, allora per ogni sottospazio V di V si ha che F (V ) è un sottospazio di W. Inoltre, per ogni sottospazio W di W si ha che F 1 (W ) è un sottospazio di V. Nucleo Ker(F ) ed immagine Im(F ) di un applicazione lineare F. Proposizione: l applicazione lineare F : V W è iniettiva se e solo se Ker(F ) = {0}. Teorema (di determinazione di un applicazione lineare sulla base): siano V, W spazi vettoriali sul campo K, e siano inoltre (v i ) i I una base di V e (w i ) i I una famiglia di vettori di W (si noti che l insieme degli indici è lo stesso). Allora esiste una ed una sola applicazione lineare F : V W tale che F (v i ) = w i per ogni i I. Lo spazio vettoriale Hom(V, W ). La composizione di due applicazioni lineari è ancora un applicazione lineare. 3
Lemma: se F : V W lineare è un isomorfismo, allora anche l applicazione inversa F 1 : W V è lineare, dunque è un isomorfismo. La composizione di due isomorfismi è ancora un isomorfismo. Teorema (formula di dimensione per applicazioni lineari): sia F : V W lineare, ove V è uno spazio vettoriale di dimensione finita. Allora dim(v ) = dim(ker(f ))+ dim(im(f )). Rango di un applicazione lineare. Corollario: se dim(v ) = dim(w ) ed è finita, allora per un applicazione lineare F sono equivalenti l essere iniettiva, suriettiva, un isomorfismo. Proposizione: ogni spazio vettoriale sul campo K, di dimensione n, è isomorfo a K n. Matrice associata ad un applicazione lineare. Teorema: dati due spazi vettoriali V e W sul campo K, di dimensione n ed m rispettivamente, e fissate una base A di V ed una base B di W, si ha un isomorfismo di spazi vettoriali M A B : Hom(V, W ) M (m n, K) dato da F M A B (F ) Proposizione: siano dati tre spazi vettoriali V, W ed U sul campo K, e due applicazioni lineari F : V W e G : W U. Se A, B e C sono basi rispettivamente di V, W ed U, allora si ha M A C (G F ) = M B C (G) M A B (F ) Un applicazione lineare F è un isomorfismo se e solo se la matrice associata ad F (rispetto ad un arbitraria scelta delle basi) è invertibile. Cambiamento di base: siano A e B basi dello spazio vettoriale V sul campo K. Se x K n è il vettore delle coordinate di v V rispetto alla base A, allora M A B (id V ) x è il vettore delle coordinate di v rispetto alla base B. Proposizione: se F : V W è lineare, e se A, A sono basi di V, e B, B sono basi di W, allora M A B (F ) = M B B (id W ) M A B (F ) M A B (id V ) Se F : V V è un endomorfismo, e se A e B sono basi di V, allora B = M B B (F ) = M A B (id V ) M A A (F ) M B A (id V ) = SA S 1 Matrici simili. La similitudine tra matrici (quadrate) è una relazione di equivalenza. Teorema: sia F : V W un applicazione lineare tra spazi vettoriali di dimensione finita, di rango r. Allora esistono una base A di V ed una base B di W tali che ( ) MB A Ir 0 (F ) = 0 0 4
Corollario: sia A una matrice di tipo n m ad entrate nel campo K, di rango r. Allora esistono S GL(m, K) e T GL(n, K) tali che ( Ir 0 ) SAT = 0 0 Lemma: se A è una matrice di tipo n m, prese comunque S GL(m, K) e T GL(n, K) si ha che il rango per righe (risp.: per colonne) di SAT è uguale al rango per righe (risp.: per colonne) di A. 5.- Sistemi lineari. Definizione di sistema lineare; incognite, termini noti, matrice dei coefficienti. Sistemi lineari omogenei. L insieme delle soluzioni di un sistema lineare omogeneo è uno spazio vettoriale. Sistema lineare omogeneo A x = 0 associato ad un sistema lineare generale A x = b. Teorema: la differenza di due soluzioni qualsiasi (se esistono) di un sistema lineare generale è sempre una soluzione del sistema lineare omogeneo associato. Se W è lo spazio delle soluzioni del sistema lineare omogeneo A x = 0, associato al sistema lineare generale A x = b, allora l insieme delle soluzioni del sistema lineare generale è v 0 + W, ove v 0 è una qualsiasi soluzione del sistema lineare generale. Definizione di sottospazio affine di uno spazio vettoriale. Teorema: il sistema A x = b ha soluzioni se e solo se il rango della matrice A è uguale al rango di (A, b). Teorema (Regola di Cramer): se A è una matrice inveribile n n, allora il sistema lineare A x = b ha una ed una sola soluzione data da x = A 1 b. 6.- Determinanti. Permutazioni; trasposizioni; cicli. Proposizione: ogni permutazione è prodotto di cicli disgiunti. Ogni ciclo è prodotto di trasposizioni. Segno di una permutazione. Teorema: il segno del prodotto di due permutazioni è il prodotto dei segni. Gruppo alterno A n. Funzione determinante. Proposizione: ogni funzione determinante è antisimmetrica. Se il campo su cui si lavora ha caratteristica diversa da 2, allora ogni funzione multilineare antisimmetrica è anche alternante. Proposizione: se D : V... V K è una funzione determinante, presi comunque v 1,..., v n V e σ S n si ha D(v σ(1),..., v σ(n) ) = ε(σ) D(v 1,..., v n ) Proposizione: se v 1,..., v n sono linearmente dipendenti, allora D(v 1,..., v n ) = 0. 5
Teorema: se V è uno spazio vettoriale di dimensione finita, allora vi è una ed una sola funzione determinante su V, a meno di moltiplicazione con uno scalare. Proposizione: sia D : V... V K una funzione determinante non banale. Allora v 1,..., v n V è una base di V se e solo se D(v 1,..., v n ) 0. Corollario: esiste esattamente una funzione determinante D : K n... K n K tale che D(e 1,..., e n ) = 1, ove e 1,..., e n è la base canonica di K n. Determinante di una matrice quadrata. Formula di Leibnitz. Corollario: una matrice A è invertibile se e solo se det(a) 0. Proposizione: det(a) = det( t A). Lemma: determinante di una matrice triangolare. Lemma: determinante di una matrice triangolare a blocchi. Cofattori e matrice à dei cofattori. Teorema: à A = A à = (det(a)) E n. Corollario: formula per A 1 con la matrice dei cofattori. Teorema: la formula di Laplace. Determinante di un endomorfismo. Proposizione: det(a) = det(l A ). Proposizione: se F, G : V V sono endomorfismi dello spazio vettoriale V, allora det(g F ) = det(g) det(f ). Teorema: se A, B sono matrici n n allora det(ab) = det(a) det(b). Corollario: det : GL(n, K) ( K = K {0}, ) è un omomorfismo di gruppi. In particolare, se A è invertibile, allora det(a 1 ) = det(a) 1. Corollario: matrici simili hanno lo stesso determinante. Corollario: Siano V uno spazio vettoriale (di dimensione finita), F : V V un endomorfismo e B una base di V. Allora F è un automorfismo M B (F ) è invertibile det(m B (F )) 0. Teorema: se v 1,..., v n sono n vettori di R n, allora il volume del parallelepipedo generato da v 1,..., v n è det(v 1,..., v n ), ove det è la funzione determinante standard su R n. 7.- Autovalori e autovettori. Definizione di autovettore ed autovalore per un endomorfismo e per una matrice quadrata. Definizione di endomorfismo (e matrice) diagonalizzabile. Lemma: se v 1,..., v m sono autovettori di un endomorfismo F : V V, relativi ad autovalori λ 1,..., λ m a due a due distinti, allora v 1,..., v m sono linearmente indipendenti. Autospazi. Ogni autospazio è un sottospazio vettoriale. Proposizione: λ è un autovalore di F se e solo se det(f λ id V ) = 0. Polinomio caratteristico di una matrice (quadrata) e di un endomorfismo. 6
Proposizione: matrici simili hanno lo stesso polinomio caratteristico. Proposizione: se una matrice A, di tipo n n, ha n autovalori distinti, allora A è diagonalizzabile. Molteplicità algebrica e geometrica di un autovalore di un endomorfismo. Proposizione: se λ K è un autovalore per l endomorfismo F : V V, allora m a (λ) m g (λ) 1. Teorema: se V è uno spazio vettoriale di dimensione n finita, e F : V V è un endomorfismo, allora sono eqivalenti i) F è diagonalizzabile; ii) il polinomio caratteristico di F è un prodotto di fattori lineari e m a (λ) = m g (λ) per ogni autovalore λ di F. iii) V = Aut(λ 1 ) Aut(λ 2 )... Aut(λ m ), dove λ 1, λ 2,..., λ m sono i diversi autovalori di F. Endomorfismi e matrici triangolarizzabili. Teorema: un endomorfismo F : V V è triangolarizzabile se e solo se il polinomio caratteristico di F si scompone completamente in un prodotto di fattori lineari. Corollario: ogni matrice quadrata ad entrate nel campo dei numeri complessi è triangolarizzabile. Matrici di Jordan. Teorema (forma canonica di Jordan; solo enunciato): ogni matrice quadrata ad entrate in C è simile ad una matrice del tipo A 1 A 2... A k ove ciascun blocco A i è di Jordan. Ideale di K[X] di tutti i polinomi che annullano un fissato endomorfismo F. Polinomio minimo di F. Teorema di Cayley-Hamilton: se p è il polinomio caratteristico dell endomorfismo F, allora p(f ) = 0. Corollario: il polinomio minimo di F divide il polinomio caratteristico di F. Proposizione: ogni radice del polinomio caratteristico di un endomorfismo F (cioè: ogni autovalore di F ) è anche radice del polinomio minimo di F. Corollario: ogni polinomio in K[X] di grado n 1 è, a meno del segno, il polinomio caratteristico fi un endomorfismo K n K n. 7
8.- Dualità. Definizione di spazio duale dello spazio vettoriale V. Base duale di una base di uno spazio vettoriale di dimensione finita. Cosa succede per spazi di dimensione infinita. Spazio biduale e applicazione lineare canonica τ : V V. Iniettività di τ. Sottospazio W 0 V, ortogonale di un sottospazio W V. Teorema: se V è uno spazio vettoriale di dimensione finita, e se W V è un sottospazio, allora dim(w ) + dim(w 0 ) = dim(v ). Corollario: W (W 0 ) 0, e vale l uguaglianza se V ha dimensione finita. Proposizione: sia dim(v ) = n finita, e siano ϕ 1,..., ϕ k V tali che ϕ 1,..., ϕ k è un sottospazio di V di dimensione r. Allora W := { v V ϕ 1 (v) =... ϕ k (v) = 0 } è un sottospazio di V di dimensione n r. Proposizione: sia V uno spazio vettoriale come nella proposizione precedente, e sia W V un sottospazio di dimensione n m. Allora esistono m forme lineari ϕ 1,..., ϕ m V tali che W := { v V ϕ 1 (v) =... ϕ m (v) = 0 }. Non è possibile una tale rappresentazione di W con meno di m forme. 9.- Spazi quoziente e teoremi di omomorfismo. Definizione di spazio vettoriale quoziente V/W. Proiezione canonica π : V V/W. Proposizione: dim(v/w ) = dim(v ) dim(w ). Teorema (Primo Teorema di Isomorfismo): se F : V U è un epimorfismo (un omomorfismo), allora esiste una ed una sola applicazione lineare F : V/Ker(F ) U tale che F = F π e F è un isomorfismo (risp.:un monomorfismo). Teorema (Secondo Teorema di Isomorfismo): se U e W sono arbitrari sottospazi di V, allora W U W U + W U Teorema (Terzo Teorema di Isomorfismo): se U W V sono sottospazi, allora V W V/U W/U 8