Fattorizzazione QR e matrici di Householder

Documenti analoghi
Rango di una matrice e teorema di Rouché-Capelli

0.1 Spazi Euclidei in generale

10. Il gruppo Speciale Lineare SL(V )

Spazi vettoriali euclidei.

Capitolo IV SPAZI VETTORIALI EUCLIDEI

LEZIONE 12. v = α 1 v α n v n =

Geometria BAER I canale Foglio esercizi 2

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria.

CORSO DI ALGEBRA LINEARE Anno Accademico 2004/2005 Appunti su SISTEMI di EQUAZIONI LINEARI

Capitolo 3 Matrici. Marco Robutti. Facoltà di ingegneria Università degli studi di Pavia. Anno accademico

Complemento ortogonale e proiezioni

Equivalentemente, le colonne di A sono linearmente indipendenti se e solo se

Algebra delle matrici

SPAZI EUCLIDEI, APPLICAZIONI SIMMETRICHE, FORME QUADRATICHE

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria.

Parte 8. Prodotto scalare, teorema spettrale

A =, c d. d = ad cb. c d A =

Definizione 1. Una matrice n m a coefficienti in K é una tabella del tipo. ... K m, detto vettore riga i-esimo, ed a im

Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof. Fabio Perroni. 5. Rango

Registro Lezioni di Algebra lineare del 15 e 16 novembre 2016.

Autovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti)

Geometria BAER Canale A-K Esercizi 8

Esercizi Di Geometria 1 (BAER) Canale 1

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n

APPUNTI DI ALGEBRA LINEARE

5. Richiami: R n come spazio euclideo

Geometria e Topologia I (U1-4) 2006-mag-10 61

MATRICI E SISTEMI LINEARI

ALGEBRA LINEARE E GEOMETRIA: ESERCIZI 5. Indice. 2. Esercizi 5

Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof. Fabio Perroni 2. MATRICI

h, i: V V! R (v 1,v 2 ) 7! hv 1,v 2 i ! R v 7! hv, v 0 i èlineare. Perlacommutativitàdelprodottoscalaresegueanchelalinearità dell applicazione

a + 2b + c 3d = 0, a + c d = 0 c d

Richiami di Algebra Lineare

Autovalori e autovettori

Volumi in spazi euclidei 12 dicembre 2014

Determinante. Sia M(n, n, K) lo spazio delle matrici quadrate n n a coefficienti in un campo K, vogliamo provare il seguente Teorema:

Note per il corso di Geometria Corso di laurea in Ing. Edile/Architettura. 4 Sistemi lineari. Metodo di eliminazione di Gauss Jordan

Esercitazione 6 - Soluzione

Esercizi svolti. delle matrici

Sottospazi vettoriali

x n i sima pos. x, y = x T y = x i y i R. i=1

Appunti su Indipendenza Lineare di Vettori

APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof. F.Podestà, a.a

Corso di Geometria BIAR, BSIR Esercizi 4: soluzioni

Geometria BAER I canale Foglio esercizi 2

Geometria BIAR Esercizi 2

Richiami di algebra lineare

r 2 r 2 2r 1 r 4 r 4 r 1

GEOMETRIA 1 terza parte

3. Elementi di Algebra Lineare.

MATRICI E SISTEMI LINEARI

Trasformazioni elementari di Givens (rotazioni elementari)

Richiami di Algebra Lineare

Corso di Calcolo Numerico

Introduzione soft alla matematica per l economia e la finanza. Marta Cardin, Paola Ferretti, Stefania Funari

LEZIONE i i 3

LEZIONE i 0 3 Le sottomatrici 2 2 di A sono. 1 2 i i 3. Invece (

0.1 Condizione sufficiente di diagonalizzabilità

Prodotto scalare e matrici < PX,PY >=< X,Y >

GEOMETRIA 1 quarta parte

Geometria BAER I canale Foglio esercizi 3

Sui determinanti e l indipendenza lineare di vettori

Algebra lineare. Laboratorio di programmazione e calcolo CdL in Chimica. Pierluigi Amodio

Prodotto interno (prodotto scalare definito positivo)

Matrici simili. Matrici diagonalizzabili.

Geometria BAER Canale A-K Esercizi 9

MATRICI. Matrici Una matrice A con n-righe e m-colonne, ad elementi reali, è una tabella con la seguente forma: a 2 m. a n m) i j R, 1 i n, 1 j m.

GEOMETRIA 1 seconda parte

Applicazioni eliminazione di Gauss

2 Sistemi lineari. Metodo di riduzione a scala.

FONDAMENTI DI ALGEBRA LINEARE E GEOMETRIA PRIMO APPELLO, 15 GIUGNO 2010 VERSIONE A. 1 a 1. 0 a a 2

Esercizi 2. Soluzioni. 1. Siano dati i vettori 1 1, 1 R 3.

Formulario sui Prodotti Hermitiani Marcello Mamino Pisa, 24 v 2010

Autovalori, Autovettori, Diagonalizzazione.

Algebra lineare e geometria AA Appunti sul cambio di base in uno spazio vettoriale

Minimi quadrati. Sistemi iperdeterminati. 27 novembre 2008

Diagonalizzabilità di endomorfismi

Spazi Vettoriali ed Applicazioni Lineari

Elementi di Algebra Lineare

Altre trasformazioni elementari

3. Vettori, Spazi Vettoriali e Matrici

Corso di Laurea in Fisica. Geometria 1. a.a Gruppo B. Prof. P. Piazza Soluzioni compito a casa del 17/11/06 B =

La forma normale di Schur

Somma diretta di sottospazi vettoriali

LEZIONE 12. Y = f(x) = f( x j,1 f(e j ) = x j,1 A j = AX = µ A (X),

1 se k = r i. 0 altrimenti. = E ij (c)

13 febbraio Soluzione esame di geometria - Ing. gestionale - a.a COGNOME... NOME... N. MATRICOLA... ISTRUZIONI

Corso di Laurea in Fisica. Geometria. a.a Canale 3 Prof. P. Piazza Magiche notazioni

14 febbraio Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA...

Errata corrige. p. 10 riga 5 del secondo paragrafo: misurare

APPLICAZIONI. Im f = {b B a A tale che f (a) = b}.

A T x b x 0. che chiameremo problema primale, possiamo associare ad esso un altro problema di PL, detto problema duale, definito come segue.

VETTORI NELLO SPAZIO ORDINARIO ,

3. Vettori, Spazi Vettoriali e Matrici

Corso di Geometria Ing. Informatica e Automatica Test 1: soluzioni

CORSO DI GEOMETRIA DETERMINANTE A.A. 2018/2019 PROF. VALENTINA BEORCHIA

Argomento 12 Matrici

Corso di Matematica per la Chimica. Dott.ssa Maria Carmela De Bonis a.a

PreCorso di Matematica - PCM Corso M-Z

Transcript:

Fattorizzazione QR e matrici di Householder ottobre 009 In questa nota considereremo un tipo di fattorizzazione che esiste sempre nel caso di matrici quadrate non singolari ad entrate reali. Definizione 1. L insieme di tutte le matrici n n invertibili a coefficienti su di un campo K è detto gruppo generale lineare di ordine n su K e indicato con il simbolo GL n (K). Il sottoinsieme SL n (K) di tutte le matrici di GL n (K) con determinante 1 è un sottogruppo di GL n (K) chiamato gruppo speciale lineare di ordine n su K. Definizione. Una matrice Q GL n (K) è detta ortogonale se Q T = Q 1. Poiché 1 = det I n = det(q T Q) = det(q T ) det(q) = det(q), abbiamo che ogni matrice ortogonale ha determinate pari a ±1. Teorema 1. L insieme delle matrici ortogonali n n su K è un sottogruppo di GL n (K). Dimostrazione. Poiché GL n (K) è un gruppo, sicuramente il prodotto di matrici ortogonali è associativo. Inoltre, se M è ortogonale, allora M 1 (M 1 ) T = M 1 M = I, per cui anche l inversa M 1 è ortogonale. Basta dimostrare ora che se M, N sono due matrici ortogonali, allora MN è anche essa ortogonale. D altro canto, (MN) T (MN) = (M T N T )NM = M T (N T N)M = M T M = I. La tesi segue. 1

Sia ora Q = ( ) Q 1 Q... Q n la matrice reale n n con colonne rispettivamente Q 1, Q,..., Q n. Allora, Q T 1 Q 1, Q 1 Q 1, Q... Q 1, Q n Q T Q T ( ) Q, Q 1 Q, Q... Q, Q n Q = Q1 Q... Q n =..., Q n, Q 1 Q n, Q Q n, Q n Q T n ove con, si è indicato il prodotto scalare standard di R n. In particolare, la matrice Q è ortogonale se, e solamente se, { 1 se i=j Q i, Q j = δ ij = 0 altrimenti. In altre parole una matrice Q è ortogonale se, e solamente se le sue colonne costituiscono un insieme ortonormale di vettori. Osserviamo che, poiché Q ortognonale implica Q T ortogonale si ha automaticamente anche che le righe di Q sono un insieme ortonormale di vettori. Osserviamo che, in generale se x R n e Q è una matrice ortogonale, si ha Qx = Qx, Qx = x T Q T Qx = x T x = x. In altre parole, le trasformazioni indotte da matrici ortogonali preservano la dei vettori. Più in generale, date una norma su R n e una matrice A Mat n (R) è possibile definire A = sup x 0 Ax x = sup Ax. x 1 Si dimostra che in questo modo si è introdotta una norma sul gruppo generale lineare e che x R n Ax A x. Le matrici ortogonali hanno tutte pari ad 1 Algoritmo di Gram-Schmidt Mostriamo ora come sia possibile, dato un insieme B = {b 1, b,..., b t } di vettori liberi in R n costruire un insieme ortonormale E = {b 1, b,..., b t} con la proprietà aggiuntiva che, per ogni j < t, gli spazi vettoriali generati dai vettori b 1, b,..., b j e b 1, b,..., b j coincidano. Premettiamo due teoremi.

Teorema. Sia B = {b 1, b,..., b t } un insieme ortonormale di vettori. Allora gli elementi di B sono linearmente indipendenti. Dimostrazione. Supponiamo che esista una combinazione lineare Allora, usando il fatto che si ha per ogni i = 1,..., t La tesi segue. α 1 b 1 + α b +... + α t b t = 0. α 1 b 1 + α b +... + α t b t, b i = α i, α i = α 1 b 1 + α b +... + α t b t, b i = 0, b i = 0. Teorema 3. Sia v V un vettore non nullo e x V. Allora, la proiezione ortogonale di x sullo spazio vettoriale generato da v è data da v Π v (x) = v, x v = vvt v T v x. Dimostrazione. Basta mostrare Infatti, La tesi segue. x Π v (x), v = 0. ( ) v T x vvt v T v x = v T x vt vv T v T v x = vt x v T x = 0. Procediamo come segue: 1. poniamo b 1 = b 1 e Chiaramente b 1 = 1. b 1 = 1 b 1 b 1.. Per ogni i > 1 sottraiamo a b i la sua proiezione ortogonale su ognuno degli spazi generati dai vettori b j ottenuti in precedenza: b i i 1 = b i j=1 bi, b j b j 3

3. infine otteniamo b i, normalizzando il vettore b i : Osserviamo che b i = 1 b i b i. per ogni i =,..., t il vettore b i ha norma b i = 1 b i b i = 1 prodediamo ora per induzione al fine di dimostrare la ortogonalità dei vettori considerati: 1. b 1 e b sono ortogonali, infatti b 1, b = b b 1, b b 1, b b 1 = b ( b 1, b b 1, b b 1, b 1 ). Poiché 1 = b 1 = b 1, b 1, la quantità fra parentesi e nulla e l ortogonalità segue.. Supponiamo che i vettori b 1, b,..., b i 1 formino una sequenza ortonormale; mostriamo che anche b i è ortogonale a tutti questi. In particolare, per ogni k < i fissato abbiamo b i, b k = b i b i i 1 j=1 bi, b j b j, b k = ( b i b i, b k i 1 j=1 bi, b j b j, b k ) = ( b i b i, b k i 1 j=1 δ jk bi, b j ) = b i ( b i, b k b i, b k ) = 0 In particolare, si ha che tutta la sequenza b 1,..., b i è ortonormale. È chiaro dalla costruzione che la sequenza B i = {b 1,..., b i } è contenuta nel sottospazio generato dai vettori E i = {b 1,..., b i }. Per il Teorema, tale sequenza è indipendente e, pertanto genera un sottospazio di dimensione i; d altro canto, i vettori in E i generano un sottospazio di dimensione al più i. Ne segue che il sottospazio generato da B i e quello generato da E i coincidono. Data una matrice M possiamo utilizzare il procedimento di Gram Schmidt per ottenere una matrice Q ad essa associata che abbia colonne (o, equivalentemente, righe) ortonormali. Osserviamo che: 4

1. moltiplicare una colonna di una matrice M per uno scalare α corrisponde a calcolare il prodotto a destra della matrice M per la matrice L i (α) con entrate 0 se h k l hk = α se h = k = i 1 se h = k i. Similmente, sostituire la colonna i esima di M con una combinazione lineare del tipo i 1 M i = M i + β j M j equivale a moltiplicare M a destra per la matrice U i (β 1,..., β i 1 ) data da 1 0... 0 β 1... 0. 0 1.. 0 β... 0....... 0. U = 0 1 β i 1. 0 1........ 0 0 1 3. Pertanto le operazioni richieste nel procedimento di ortonormalizzazione di Gram-Schmidt possono essere rappresentate mediante prodotti a destra di matrici triangolari superiori con entrate sulla diagonale principale strettamente maggiori di 0. 4. Poiché l insieme delle matrici triangolari superiori di tale fatta è chiuso rispetto il prodotto si ottiene che, comunque data una matrice M GL n (R) esistono una matrice triangolare superiore R e una matrice ortogonale Q tali che Q = M R. 5. Osserviamo che R è invertibile, e la sua inversa è ancora una matrice triangolare superiore con entrate strettamente positive sulla diagonale principale. Pertanto, posto R = R 1 si ha j=1 M = QR. Abbiamo dimostrato il seguente teorema. 5

Teorema 4. Comunque assegnata una matrice quadrata M GL n (R) esistono sempre una matrice ortogonale Q e una matrice triangolare superiore R con entrate sulla diagonale principale strettamente positive tali che M = QR. La decomposizione descritta nel Teorema 4 prende il nome di fattorizzazione QR. Dimostriamo ora che essa è unica. Teorema 5. La fattorizzazione QR di una matrice è unica. Dimostrazione. Supponiamo Q 1 R 1 = Q R siano due fattorizzazioni QR della medesima matrice M. Poichè sia Q 1 che Q sono matrici ortogonali si ha Q T Q 1 = R R 1 1. Rammentiamo che il prodotto Q = Q T Q 1 di matrici ortogonali è esso stesso una matrice ortogonale, per cui R = R R 1 1 deve essere ortogonale; in particolare R 1 = R T è una matrice triangolare inferiore. D altro canto R è anche prodotto di due matrici triangolari superiori e, conseguentemente, la sua inversa è anche essa risultare triangolare superiore. Ne segue che R 1 deve essere contemporaneamente triangolare superiore e inferiore, ovvero R 1 è una matrice diagonale. Siccome R = R T = R 1, si ha R = I. Il quadrato R di una matrice diagonale R è la matrice diagonale che ha per elementi i quadrati degli elementi di R. Pertanto si ottiene che gli elementi non nulli r ii di R devono tutti soddisfare r ii = 1. Poiché per ipotesi le entrate sulla diagonale principale di R 1 (e, conseguentemente R 1 1 ) e di R sono positive, si ha r ii = 1 per ogni i, ovvero R 1 = R e Q 1 = Q. Matrici di Householder Nel presente paragrafo determineremo alcune matrici ortogonali di forma particolarmente semplice; queste saranno poi usate per il calcolo effettivo della fattorizzazione QR, incidentalmente fornendo una dimostrazione alternativa della sua esistenza. Definizione 3. Sia v un vettore colonna non nullo di R n. Una matrice P della forma P = I v T v vvt è detta matrice di Householder (alternativamente riflessione di Householder, trasformazione di Householder) associata a v. 6

Osserviamo che, per ogni x R n abbiamo Px = x vv T x = x v v v v, x ; v in particolare, l immagine Px dipende solamente dalla direzione di v (e non dal suo modulo). Se x v, allora Px = x, in quanto v T x = 0. Inoltre, pertanto x + Px, v = 0, cioè Px, v = x, v 1 v, x v, v = x, v ; v x + Px v. Riassumendo, P corrisponde alla riflessione rispetto l iperspazio v. Infatti, sia Π v la proiezione ortogonale nello spazio vettoriale generato da v e Π v la proiezione sul suo ortogonale. Allora, osservato che e posto y = Px si ha da cui segue x = Π v (x) + Π v (x) x + y = Π v (x + y) = Π v (y) + Π v (x), Π v (x) = x Π v (x) = y Π v (y) = Π v (y), cioè la proiezione di x su v corrisponde alla proiezione di y su v cambiata di verso. Similmente, da Π v (x) v segue che P agisce su Π v (x) come l identità. Pertanto, y = Π v (y) + Π v (y) = PΠ v (x) + PΠ v (x) = Π v (x) + Π v (x). Dall unicità della decomposizione di un vettore in componenti ortogonali segue Π v (y) = Π v (x), cioè P fissa la proiezione di x su v. v Px x v 7

Teorema 6. Ogni matrice di Householder P è una involuzione, cioè, P = I. Dimostrazione. Abbiamo già visto che l azione di P su un vettore x consiste nel fissare la proiezione di x su v e cambiare il segno della proiezione di x su v. Pertanto, abbiamo che la proiezione di y = P x su v è uguale alla proiezione di x, mentre la proiezione di y su v è uguale alla proiezione di x con il segno cambiato due volte (e quindi coincide con questa). Poiché R n = v v, la tesi segue. Teorema 7. Ogni matrice di Householder è ortogonale. Dimostrazione. Ogni matrice di Householder è simmetrica, infatti P T = (I vv T ) T = I (vv T ) T = I (vv T ) = P. v v v La tesi segue dal fatto che P 1 = P. Sia ora f un vettore non nullo di R n e poniamo e = f f. Chiaramente, e = 1. Supponiamo che, assegnato x R n, si voglia trovare una trasformazione di Householder tale che Px = α f = αe Consideriamo a tal proposito il vettore v ± = x± x e. Indichiamo con P ± le matrici di Householder associate a questi vettori. Si noti che, in generale, v, v + = x x e, x + x e = x x e = 0. Tenuto conto che e = 1, si ha v = x ± x e, x ± x e = x ± x, e x ; v, x = x ± x x, e. Da questo si deduce ( ) v P ± x = v v, x x v = v v x v v, x = ( v v, x ) x x v, x e = ( x ± v, x x x v, x ) x x v, x e = x v, x e. In particolare, si vede che Px è un multiplo scalare di e e, quindi, anche di f. 8

v x v = x + x e P + x v e x,v = Π v v (x) P x Indicheremo la matrice di Householder sopra determinata, che definisce una trasformazione lineare che manda il vettore x in un multiplo scalare di un versore e, con il simbolo H ± (x, e) a seconda che si sia scelto il segno positivo o negativo per la norma che compare nella scrittura del vettore v. Per concludere, osserviamo che vale sempre H (x, e) = H + (x, e). Fattorizzazione QR con matrici di Householder È possibile utilizzare le matrici di Householder per determinare la fattorizzazione QR di una matrice M GL n (R). Questo metodo presenta alcuni vantaggi pratici rispetto l ortonormalizzazione di Gram-Schmidt vista precedentemente; in particolare esso non richiede il calcolo dell inversa di una matrice triangolare superiore. Poiché ogni trasformazione di Householder è ortogonale, ci basta far vedere che esiste un prodotto di matrici del tipo H ± (x i, e j ) che trasforma M in una matrice triangolare superiore con entrate sulla diagonale principale tutte positive. A questo punto, l unicità della fattorizzazione garantisce che quanto abbiamo ottenuto sia effettivamente la decomposizione QR cercata. Sia dunque M = ( M 1 M... M n ). 1. Sia e 1 = (1, 0,..., 0) il primo vettore della base canonica di R n e consideriamo innanzi tutto la matrice di Householder H 1 = H ± (M 1, e 1 ), ove la scelta del segno è fatta in modo da garantire che il primo coefficiente del vettore H 1 M 1 sia positivo. Allora, la prima colonna della matrice H 1 M avrà un valore positivo nella prima riga, mentre sarà 0 altrove. Scriviamo R 1 = H 1 M. Osserviamo che mediante H 1 la matrice si modifica come 9

illustrato nel seguente schema... +........ 0.....,... 0... ove con + si è indicata una entrata sicuramente strettamente maggiore di 0, mentre con entrate da determinarsi, a priori differenti rispetto quelle originaria. Sottolineiamo che la trasformazione di Householder cambia, in generale, tutte le colonne della matrice M e non solamente la prima.. Fissiamo ora i > 1 e supponiamo che tutte le colonne con indice j < i siano già in forma triangolare positiva, ovvero che per tutte le colonne M j con j < i si abbia: (a) m jj > 0; (b) per k > j, m kj = 0. Indichiamo con R i 1 questa matrice. 3. Vogliamo modificare M i, la colonna i esima di M, in modo che anche questa soddisfi le proprietà sopra enumerate. A tal fine, scriviamo la matrice di Householder H i di dimensioni (n i + 1) (n i + 1) che manda il vettore M i = (m ii, m i+1,i,..., m ni ) R n i+1 in un multiplo scalare positivo del vettore e i = (1, 0,..., 0) R n i+1 e costruiamo ora la matrice diagonale a blocchi ( ) Ii 1 0 H i = 0 Hi 4. Osserviamo che il prodotto di H i R i 1 non modifica le prime i 1 colonne di R i (in quanto H i agisce su questi vettori come la matrice identica, mentre manda la colonna i esima in un vettore che ha tutti 0 nelle posizioni i + 1, i +,..., n e un coefficiente maggiore di 0 in posizione i esima. Pertanto la matrice R i = H i R i 1 10

soddisfa le ipotesi del punto precedente rispetto le prime i colonne. Rappresentando in modo schematico, accade quanto segue: +... +... 0 + 0 + 0 0 0 0 +....... 0 0 0 0 0 5. Iterando la procedura sopra descritta n 1 volte si ottiene (H n H n 1 H 1 )M = R n ove H = (H n H n 1 H 1 ) è una matrice ortogonale, mentre R n è una matrice triangolare superiore con entrate positive sulla diagonale principale. Moltiplicando per Q = H T = H 1 l uguaglianza di cui sopra si giunge ora alla fattorizzazione richiesta. M = QR 11