Condizionamento del problema



Documenti analoghi
ANALISI DEL CONDIZIONAMENTO DI UN SISTEMA LINEARE

Corso di Matematica per la Chimica

Autovalori e Autovettori

Corso di Analisi Numerica - AN1. Parte 2: metodi diretti per sistemi lineari. Roberto Ferretti

Condizionamento di sistemi lineari.

Introduzione al MATLAB c Parte 2

Metodi iterativi per sistemi lineari

x 1 + x 2 3x 4 = 0 x1 + x 2 + x 3 = 0 x 1 + x 2 3x 4 = 0.

9 Metodi diretti per la risoluzione di sistemi lineari: fattorizzazione P A = LU

Corso di Analisi Numerica

METODI ITERATIVI PER SISTEMI LINEARI

RICHIAMI SULLE MATRICI. Una matrice di m righe e n colonne è rappresentata come

SISTEMI LINEARI QUADRATI: METODI ITERATIVI

Metodi diretti per la soluzione di sistemi lineari

Parte 2. Determinante e matrice inversa

Esempio. Approssimazione con il criterio dei minimi quadrati. Esempio. Esempio. Risultati sperimentali. Interpolazione con spline cubica.

Dimensione di uno Spazio vettoriale

2.1 Definizione di applicazione lineare. Siano V e W due spazi vettoriali su R. Un applicazione

1 Serie di Taylor di una funzione

Spazi lineari - PARTE II - Felice Iavernaro. Dipartimento di Matematica Università di Bari. 9 e 16 Marzo 2007

Capitolo 4: Ottimizzazione non lineare non vincolata parte II. E. Amaldi DEIB, Politecnico di Milano

MATLAB:Condizionamento Sistemi Lineari.

Documentazione esterna al software matematico sviluppato con MatLab

Equazioni non lineari

Corso di Geometria e Algebra Lineare - Sezione di Metodi Numerici

Corso di Calcolo Numerico

Algebra Lineare e Geometria

Corso di Calcolo Numerico

15 febbraio Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA...

Matematica generale CTF

Parte 3. Rango e teorema di Rouché-Capelli

Politecnico di Milano. Facoltà di Ingegneria Industriale. Corso di Analisi e Geometria 2. Sezione D-G. (Docente: Federico Lastaria).

19. Inclusioni tra spazi L p.

1. Sia dato un poliedro. Dire quali delle seguenti affermazioni sono corrette.

E naturale chiedersi alcune cose sulla media campionaria x n

LEZIONE 23. Esempio Si consideri la matrice (si veda l Esempio ) A =

3 GRAFICI DI FUNZIONI

1. PRIME PROPRIETÀ 2

La Programmazione Lineare

Introduzione. Rappresentazione di numeri in macchina, condizion

ELEMENTI DI ALGEBRA LINEARE E GEOMETRIA Corso di Laurea Ingegneria Edile-Architettura

Rette e curve, piani e superfici

LE SUCCESSIONI 1. COS E UNA SUCCESSIONE

Esercizi su lineare indipendenza e generatori

Ottimizzazione Multi Obiettivo

SPC e distribuzione normale con Access

Inserimento di distanze e di angoli nella carta di Gauss

FUNZIONI ELEMENTARI - ESERCIZI SVOLTI

Analisi di dati di frequenza

SUCCESSIONI NUMERICHE

LE FUNZIONI A DUE VARIABILI

Il modello media-varianza con N titoli rischiosi. Una derivazione formale. Enrico Saltari

PROBLEMI TRADIZIONALI SIMULAZIONE DELLA PROVA DI MATEMATICA

Equazione di Keplero (eqz. nonlineari).

Crittografia. Primalità e Fattorizzazione. Corso di Laurea Specialistica. in Informatica

Fondamenti e didattica di Matematica Finanziaria

u 1 u k che rappresenta formalmente la somma degli infiniti numeri (14.1), ordinati al crescere del loro indice. I numeri u k

Studente: SANTORO MC. Matricola : 528

1 Applicazioni Lineari tra Spazi Vettoriali

5. La teoria astratta della misura.

Esponenziali elogaritmi

Diagonalizzazione di matrici e applicazioni lineari

FOGLIO 6 - Esercizi Riepilogativi Svolti. Nei seguenti esercizi, si consideri fissato una volta per tutte un riferimento proiettivo per

Inferenza statistica I Alcuni esercizi. Stefano Tonellato

risulta (x) = 1 se x < 0.

EQUAZIONI DIFFERENZIALI Esercizi svolti. y = xy. y(2) = 1.

Corso di Analisi Matematica Serie numeriche

Sono casi particolari di MCF : SPT (cammini minimi) non vi sono vincoli di capacità superiore (solo x ij > 0) (i, j) A : c ij, costo di percorrenza

( x) ( x) 0. Equazioni irrazionali

Per lo svolgimento del corso risulta particolarmente utile considerare l insieme

min 4x 1 +x 2 +x 3 2x 1 +x 2 +2x 3 = 4 3x 1 +3x 2 +x 3 = 3 x 1 +x 2 3x 3 = 5 Innanzitutto scriviamo il problema in forma standard: x 1 x 2 +3x 3 = 5

LE FIBRE DI UNA APPLICAZIONE LINEARE

APPLICAZIONI LINEARI

Anelli a fattorizzazione unica. Domini ad ideali principali. Anelli Euclidei

1. Distribuzioni campionarie

3.1 Successioni. R Definizione (Successione numerica) E Esempio 3.1 CAPITOLO 3

Massimi e minimi vincolati

CAPITOLO 16 SUCCESSIONI E SERIE DI FUNZIONI

MINIMI QUADRATI. REGRESSIONE LINEARE

~ Copyright Ripetizionando - All rights reserved ~ STUDIO DI FUNZIONE

Parte 6. Applicazioni lineari

Daniela Lera A.A

Università degli Studi di Roma Tor Vergata. Corso di Laurea in Ingegneria Meccanica

Correzione dell Esame di Statistica Descrittiva (Mod. B) 1 Appello - 28 Marzo 2007 Facoltà di Astronomia

La propagazione delle onde luminose può essere studiata per mezzo delle equazioni di Maxwell. Tuttavia, nella maggior parte dei casi è possibile

Moto uniforme sul toro bidimensionale

ESERCIZI DI ALGEBRA LINEARE E GEOMETRIA

Ottimizazione vincolata

Tutorato di GE110. Universitá degli Studi Roma Tre - Corso di Laurea in Matematica

Sistemi Informativi Territoriali. Map Algebra

3 CENNI DI TEORIA DELLA COMPLESSITA COMPUTAZIONALE. E. Amaldi Fondamenti di R.O. Politecnico di Milano 1

ESTRAZIONE DI DATI 3D DA IMMAGINI DIGITALI. (Visione 3D)

Test d ipotesi. Statistica e biometria. D. Bertacchi. Test d ipotesi

Le equazioni. Diapositive riassemblate e rielaborate da prof. Antonio Manca da materiali offerti dalla rete.

1 Estensione in strategia mista di un gioco

Per studio di funzione intendiamo un insieme di procedure che hanno lo scopo di analizzare le proprietà di una funzione f ( x) R R

Capitolo 2. Operazione di limite

OCCUPATI SETTORE DI ATTIVITA' ECONOMICA

Federico Lastaria. Analisi e Geometria 2. Matrici simmetriche. Il teorema spettrale. 1/24

(V) (FX) Z 6 è un campo rispetto alle usuali operazioni di somma e prodotto.

Transcript:

Condizionamento del problema x 1 + 2x 2 = 3.499x 1 + 1.001x 2 = 1.5 La soluzione esatta è x = (1, 1) T. Perturbando la matrice dei coefficienti o il termine noto: x 1 + 2x 2 = 3.5x 1 + 1.002x 2 = 1.5 x 1 + 2x 2 = 3.499x 1 + 1.001x 2 = 1.4985 la soluzione diventa: (3, 0) T (2, 0.5) T Perturbando di poco i dati iniziali, si trovano soluzioni diverse: si tratta di un problema mal condizionato. Geometricamente, si tratta delle equazioni di due rette l 1, l 2 quasi parallele, di cui si vuole trovare l intersezione; perturbando l 2 di poco si ottengono altri punti di intersezione, (3, 0) o (2, 0.5), che distano poco da punti di l 2 e appartengono a l 1.

l 1 l 2 I pert II pert (1,1) Il vettore residuo r = b Aw (ove w è la soluzione di una equazione perturbata e A e b sono matrice e termine noto del sistema non perturbato) è piccolo in entrambe i casi, pur essendo w significativamente diverso dalla soluzione esatta x. w = ((3, 0) T 0 r = 0.003 ) w = ((2, 0.5) T ) 0 r = 0.0015

A causa degli errori di rappresentazione dei dati del problema e degli errori di arrotondamento nelle operazioni, un qualunque metodo numerico su calcolatore determina una soluzione approssimata w invece della soluzione esatta x = A 1 b. Un criterio che si utilizza per decidere se w è una approssimazione accettabile consiste nel richiedere che la norma del residuo sia piccola. r = b Aw Se r = 0 b Aw = 0 w x. Tale criterio non è sempre valido. Infatti, riscrivendo r = b Aw come Aw = b r w è soluzione esatta di un sistema in cui il termine noto è perturbato di r. Anche se r ha elementi piccoli, se il problema è mal condizionato, w può essere molto diverso da x.

Si osservi che: r = b Aw = Ax Aw = A(x w) L errore assoluto è soluzione del sistema r = Ay. Per cui: x w = A 1 r x w A 1 r x w A A 1 r x b ove l ultima disuguaglianza segue da Ax = b b A x 1 x A b Pertanto dalla piccolezza del residuo non si può dedurre che l errore assoluto o l errore relativo siano piccoli, poichè le quantità A 1 oppure A A 1 forniscono la connessione tra residuo e accuratezza. Solo se A 1 o A A 1 sono piccole, si può accettare w come soluzione di Ax = b se r è piccola.

Negli esempi sopra, con A = ( 1 2.499 1.001 ) si ha: A 1 = ( 1.001 2.499 1 ) 1 1.001.998 A = 3 A 1 = 3.001.003 = 1000.333 A A 1 3001 w = ((3, 0) T ) w = ((2, 0.5) T ) 0 0 r = r = 0.003 0.0015 x w = 2 x w = 1 r = 3 10 3 r = 1.5 10 3 A 1 r 3 A 1 r 1.5 Si osservi anche che se si hanno due soluzioni approssimate w (1) e w (2) con residui r (1) e r (2) non è vero che se r (1) < r (2) la prima soluzione sia più accurata della seconda. Infatti, w (1) = ((3, 0) T ) w (2) = ((0.4, 1.302) T 0 0.004 r (1) = r 0.003 (2) = 0.002902 r (1) = 0.003 < r (2) = 0.004 ) Ma x w (1) = 2 > x w (2) = 0.6

Teorema. Sia A R n n non singolare. Dato il sistema Ax = b, nell ipotesi di avere sulla matrice A una perturbazione δa tale che δa < 1, ove è una A 1 norma naturale e A + δa è non singolare, sia w la soluzione del sistema perturbato (A + δa)w = b + δb Allora x w x k(a) 1 k(a) δa A ( δa A + δb ) b ove k(a) = A A 1 si dice numero di condizione di A. In particolare, se δa = 0 e δb = r, x w x k(a) r b Se δb = 0, x w x k(a) 1 k(a) δa A δa A

In una norma naturale, vale che k(a) 1. Infatti 1 = I = AA 1 A A 1 = k(a) Se k(a) 1, A è mal condizionata. Se k(a) 1, A è ben condizionata. k(i) = 1. Se gli elementi di A sono normalizzati in modo che A = 1, un valore di k(a) grande si riflette nell enorme crescita di A 1 : A = 1 2 + ɛ ( 1 1 1 1 + ɛ ) A = 1 A 1 = 2 + ɛ ɛ ( 1 + ɛ 1 1 1 ) A 1 = (2 + ɛ)2 ɛ = k(a) Se ɛ = 10 k k(a) 10 k.

La definizione di numero di condizione come k(a) = A A 1 è data per A non singolare. Si può estendere la definizione al caso di matrici qualunque. Definizione. Sia A R m n. Si definisce numero di condizione di A rispetto a una norma naturale indotta da una norma vettoriale k(a) = max Ax v min Ax v ove il minimo è fatto sui vettori Ax v 0. Il numero di condizione è il rapporto tra la perturbazione massima e la pertubazione minima che ogni vettore x R n subisce per effetto della trasformazione lineare associata ad A. Nel caso della norma euclidea, per definire il numero di condizione, introduciamo la definizione di valori singolari di A. Definizione. Sia A R m n. Si dicono valori singolari di A le radici quadrate degli autovalori non nulli di A T A: σ i = λ i (A T A) 0

Allora, rispetto alla norma euclidea, il numero di condizione si definisce come: k 2 (A) = λmax (A T A) λmin (A T A) ove λ min (A T A) = min λ 0 λ(a T A). Se A R n n simmetrica, k 2 (A) = λ(a) max λ(a) min. A normalizzata ( A 2 = 1) è mal condizionata se e solo se ha un piccolo valore singolare. A simmetrica normalizzata è mal condizionata se ha un piccolo autovalore in modulo. Sia A R n n σ 2 min(a) λ i (A) 2 σ 2 max(a) Se A ha un piccolo autovalore in modulo è mal condizionata. Se è mal condizionata non è detto che abbia un piccolo valore autovalore. In genere una matrice è mal condizionata se è vicina alla singolarità. Se A ha determinante piccolo non è detto che sia mal condizionata. A = diag(1/2, 1/2,..., 1/2) det(a) = 1 2 n k 2 (A) = 1

Se A è mal condizionata non è detto che abbia determinante piccolo. T = 1 1... 1 1... 1... 1 1 T 1 = T 1 = 2 n 1 det(t ) = 1 T = n 1 2 0 2 1... 2 n 2 1 2 0... 2 n 3 1 2 0... 1 2 0 1 k(t ) = n2 n 1

Esempio. Matrici di Hilbert H n = [h ij ]. h ij = H 4 = 1 i + j 1 i, j = 1,..., n 1 1/2 1/3 1/4 1/2 1/3 1/4 1/5 1/3 1/4 1/5 1/6 1/4 1/5 1/6 1/7 In aritmetica finita, molti elementi vengono perturbati. In particolare, con β = 10, t = 5, G 4 = 1 0.50000 0.33333 1/4 0.50000 0.33333 0.25000 0.20000 0.33333 0.25000 0.20000 0.16666 0.25000 0.20000 0.16666 0.14285 H 1 n ha elemento h ij = ( 1) i+j (n + i 1)!(n + j 1)! (i + j 1)!((i 1)!(j 1)!) 2 (n j)!(n i)! H 1 4 = H 4 H 1 4 = 25 12 16 120 240 140 120 1200 2700 1680 240 2700 6480 4200 140 1680 4200 2800 13620 = 28375 2.8 104

n k 2 (H n ) k (H n ) 2 1.505 27 3 5.241 10 2 7.480 10 2 4 1.551 10 4 2.837 10 4 5 4.766 10 5 9.436 10 5 6 1.495 10 7 2.907 10 7 7 4.754 10 8 9.852 10 8 8 1.526 10 10 3.387 10 10 9 4.932 10 11 1.099 10 12 10 1.603 10 13 3.535 10 13

Il calcolo di k(a) implica la valutazione di A 1. Ma calcolare A 1 vuol dire risolvere Aα j = e j, j = 1,..., n, con il costo di risoluzione di n sistemi e gli stessi problemi connessi alla soluzione di Ax = b in aritmetica finita. Allora si usa una stima di A 1 ottenuta nel seguente modo: si calcola una soluzione approssimata w 0 ; si calcola il residuo in doppia precisione r 0 = b Aw 0 = A(x w 0 ); Pertanto x w 0 è soluzione di Ay = r 0 La soluzione calcolata è una approssimazione di y = A 1 r 0 : y 0 = A 1 r 0 y 0 x w 0 A 1 r 0 Pertanto y 0 r 0 è una sottostima di A 1. Si può anche provare che r 0 10 t A w 0 ove t è il numero di cifre dell aritmetica usata. y 0 x w 0 A 1 r 0 A 1 A 10 t w 0

Da cui, k(a) 10 t y 0 w 0 E opportuno calcolare r 0 in doppia precisione.

Esempio. Si assume t = 3. x 1 + 2x 2 = 3.499x 1 + 1.001x 2 = 1.5 w 0 = (0, 1.5) T ( 3 0 2 1.5 r 0 = 1.5.499 0 1.001 1.5 r 0 = 1.5 10 3 Si risolve Ay = r 0 y 0 = ( 1.5 0.75 ) = ( ), y 0 = 1.5. ) 0 1.5 10 3 Si osservi che y 0 r 0 = 10 3 che è una sottostima di A 1 = 1000.333. Inoltre r 0 10 3 A w 0 = 10 3 3 1.5 = 4.5 10 3. Da ciò 3001 k (A) 10 3 y 0 = 1.5103 w 0 1.5 = 1000.

Raffinamento iterativo della soluzione Si è osservato che, dato Ax = b, con un metodo numerico si calcola una approssimazione w 0 della soluzione. Soluzione di Ax = b w 0 r 0 = b Aw 0 = A(x w 0 ), calcolato in doppia precisione Soluzione di Ay = r 0 y 0 ; calcolo di w 1 = w 0 + y 0 r 1 = b Aw 1 = A(x w 1 ), calcolato in doppia precisione Soluzione di Ay = r 1 y 1 ; calcolo di w 2 = w 1 + y 1... Per sistemi molto mal condizionati il metodo fallisce o converge molto lentamente. Ciò capita se k(a) è molto grande rispetto alla precisione di macchina. E opportuno controllare ad ogni passo se si verifica che: y i w i+1 < 1 2 y i 1 w i In questo caso il metodo converge lentamente.

Algoritmo. Sia N il massimo numero di iterazioni previste e T OL una tolleranza prefissata (T OL = u A ): begin r = b; x = 0; k = 0; while k N do begin risolvere Ay = r; xx = x + y; r = b A xx; D.P. if x xx < T OL end; end; else end; then stampare xx; k = k + 1; x = xx

Stabilità dei metodi diretti In aritmetica finita, i fattori di A o di P A sono affetti da errore. Detti L e R i fattori calcolati, essi possono essere ritenuti fattori esatti di una matrice perturbata mediante una matrice δa: P A+δA = LR = (L+δL)(R+δR) = LR+LδR+δLR+δLδR δa = LδR + δlr + δlδr δa è piccolo (e dunque L e R sono accettabili) se gli elementi di L e di R non sono troppo grandi rispetto ad A. Si cercano algoritmi che mantengano L e R limitati. Tali algoritmi si dicono stabili. Sia A fattorizzabile e normalizzata in modo che max i,j a i,j = 1. A = LR (P A = LR) Se esistono costanti positive a e b indipendenti dagli elementi di A e dall ordine di A tali che l ij a r ij b la fattorizzazione LR si dice stabile in senso forte. Se a e b dipendono dall ordine di A, allora la fattorizzazione di A si dice stabile in senso debole.

Sia A simmetrica definita positiva. A = LL T a ii = i lij 2 lij 2 a ii max r,s a rs j=1 1 max r,s a rs A = L maxr,s a rs maxr,s a rs = HHT L T ove H = L. maxr,s a rs h ij = l ij maxr,s a rs 1 Poichè a = b = 1, la fattorizzazione di Cholesky è stabile in senso forte. Algoritmo di eliminazione di Gauss con pivoting parziale: si dimostra: l ij 1 r ij 2 n 1 max r,s a rs Infatti per la scelta del perno come elemento di modulo massimo sulla colonna k a partire dalla posizione diagonale k, i moltiplicatori sono in modulo minori o

uguali a 1 ( m ij 1 l ij 1 a = 1). a (n) ij a (2) ij = a ij m i1 a 1j a (2) ij 2max r,s a rs a (3) ij = a (2) ij m i2a (2) 2j a (3) ij 2max r,s a (2) rs... 2 2 max r,s a rs = a (n 1) ij m in 1 a (2) n 1j a (n) ij 2n 1 max r,s a rs Per cui b = 2 n 1. Esistono matrici per cui tale limite è raggiunto. a ij = 1 i = j 1 j < i 1 j = n 0 altrove r ij = 1 i = j 2 i 1 j = n 0 altrove L coincide con il triangolo inferiore di A e r nn = 2 n 1. Se r nn viene alterato, r nn = 2 n 1 ɛ, L R è fattorizzazione esatta di una matrice che differisce dalla A solo in ã nn = 1 ɛ. Se ɛ = 0.5, R è circa uguale a R. Ma in tal modo R diventa fattore di una matrice molto perturbata rispetto ad A. Nel caso di pivoting totale, si dimostra che: l ij 1 r ij f(n)max r,s a rs

f(n) = n 1.2.3 1/2 4 1/3...n 1/(n 1) Non si conoscono matrici per cui vale l uguaglianza. Per n 4, si dimostra che f(n) = n. n f(n) G.P.T 2 n 1 G.P.P 10 19 2 9 20 67 2 19 50 530 2 49 100 3300 2 99 10 6 10 5 10 4 10 3 2 (n 1) 10 2 10 1 f(n) 10 0 0 2 4 6 8 10 12 14 16 18 20 Nel caso di matrici di Hessemberg, l uso del pivoting parziale produce a = 1 e b = n

Nel caso di matrici tridiagonali, diagonali dominanti, a = 1, b = 2. Per la fattorizzazione QR, vale che: max i,j q ij = 1/n Q T Q 2 = 1 Da Q T A = R, segue per ogni j: max i r ij = r j r j 2 = Q T a j 2 Q T 2 n a j = nmax i a ij In questo caso a = 1 e b = n. La fattorizzazione è stabile in senso debole.

Analisi all indietro dell errore nella risoluzione di un sistema Partendo da numeri finiti e supponendo che le operazioni di macchina non alterino la scelta del pivot, si dimostra che la fattorizzazione di Gauss ottenuta in aritmetica finita è la fattorizzazione esatta di (P A + δa) = LR δa u n 2 max i,j r ij Le soluzioni calcolare ỹ e x dei sistemi Ly = P b e Rx = y sono soluzioni esatte di { (L + δl)ỹ = P b δl 1.01u n(n+1) 2 max l ij (R + δr) x = ỹ δr 1.01u n(n+1) 2 max r ij Allora x è soluzione esatta di (P A + E) x = P b (L + δl)(r + δr) x = P b (LR + L δr + δl R + δl δr) x = P b Poichè P A + δa = LR, segue E = δa + LδR + δl R + δl δr

E n 2 umax r ij + n(n + 1) + n 1.01 u max r ij + 2 n(n + 1) + 1.01 u n max r ij + 2 + (1.01) 2 u 2 ( n(n + 1) 2 ) 2 max r ij u max r ij (n 2 + 1.01(n 3 + n 2 ) + 1.02 n 2 ) = 1.01 u max r ij (3n 2 + n 3 ) posto u (n+1)2 4 < 1.

Conclusione: a partire da numeri finiti, la soluzione calcolata è soluzione esatta di (P A + E) x = P b con E 1.01 u(3n 2 + n 3 )f(n) max a ij ove f(n) = 1 A simm. def. pos. n A di Hessemberg con Piv. p. 2 n 1 Gauss piv. p. n 1.2.3 1/2...n 1/(n 1) Gauss piv. t. 2 matrici tridiagonali diag. dom. n QR Nella pratica E u n A. Si conclude che: x x x k (A) 1 k (A) E A E A