METODI ITERATIVI PER SISTEMI LINEARI

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "METODI ITERATIVI PER SISTEMI LINEARI"

Transcript

1 METODI ITERATIVI PER SISTEMI LINEARI LUCIA GASTALDI 1. Metodi iterativi classici Sia A R n n una matrice non singolare e sia b R n. Consideriamo il sistema (1) Ax = b. Un metodo iterativo per la soluzione del sistema lineare (1) consiste nella costruzione di una successione di vettori x (k) R n convergenti alla soluzione x del sistema lineare, cioè tali che lim k x(k) = x. Per realizzare questo processo si può seguire il seguente procedimento. decomposizione o splitting della matrice del tipo: (2) A = P N, Si considera una essendo P ed N due matrici in modo che P sia non singolare. Il sistema (1) si può scrivere nella forma P x = Nx + b ossia x = P 1 Nx + P 1 b. Dato un vettore iniziale x (0), si genera una successione di vettori ricorsivamente mediante (3) x (k+1) = Bx (k) + g dove B = P 1 N e g = P 1 b, e B prende il nome di matrice di iterazione. Per studiare la convergenza, calcoliamo l errore e (k) = x x (k). Passando alle norme si ottiene: x = Bx + g x (k+1) = Bx (k) + g e (k+1) = Be (k) e (k+1) = Be (k) B e (k) B k+1 e (0), quindi, se B < 1, allora il metodo iterativo è convergente per ogni scelta del dato iniziale x (0). Più precisamente si può dimostrare il seguente teorema: Teorema 1. Condizione necessaria e sufficiente affinché un metodo iterativo della forma (3) sia convergente, è che il raggio spettrale della matrice di iterazione sia strettamente minore di 1, ossia ρ(b) < 1. 1

2 2 LUCIA GASTALDI Vediamo ora due esempi classici di metodi iterativi, ottenuti dallo splitting della matrice (2). Scriviamo la matrice A come somma della sua diagonale, della sua parte triangolare inferiore stretta e della sua parte superiore stretta: essendo D = L = U = A = D L U a a a nn a a n1 a nn a 12 a 1n 0 0 a n 1n Il metodo di Jacobi si ottiene ponendo P = D in (2), di conseguenza le componenti x (k+1) i si ottengono mediante la seguente relazione: x (k+1) i = 1 a ii ( b i n j=1,j i a ij x (k) j ),,., i = 1,..., n. Si osserva che per calcolare una componente del vettore x (k+1) servono tutte le componenti del vettore x (k) all iterazione precedente. La matrice di iterazione in questo caso è data da B J = D 1 (L + U). Proposizione 2. Se A è una matrice a predominanza diagonale stretta per righe, cioè vale che n a ii > a ij i = 1,..., n, allora il metodo di Jacobi converge. j=1,j i Poniamo ora P = D L in (2). In questo caso si ottiene il metodo di Gauss Seidel la cui matrice di iterazione è B GS = (P L) 1 U e le componenti x (k+1) i si ottengono nel modo seguente: ( ) x (k+1) i = 1 i 1 n b i a ij x (k+1) j a ij x (k) j, i = 1,... n. a ii j=1 j=i+1 Si nota che in questo caso per calcolare la componente i-esima del vettore x (k+1) si usano le prime i 1 componenti del vettore x (k+1) già calcolate e le componenti di indice maggiore di i del vettore x (k). In questo modo ci si aspetta una convergenza più rapida.

3 3 Figure 1. Gli autovalori di B α in valore assoluto al variare di α. Raggio spettrale della matrice di iterazione di Richardson stazionario 2 1 x*lmax x*li raggio spettrale x*lmin 2 / lmax (lmax lmin) / (lmax+lmin) alpha Anche nel caso del metodo di Gauss Seidel si possono enunciare dei risultati di convergenza per alcune classi di matrici. Proposizione 3. Se A è una matrice a predominanza diagonale stretta per righe oppure se A è una matrice simmetrica e definita positiva allora il metodo di Gauss-Seidel converge. 2. Il metodo di Richardson Consideriamo un metodo iterativo (3) ottenuto a partire da uno splitting della matrice in A = P N. Si ricava facilmente che N = P A e sostituendo questa relazione in (3) si ottiene x (k+1) = P 1 Nx (k) + P 1 b = P 1 (P A)x (k) + P 1 b = x (k) + P 1 (b Ax (k) ). Data l approssimazione x (k) della soluzione del sistema lineare (1), si dice residuo il vettore definito da: (4) r (k) = b Ax (k). Quindi i metodi iterativi che si ottengono da uno splitting della matrice possono essere considerati come metodi di correzione del residuo ponendo x (k+1) = x (k) + P 1 r (k). Sia α > 0 un numero reale e positivo, modifichiamo lo schema precedente come segue: (5) x (k+1) = x (k) + αp 1 r (k). Il metodo che abbiamo ottenuto prende il nome di metodo di Richardson stazionario e le sue proprietà di convergenza dipendono dalla scelta del parametro α. La matrice P viene anche detta matrice di precondizionamento. Il metodo (5) si riscrive facilmente nella forma (3) nel modo seguente: x (k+1) = x (k) + αp 1 r (k) = x (k) + αp 1 (b Ax (k) ) = (I αp 1 A)x (k) + αp 1 b e quindi la matrice di iterazione è data da B α = I αp 1 A. Calcoliamo il raggio spettrale della matrice B α al variare di α > 0. Supponiamo che P sia una matrice non singolare e che la matrice P 1 A sia simmetrica e definita positiva. Siano λ i

4 4 LUCIA GASTALDI e u i per i = 1,..., n gli autovalori e gli autovettori, rispettivamente, della matrice P 1 A e indichiamo con λ min e λ max rispettivamente il più piccolo e il più grande autovalore, quindi si ha P 1 Au i = λ i u i per i = 1,..., n, 0 < λ min λ i λ max per i = 1,..., n. Gli autovalori ed autovettori di B α si ottengono dalla seguente identità: Con un po di conti si ricava B α x = (I αp 1 A)x = µx. P 1 Ax = 1 µ α x quindi (µ, x) è una coppia autovalore/autovettore di B α se ((1 µ)/α, x) è una coppia autovalore/autovettore di P 1 A. Abbiamo quindi ricavato che gli autovettori di B α sono uguali agli autovettori di P 1 A, mentre per gli autovalori vale la seguente relazione: µ i = 1 αλ i. Il raggio spettrale della matrice B α è dato quindi da ρ(b α ) = max 1 i n 1 αλ i. In Figura 2 sono riportati i grafici delle funzioni 1 αλ max, 1 αλ min e 1 αλ i al variare di α (nella figura si è usata la notazione lmin al posto di λ min, li per λ i e lmax per λ max ). Quindi per 0 < α < 2/λ max il raggio spettrale ρ(b α ) resta strettamente minore di 1 ed in questo intervallo si ha la convergenza del metodo di Richardson (5). Il valore ottimale di α si ottiene per α ott = argminρ(b α ). Dal grafico si vede che α ott è il valore per cui vale cioè (6) α ott = 1 αλ min = 1 αλ max in corrispondenza ad esso il raggio spettrale vale: 2 λ max + λ min ; (7) ρ(b αott ) = λ max λ min λ max + λ min = K 2(P 1 A) 1 K 2 (P 1 A) + 1, essendo K 2 (P 1 A) il numero di condizionamento della matrice P 1 A nella norma di matrice associata alla norma euclidea di vettore. In Figura 2 sono riportati l intervallo di convergenza e i valori ottimali di α e ρ(b α ). Abbiamo quindi dimostrato la seguente proposizione: Proposizione 4. Sia P una matrice non singolare e P 1 A una matrice simmetrica e definita positiva. Allora il metodo di Richardson stazionario converge per 0 < α < 2/λ max, essendo λ max il massimo autovalore della matrice P 1 A. Inoltre ρ(b α ) è minimo per α = α ott essendo α ott dato da (6) e il valore corrispondente di ρ(b α ) definito in (7).

5 Dalla relazione (7) si ricava che la velocità di convergenza è legata al fatto che la matrice P 1 A sia ben condizionata. Quindi la scelta della matrice di precondizionamento P è di fondamentale importanza; la scelta deve essere fatta in modo tale che la risoluzione di un sistema lineare con matrice dei coefficienti data da P sia di basso costo. Una forma più generale di (5) è quella in cui si determina il parametro α ad ogni iterazione, dando luogo al seguente metodo di Richardson non stazionario (8) x (k+1) = x (k) + α k P 1 r (k). Il problema adesso è quello della determinazione del parametro α k. Supponiamo d ora in avanti che la matrice A sia simmetrica e definita positiva. Possiamo quindi introdurre una norma di vettore detta norma dell energia nella forma seguente (9) x A = x T Ax. Supponiamo di aver calcolato il valore di x (k) all iterata k-esima del metodo (8). Poniamo per semplicità z (k) = P 1 r (k) e al variare di α consideriamo il vettore x α = x (k) + αz (k). Si noti che al variare di α il punto x α si muove lungo la retta passante per x (k) e parallela alla direzione di z (k). Scegliamo quindi α k in modo da rendere minima la distanza di x α dalla soluzione x del sistema (1) misurata nella norma dell energia (9). Calcoliamo quindi x x α 2 A e otteniamo: x x α 2 A = (x x (k) αz (k) ) T A(x x (k) αz (k) ) = (x x (k) ) T A(x x (k) ) αz (k)t A(x x (k) ) (x x (k) ) T A(αz (k) ) + α 2 z (k)t Az (k) = α 2 z (k)t Az (k) 2αz (k)t A(x x (k) ) + (x x (k) ) T A(x x (k) ) = α 2 z (k)t Az (k) 2αz (k)t r (k) + (x x (k) ) T A(x x (k) ), dove si sono usati i seguenti fatti: la matrice A è simmetrica e quindi αz (k)t A(x x (k) ) = (x x (k) ) T A(αz (k) ); x è la soluzione del sistema lineare di partenza per cui Ax = b; quindi A(x x (k) ) = b Ax (k) = r (k). Poiché x x α 2 A è una parabola rispetto alla variabile α, il minimo si trova per α k = z(k)t r (k) z (k)t Az. (k) Con questa scelta del parametro il metodo (8) prende il nome di metodo del gradiente precondizionato. Descriviamo i passi principali dell algoritmo corrispondente. Algoritmo: metodo del gradiente precondizionato. 1. Scelgo x (0). 2. Calcolo r (0) = b Ax (0). 3. Calcolo la soluzione z (0) di P z (0) = r (0). 4. Per ogni iterata eseguo le seguenti operazioni: 4.1 Calcolo α k = z(k)t r (k) z (k)t Az. (k) 5

6 6 LUCIA GASTALDI Figure 2. Risoluzione mediante il metodo del gradiente x (k+1) = x (k) + α k z (k). 4.3 r (k+1) = r (k) α k Az (k). 4.4 Calcolo la soluzione z (k+1) di P z (k+1) = r (k+1). 5. Verifico il test d arresto: se il test d arresto è verificato, mi fermo; se il test d arresto non è vericato torno al punto 4. Si può dimostrare che nel caso del metodo (8) ora descritto il raggio spettrale della matrice di iterazione B αk tende a ρ(b αott ) per k che tende all infinito. Quindi il metodo di Richardson non stazionario è da preferire a quello stazionario non richiedendo di conoscere gli autovalori massimo e minimo della matrice P 1 A. Osserviamo però che la convergenza può essere molto lenta come illustrato nel seguente esempio in cui si è scelta come matrice di precondizionamento P = I. Il metodo prende in questo caso il nome di metodo del gradiente o di massima discesa. Si considera il sistema lineare (1) con i seguenti dati: A = ( ) ( , b = ) ( 1, x = 2 ) ( , x (0) = Nella Figura 2 sono riportati i primi 50 passi del metodo del gradiente applicato al sistema scritto sopra. Come si può notare la convergenza è molto lenta, in questo caso si ha K 2 (A) = 100. Si osserva anche che le direzioni che vengono scelte sono a due a due parallele tra di loro. Per capire meglio il comportamento della successione dell esempio introduciamo un interpretazione diversa del metodo del gradiente. ). 3. Metodo del gradiente e del gradiente coniugato Sia A R n n una matrice simmetrica e definita positiva (cioè A T = A e x T Ax > 0 per ogni x R n e x 0).

7 Sia x la soluzione del sistema (1) e y una sua approssimazione. La distanza di y da x nella norma (9), associata alla matrice A, si calcola come segue: 7 (10) x y 2 A = (x y) T A(x y) = x T Ax y T Ax x T Ay + y T Ay = y T Ay 2y T Ax + x T Ax = y T Ay 2y T b + x T Ax. Per ottenere (10) si è usato il fatto che la matrice è simmetrica e che x è la soluzione di (1). Si osserva inoltre che la distanza x y A come funzione di y è una funzione quadratica che ha un unico minimo assoluto per y = x. Infine notiamo che il punto di minimo non cambia se alla funzione precedente si somma una costante. Introduciamo la funzione quadratica ϕ : R n R data da (11) ϕ(y) = y T Ay 2y T b. Si calcolano allora facilmente il gradiente e la matrice hessiana di ϕ: (12) ϕ(y) = 2(Ay b), Hϕ(y) = 2A. Chiamato r(y) = b Ay il residuo, si ha che r(y) = ϕ(y)/2. Osserviamo che vale la seguente relazione: x y 2 A = ϕ(y) + x T Ax, quindi y è minimo per x y 2 A se e solo se è soluzione del seguente problema: PROBLEMA: cerchiamo x tale che ϕ(x) = min x R n ϕ(x). Condizione necessaria affinchè x sia soluzione di questo problema è che x sia un punto stazionario per ϕ cioè (13) ϕ(x) = 2(Ax b) = 0. Quindi se x è punto di minimo per ϕ allora è anche soluzione del sistema lineare Ax = b. Inoltre poiché la matrice A è definita positiva x è l unico punto di minimo per ϕ. Il problema di minimo e il sistema lineare Ax = b sono quindi equivalenti. Supponiamo di avere calcolato un approssimazione x (k) di x. Indichiamo con r (k) il residuo calcolato in x (k) : r (k) = r(x (k) ). Scegliamo come direzione di discesa r (k). Allora il punto di minimo di ϕ lungo tale direzione di discesa si trova come segue: i punti della retta che passa per x (k) ed è parallela ad r (k) sono individuati attraverso l espressione parametrica x (k) + αr (k), in particolare quelli nella direzione di discesa saranno individuati da α > 0. La restrizione di ϕ lungo questa semiretta è data da: (14) ϕ(x (k) + αr (k) ) = (x (k) + αr (k) ) T A(x (k) + αr (k) ) 2(x (k) + αr (k) ) T b = = x (k)t Ax (k) + αr (k)t Ax (k) + αx (k)t Ar (k) + +α 2 r (k)t Ar (k) 2b T x (k) 2αb T r (k) = = x (k)t Ax (k) 2b T x (k) + 2α(r (k)t Ax (k) r (k)t b) + α 2 r (k)t Ar (k) = = ϕ(x (k) ) 2αr (k)t r (k) + α 2 r (k)t Ar (k).

8 8 LUCIA GASTALDI La funzione ϕ(x (k) + αr (k) ) è una parabola rispetto alla variabile α, il suo punto di minimo si trova nel vertice per (15) α k = r(k)t r (k) r (k)t Ar (k). Metodo del gradiente o di steepest descent 1. Dato x 0 ; 2. calcola r 0 = b Ax 0 ; 3. per k = 0, 1,..., M (M numero massimo di iterazioni) 3.1 α k = r(k)t r (k) r (k)t Ar (k) ; 3.2 x (k+1) = x (k) + α k r (k) ; 3.3 r (k+1) = r (k) α k Ar (k) ; 3.4 test d arresto: se è verificato x (k+1) è la soluzione; altrimenti torno al punto 3. NOTA BENE: con la scelta di α k effettuata si ha che r (k+1)t r (k) = 0. La verifica è immediata, infatti (16) r (k+1)t r (k) = r (k)t r (k) α k r (k)t Ar (k) = 0 per definizione di α k. Valutiamo l errore usando la norma definita in (9), cercando di ottenere una relazione ricorsiva che leghi l errore all iterata k-esima con quello precedente, si ha: (17) x (k+1) x 2 A = (x(k+1) x ) T A(x (k+1) x ) = = (x (k) + α k r (k) x ) T A(x (k) + α k r (k) x ) = = (x (k) x ) T A(x (k) x ) + 2α k r (k)t A(x (k) x ) + α 2 r (k)t Ar (k) = = x (k) x 2 A + 2α kr (k)t ( r (k) ) + α 2 r (k)t Ar (k) = ( ) 2 = x (k) x 2 A 2 r(k)t r (k) r (k)t Ar (k) r(k)t r (k) r (k)t r (k) + r (k)t Ar (k) = r (k)t Ar (k) Osserviamo che (18) = x (k) x 2 A (r(k)t r (k) ) 2 r (k)t Ax (k). x (k) x 2 A = (x(k) x ) T AA 1 (Ax (k) Ax ) = = (Ax (k) Ax ) T A 1 (Ax (k) Ax ) = r (k)t A 1 r (k) e quindi ricaviamo da (17) ( ) (19) x (k+1) x 2 A = x (k) x 2 (r (k)t r (k) ) 2 A 1. r (k)t Ar (k) r (k)t A 1 r (k) La quantità (r (k)t r (k) ) 2 (20) ρ k = 1 r (k)t Ar (k) r (k)t A 1 r (k)

9 si chiama fattore di riduzione. Stimando la frazione mediante la disuguaglianza di Kantorovich: si ottiene (r (k)t r (k) ) 2 r (k)t Ar (k) r (k)t A 1 r (k) 4λ maxλ min (λ max + λ min ) 2 (21) x (k+1) x A K 2(A) 1 K 2 (A) + 1 x(k) x A, essendo K 2 (A) il numero di condizionamento della matrice A. Si ricorda che per matrici simmetriche e definite positive si ha K 2 (A) = λ max /λ min, dove λ max e λ min sono rispettivamente l autovalore massimo e minimo di A. Se K 2 (A) è molto grande, il fattore di riduzione si avvicina ad 1 ed il metodo può risultare molto lento come succede nell esempio riportato nella Figura 2. Nell esempio, il comportamento delle iterate illustra chiaramente che nel metodo del gradiente le direzioni lungo le quali si minimizza possono essere linearmente dipendenti. In particolare, nel caso bidimensionale considerato, si ha che i residui sono a passi alterni paralleli fra di loro. L idea è quindi quella di modificare l algoritmo del gradiente in modo da minimizzare lungo direzioni di discesa che risultino linearmente indipendenti. Il metodo di ricerca lineare dei minimi si può riscrivere quindi come segue: Metodo di ricerca lineare 1. Dato x 0 ; 2. calcolo r 0 = b Ax 0 ; 3. scelgo s 0 direzione di discesa 4. per k = 0, 1,..., M (M numero massimo di iterazioni) 3.1 α k = s(k)t r (k) s (k)t As (k) ; 3.2 x (k+1) = x (k) + α k s (k) ; 3.3 r (k+1) = r (k) α k As (k) ; 3.4 scelgo nuova direzione di discesa s (k+1) ; 3.5 test d arresto: se è verificato x (k+1) è la soluzione; altrimenti torno al punto 3. Si tratta quindi di trovare un modo per generare direzioni di discesa che siano linearmente indipendenti. Definizione 1. Un punto x (k) si dice ottimale rispetto ad una direzione p 0 se ϕ(x (k) ) ϕ(x (k) λp), λ R. Se x (k) è ottimale rispetto a tutte le direzioni di uno spazio vettoriale V, diremo che x (k) è ottimale rispetto a V. Dalla definizione 1 segue che se x (k) è ottimale rispetto a p allora vale r (k)t p = 0. Inoltre se x (k) è ottimale rispetto ad uno spazio vettoriale V si ha r (k)t v = 0 per ogni v V. Dato x (0), calcoliamo r (0) e minimizziamo la funzione quadratica lungo s (0) = r (0) ; otteniamo così (22) x (1) = x (0) + α 0 s (0) e r (1) = r (0) α 0 As (0) 9

10 10 LUCIA GASTALDI in modo tale che r (1)T s (0) = 0. Scegliamo ora s (1) e calcoliamo x (2) minimizzando ϕ lungo x ( 1) + αs (1), otteniamo: x (2) = x (1) + α 1 s (1), r (2) = r (1) α 1 As (1), con r (2)T s (1) = 0. Imponiamo che x (2) sia ottimale anche rispetto a s (0) cioè che r (2)T s (0) = 0; ricordando che r (1)T s (0) = 0, si ha: r (2)T s (0) = (r (1) α 1 As (1) ) T s (0) = r (1)T s (0) α 1 s (1)T As (0) = α 1 s (1)T As (0). Quindi per conservare la condizione di ottimalità tra un iterata e l altra deve essere s (1)T As (0) = 0. Diciamo che i vettori s (i) per i = 1,..., l (l < n) sono A-coniugati se vale che (23) s (i)t As (j) = 0 i, j = 1,..., l tali che i j. Quindi se le direzioni di discesa nel metodo della ricerca lineare sono tra loro A-coniugate, ad ogni iterazione si ottiene un approssimazione x (k) che è ottimale rispetto a tutte le direzioni di discesa usate. Supponiamo di aver calcolato la iterata x (k+1), dobbiamo ora costruire la direzione s (k+1) che serve per calcolare l iterata successiva. Siccome x (k+1) è ottimale rispetto a tutte le direzioni s (0),, s (k) finora usate, si ha che r (k+1)t s (i) = 0 per i = 0,, k. Quindi r (k+1) è linearmente indipendente a tutte le direzioni s (i). Poniamo s (k+1) = r (k+1) + β k s (k) e determiniamo β k in modo che sia A-coniugata con s (k) : s (k+1)t As (k) = r (k+1)t s (k) + β k s (k)t As (k) = 0 β k = r(k+1)t s (k) s (k)t As (k). Si dimostra che s (k+1) così definita è A-coniugata anche con s (i) per i = 0,, k 1. Il metodo che si ottiene scegliendo come s (0) = r (0) e direzioni di discesa A-coniugate prende il nome di metodo del gradiente coniugato. Osserviamo che la scelta delle direzioni di discesa A-coniugate ha un altra conseguenza importante, precisamente per ogni k vale r (k+1)t s (i) = 0 per i = 0, 1,..., k. Questo fatto implica che r (n)t s (i) = 0 per i = 0,..., n 1. Poichè le direzioni s (i) sono A-coniugate e quindi linearmente indipendenti, si ha che r (n) = 0. Ossia dopo n iterazioni del metodo del gradiente coniugato x (n) = x essendo x la soluzione del problema di minimo. Metodo del gradiente coniugato 1. Dato x 0 ; 2. calcola r 0 = b Ax 0 ; 3. poni s 0 = r 0 ; 4. per k = 0, 1,..., n

11 4.1 α k = r(k)t r (k) s (k)t As ; (k) 4.2 x (k+1) = x (k) + α k s (k) ; 4.3 r (k+1) = r (k) α k As (k) ; 4.4 β k = r(k+1)t r (k+1) ; r (k)t r (k) 4.5 s (k+1) = r (k+1) + β k s (k). Il costo dell algoritmo è 1 prodotto matrice per vettore, 2 prodotti scalari e 3 combinazioni lineari di due vettori. Ad ogni iterata l errore si riduce secondo la seguente legge: ( k (24) x (k) K2 (A) 1 x A 2 x 0 x A. K2 (A) + 1) Quindi il fattore di riduzione è più piccolo di quello del metodo di steepest descent, si confronti con (21). Il metodo risulta abbastanza efficiente se usato in maniera iterativa, specialmente nel caso in cui il problema è di grande dimensione (n 10000) e la matrice A è sparsa. Calcoliamo ad esempio quante iterazioni occorrono per ottenere una soluzione con un errore dell ordine di 10 m. Si deve quindi trovare k tale che x (k) x A x A 10 m. Poichè dalla relazione ricorsiva per l errore (24) si ha x (k) x A x A 2 ( ) k K2 (A) 1 x0 x A K2 (A) + 1 x A si ottiene ( ) x 0 x K2 A k m + log 10 (A). x A Il numero di iterazioni diventa quindi proporzionale alla radice quadrata del condizionamento di A. Per migliorare la velocità di convergenza e quindi ridurre il numero di iterazioni si può utilizzare anche in questo caso un precondizionamento della matrice A. 4. Precondizionamento Data una matrice non singolare A, dicesi matrice di precondizionamento una matrice P non singolare tale che la matrice P 1 A ha un numero di condizionamento più basso di quello di A ossia se vale K(P 1 A) << K(A). Se si conosce una matrice di prcondizionamento P allora si vuole deve risolvere il sistema equivalente P 1 Ax = P 1 b. Il problema è quello di costruire una matrice P che sia invertibile e tale che la risoluzione del sistema con matrice dei coefficienti P sia di basso e che non distrugga le proprietà di A. Ad esempio se A è un matrice simmetrica e definita positiva si vorrebbe usare ancora il metodo del gradiente coniugato per risolvere il sistema P 1 Ax = P 1 b. Purtroppo la matrice P 1 A non risulta simmetrica e definita positiva neanche se lo sono sia A che P, pertanto occorre affrontare il problema in modo un po diverso. Abbiamo visto che il metodo del gradiente coniugato 11

12 12 LUCIA GASTALDI si applica per la ricerca del minimo del funzionale quadratico ϕ definito in (11). Il metodo diventa molto lento quando K 2 (A) = λ max /λ min >> 1. In due dimensioni gli autovalori della matrice sono associati ai semiassi delle ellissi che rappresentano le curve di livello della funzione quadratica. Se λ max >> λ min vuol dire che le ellissi sono molto schiacciate lungo una direzione. L idea è quindi quella di cercare di operare un cambiamento di variabili in modo tale che rispetto al nuovo sistema di riferimento le curve di livello siano il più vicino possibile a dei cerchi. Introduciamo quindi una matrice non singolare E e poniamo ỹ = Ey. Sostituendo y = E 1 ỹ in (11), otteniamo il seguente funzionale quadratico rispetto alla nuova variabile ỹ (25) ϕ(ỹ) = (E 1 ỹ) T A(E 1 ỹ) 2(E 1 ỹ) T b = ỹe T AE 1 ỹ 2ỹ T E T b = ỹãỹ 2ỹT b, essendo à = E T AE 1, b = E T b. Il funzionale ϕ gode ancora delle stesse proprietà soddisfatte da ϕ essendo anche à una matrice simmetrica e definita positiva. Inoltre vale E 1 ÃE = E 1 E T AE 1 E = E 1 E T A = (E T E) 1 = P 1 A avendo posto P = E T E. Quindi à è simile ad una matrice P 1 A che rappresenta la matrice precondizionata. Calcoliamo ora la norma dell energia associata a à per ỹ = Ey: ỹ 2 à = ỹt Ãỹ = ỹ T E T AE 1 ỹ = y T Ay = y 2 A. Ne consegue che applicando il metodo del gradiente coniugato al funzionale quadratico (25) si ottiene il seguente comportamento dell errore: ( k x (k) x à K2 (P 2 1 A) 1 x x à K2 (P 1 A) + 1) (0) x à x à essendo x = Ex il minimo del funzionale ϕ. Ritornando al sistema di riferimento iniziale si ha quindi ( ) k x (k) x A K2 (P 2 1 A) 1 x (0) x A. x A K2 (P 1 A) + 1 x A L algoritmo del metodo del gradiente coniugato precondizionato si scrive nel modo seguente: Metodo del gradiente coniugato precondizionato 1. Dato x 0 ; 2. calcola r 0 = b Ax 0 ; 3. risolvi P z 0 = r 0 ; 4. poni s 0 = z 0 ; 5. per k = 0, 1,..., n 4.1 α k = z(k)t r (k) s (k)t As (k) ; 4.2 x (k+1) = x (k) + α k s (k) ; 4.3 r (k+1) = r (k) α k As (k) ;

13 4.4 risolvi P z (k+1) = r (k+1) ; 4.5 β k = r(k+1)t z (k+1) r (k)t z (k) ; 4.6 s (k+1) = z (k+1) + β k s (k). Il costo dell algoritmo è 2 prodotti matrice per vettore, 2 prodotti scalari e 3 combinazioni lineari di due vettori. Si noti che per motivi di efficienza la scelta di P è fatta in modo tale che il costo della risoluzione del sistema con matrice P è uguale al costo di una moltiplicazione matrice per vettore. Dipartimento di Matematica, Università di Brescia, Italy address: URL: 13

Metodi iterativi per sistemi lineari

Metodi iterativi per sistemi lineari Metodi iterativi per sistemi lineari Dario A. Bini, Università di Pisa 30 ottobre 2013 Sommario Questo modulo didattico contiene risultati relativi ai metodi iterativi per risolvere sistemi di equazioni

Dettagli

Corso di Analisi Numerica

Corso di Analisi Numerica Corso di Laurea in Ingegneria Informatica Corso di Analisi Numerica 8 - METODI ITERATIVI PER I SISTEMI LINEARI Lucio Demeio Dipartimento di Scienze Matematiche 1 Norme e distanze 2 3 4 Norme e distanze

Dettagli

Corso di Calcolo Numerico

Corso di Calcolo Numerico Corso di Calcolo Numerico Dottssa MC De Bonis Università degli Studi della Basilicata, Potenza Facoltà di Ingegneria Corso di Laurea in Ingegneria Meccanica Corso di Calcolo Numerico - Dottssa MC De Bonis

Dettagli

Autovalori e Autovettori

Autovalori e Autovettori Daniela Lera Università degli Studi di Cagliari Dipartimento di Matematica e Informatica A.A. 2008-2009 Autovalori e Autovettori Definizione Siano A C nxn, λ C, e x C n, x 0, tali che Ax = λx. (1) Allora

Dettagli

RICHIAMI SULLE MATRICI. Una matrice di m righe e n colonne è rappresentata come

RICHIAMI SULLE MATRICI. Una matrice di m righe e n colonne è rappresentata come RICHIAMI SULLE MATRICI Una matrice di m righe e n colonne è rappresentata come A = a 11 a 12... a 1n a 21 a 22... a 2n............ a m1 a m2... a mn dove m ed n sono le dimensioni di A. La matrice A può

Dettagli

SISTEMI LINEARI QUADRATI: METODI ITERATIVI

SISTEMI LINEARI QUADRATI: METODI ITERATIVI SISTEMI LINEARI QUADRATI: METODI ITERATIVI CALCOLO NUMERICO e PROGRAMMAZIONE SISTEMI LINEARI QUADRATI:METODI ITERATIVI p./54 RICHIAMI di ALGEBRA LINEARE DEFINIZIONI A R n n simmetrica se A = A T ; A C

Dettagli

Parte 2. Determinante e matrice inversa

Parte 2. Determinante e matrice inversa Parte. Determinante e matrice inversa A. Savo Appunti del Corso di Geometria 013-14 Indice delle sezioni 1 Determinante di una matrice, 1 Teorema di Cramer (caso particolare), 3 3 Determinante di una matrice

Dettagli

Da una a più variabili: derivate

Da una a più variabili: derivate Da una a più variabili: derivate ( ) 5 gennaio 2011 Scopo di questo articolo è di evidenziare le analogie e le differenze, relativamente al calcolo differenziale, fra le funzioni di una variabile reale

Dettagli

Condizionamento del problema

Condizionamento del problema Condizionamento del problema x 1 + 2x 2 = 3.499x 1 + 1.001x 2 = 1.5 La soluzione esatta è x = (1, 1) T. Perturbando la matrice dei coefficienti o il termine noto: x 1 + 2x 2 = 3.5x 1 + 1.002x 2 = 1.5 x

Dettagli

9 Metodi diretti per la risoluzione di sistemi lineari: fattorizzazione P A = LU

9 Metodi diretti per la risoluzione di sistemi lineari: fattorizzazione P A = LU 9 Metodi diretti per la risoluzione di sistemi lineari: fattorizzazione P A LU 9.1 Il metodo di Gauss Come si è visto nella sezione 3.3, per la risoluzione di un sistema lineare si può considerare al posto

Dettagli

Corso di Analisi Numerica - AN1. Parte 2: metodi diretti per sistemi lineari. Roberto Ferretti

Corso di Analisi Numerica - AN1. Parte 2: metodi diretti per sistemi lineari. Roberto Ferretti Corso di Analisi Numerica - AN1 Parte 2: metodi diretti per sistemi lineari Roberto Ferretti Richiami sulle norme e sui sistemi lineari Il Metodo di Eliminazione di Gauss Il Metodo di Eliminazione con

Dettagli

Dimensione di uno Spazio vettoriale

Dimensione di uno Spazio vettoriale Capitolo 4 Dimensione di uno Spazio vettoriale 4.1 Introduzione Dedichiamo questo capitolo ad un concetto fondamentale in algebra lineare: la dimensione di uno spazio vettoriale. Daremo una definizione

Dettagli

Metodi diretti per la soluzione di sistemi lineari

Metodi diretti per la soluzione di sistemi lineari Metodi diretti per la soluzione di sistemi lineari N Del Buono 1 Introduzione Consideriamo un sistema di n equazioni in n incognite a 11 x 1 + a 12 x 2 + a 13 x 3 + + a 1n x n = b 1, a 21 x 1 + a 22 x

Dettagli

Analisi 2. Argomenti. Raffaele D. Facendola

Analisi 2. Argomenti. Raffaele D. Facendola Analisi 2 Argomenti Successioni di funzioni Definizione Convergenza puntuale Proprietà della convergenza puntuale Convergenza uniforme Continuità e limitatezza Teorema della continuità del limite Teorema

Dettagli

Algebra Lineare e Geometria

Algebra Lineare e Geometria Algebra Lineare e Geometria Corso di Laurea in Ingegneria Elettronica A.A. 2013-2014 Prova d esame del 16/06/2014. 1) a) Determinare la matrice associata all applicazione lineare T : R 3 R 4 definita da

Dettagli

Funzioni in più variabili

Funzioni in più variabili Funzioni in più variabili Corso di Analisi 1 di Andrea Centomo 27 gennaio 2011 Indichiamo con R n, n 1, l insieme delle n-uple ordinate di numeri reali R n4{(x 1, x 2,,x n ), x i R, i =1,,n}. Dato X R

Dettagli

Appunti delle esercitazioni di Ricerca Operativa

Appunti delle esercitazioni di Ricerca Operativa Appunti delle esercitazioni di Ricerca Operativa a cura di P. Detti e G. Ciaschetti 1 Esercizi sulle condizioni di ottimalità per problemi di ottimizzazione non vincolata Esempio 1 Sia data la funzione

Dettagli

Parte 3. Rango e teorema di Rouché-Capelli

Parte 3. Rango e teorema di Rouché-Capelli Parte 3. Rango e teorema di Rouché-Capelli A. Savo Appunti del Corso di Geometria 203-4 Indice delle sezioni Rango di una matrice, 2 Teorema degli orlati, 3 3 Calcolo con l algoritmo di Gauss, 6 4 Matrici

Dettagli

Equazioni e sistemi non lineari

Equazioni e sistemi non lineari Capitolo 4 Equazioni e sistemi non lineari 4.1 Introduzione Sia f(x):ir IR una funzione continua almeno su un certo intervallo I e si supponga che f(x) non sia della forma f(x) = a 1 x + a 0 con a 1 e

Dettagli

MATEMATICA. { 2 x =12 y 3 y +8 x =0, si pone il problema di trovare, se esistono, un numero x ed un numero y che risolvano entrambe le equazioni.

MATEMATICA. { 2 x =12 y 3 y +8 x =0, si pone il problema di trovare, se esistono, un numero x ed un numero y che risolvano entrambe le equazioni. MATEMATICA. Sistemi lineari in due equazioni due incognite. Date due equazioni lineari nelle due incognite x, y come ad esempio { 2 x =12 y 3 y +8 x =0, si pone il problema di trovare, se esistono, un

Dettagli

x 1 + x 2 3x 4 = 0 x1 + x 2 + x 3 = 0 x 1 + x 2 3x 4 = 0.

x 1 + x 2 3x 4 = 0 x1 + x 2 + x 3 = 0 x 1 + x 2 3x 4 = 0. Problema. Sia W il sottospazio dello spazio vettoriale R 4 dato da tutte le soluzioni dell equazione x + x 2 + x = 0. (a. Sia U R 4 il sottospazio dato da tutte le soluzioni dell equazione Si determini

Dettagli

09 - Funzioni reali di due variabili reali

09 - Funzioni reali di due variabili reali Università degli Studi di Palermo Facoltà di Economia CdS Sviluppo Economico e Cooperazione Internazionale Appunti del corso di Matematica 09 - Funzioni reali di due variabili reali Anno Accademico 2013/2014

Dettagli

2.1 Definizione di applicazione lineare. Siano V e W due spazi vettoriali su R. Un applicazione

2.1 Definizione di applicazione lineare. Siano V e W due spazi vettoriali su R. Un applicazione Capitolo 2 MATRICI Fra tutte le applicazioni su uno spazio vettoriale interessa esaminare quelle che mantengono la struttura di spazio vettoriale e che, per questo, vengono dette lineari La loro importanza

Dettagli

Corso di Geometria e Algebra Lineare - Sezione di Metodi Numerici

Corso di Geometria e Algebra Lineare - Sezione di Metodi Numerici Corso di Geometria e Algebra Lineare - Sezione di Metodi Numerici C. Vergara 3. Metodo della fattorizzazione LU per la risoluzione di un sistema lineare Errori di arrotondamento. Prima di affrontare la

Dettagli

Funzioni di più variabili. Ottimizzazione libera e vincolata

Funzioni di più variabili. Ottimizzazione libera e vincolata libera e vincolata Generalità. Limiti e continuità per funzioni di 2 o Piano tangente. Derivate successive Formula di Taylor libera vincolata Lo ordinario è in corrispondenza biunivoca con i vettori di

Dettagli

LEZIONE 23. Esempio 23.1.3. Si consideri la matrice (si veda l Esempio 22.2.5) A = 1 2 2 3 3 0

LEZIONE 23. Esempio 23.1.3. Si consideri la matrice (si veda l Esempio 22.2.5) A = 1 2 2 3 3 0 LEZIONE 23 231 Diagonalizzazione di matrici Abbiamo visto nella precedente lezione che, in generale, non è immediato che, data una matrice A k n,n con k = R, C, esista sempre una base costituita da suoi

Dettagli

Introduzione al MATLAB c Parte 2

Introduzione al MATLAB c Parte 2 Introduzione al MATLAB c Parte 2 Lucia Gastaldi Dipartimento di Matematica, http://dm.ing.unibs.it/gastaldi/ 18 gennaio 2008 Outline 1 M-file di tipo Script e Function Script Function 2 Costrutti di programmazione

Dettagli

Documentazione esterna al software matematico sviluppato con MatLab

Documentazione esterna al software matematico sviluppato con MatLab Documentazione esterna al software matematico sviluppato con MatLab Algoritmi Metodo di Gauss-Seidel con sovrarilassamento Metodo delle Secanti Metodo di Newton Studente Amelio Francesco 556/00699 Anno

Dettagli

LEZIONI DI ALGEBRA LINEARE PER LE APPLICAZIONI FINANZIARIE

LEZIONI DI ALGEBRA LINEARE PER LE APPLICAZIONI FINANZIARIE LEZIONI DI ALGEBRA LINEARE PER LE APPLICAZIONI FINANZIARIE FLAVIO ANGELINI Sommario Queste note hanno lo scopo di indicare a studenti di Economia interessati alla finanza quantitativa i concetti essenziali

Dettagli

Elementi Finiti: stime d errore e adattività della griglia

Elementi Finiti: stime d errore e adattività della griglia Elementi Finiti: stime d errore e adattività della griglia Elena Gaburro Università degli studi di Verona Master s Degree in Mathematics and Applications 05 giugno 2013 Elena Gaburro (Università di Verona)

Dettagli

Capitolo 4: Ottimizzazione non lineare non vincolata parte II. E. Amaldi DEIB, Politecnico di Milano

Capitolo 4: Ottimizzazione non lineare non vincolata parte II. E. Amaldi DEIB, Politecnico di Milano Capitolo 4: Ottimizzazione non lineare non vincolata parte II E. Amaldi DEIB, Politecnico di Milano 4.3 Algoritmi iterativi e convergenza Programma non lineare (PNL): min f(x) s.v. g i (x) 0 1 i m x S

Dettagli

Federico Lastaria. Analisi e Geometria 2. Matrici simmetriche. Il teorema spettrale. 1/24

Federico Lastaria. Analisi e Geometria 2. Matrici simmetriche. Il teorema spettrale. 1/24 Contenuto Endomorfismi auto-aggiunti. Matrici simmetriche. Il teorema spettrale Gli autovalori di una matrice simmetrica sono tutti reali. (Dimostrazione fatta usando i numeri complessi). Dimostrazione

Dettagli

Precondizionamento per sistemi lineari simmetrici a grande dimensione

Precondizionamento per sistemi lineari simmetrici a grande dimensione Corso di Laurea magistrale in Statistica Per l Impresa Tesi di Laurea Precondizionamento per sistemi lineari simmetrici a grande dimensione Relatore Prof. Giovanni Fasano Laureando Mirko Scavetta Matricola

Dettagli

Equazioni non lineari

Equazioni non lineari Equazioni non lineari Data una funzione f : [a, b] R si cerca α [a, b] tale che f (α) = 0. I metodi numerici per la risoluzione di questo problema sono metodi iterativi. Teorema Data una funzione continua

Dettagli

Massimi e minimi vincolati di funzioni in due variabili

Massimi e minimi vincolati di funzioni in due variabili Massimi e minimi vincolati di funzioni in due variabili I risultati principali della teoria dell ottimizzazione, il Teorema di Fermat in due variabili e il Test dell hessiana, si applicano esclusivamente

Dettagli

1 Massimi e minimi liberi 1. 2 Massimi e minimi vincolati 7. 3 Soluzioni degli esercizi 12

1 Massimi e minimi liberi 1. 2 Massimi e minimi vincolati 7. 3 Soluzioni degli esercizi 12 UNIVR Facoltà di Economia Sede di Vicenza Corso di Matematica 1 Massimi e minimi delle funzioni di più variabili Indice 1 Massimi e minimi liberi 1 Massimi e minimi vincolati 7 3 Soluzioni degli esercizi

Dettagli

RETTE, PIANI, SFERE, CIRCONFERENZE

RETTE, PIANI, SFERE, CIRCONFERENZE RETTE, PIANI, SFERE, CIRCONFERENZE 1. Esercizi Esercizio 1. Dati i punti A(1, 0, 1) e B(, 1, 1) trovare (1) la loro distanza; () il punto medio del segmento AB; (3) la retta AB sia in forma parametrica,

Dettagli

EQUAZIONI E DISEQUAZIONI POLINOMIALI E COLLEGAMENTI CON LA GEOMETRIA ELEMENTARE

EQUAZIONI E DISEQUAZIONI POLINOMIALI E COLLEGAMENTI CON LA GEOMETRIA ELEMENTARE EQUAZIONI E DISEQUAZIONI POLINOMIALI E COLLEGAMENTI CON LA GEOMETRIA ELEMENTARE 1. EQUAZIONI Definizione: un equazione è un uguaglianza tra due espressioni letterali (cioè in cui compaiono numeri, lettere

Dettagli

6) f(x, y) = xy 1 log(5 2x 2y) x + y. 2x x 2 y 2 z 2 x 2 + y 2 + z 2 x Esercizio 2. Studiare gli insiemi di livello delle seguenti funzioni:

6) f(x, y) = xy 1 log(5 2x 2y) x + y. 2x x 2 y 2 z 2 x 2 + y 2 + z 2 x Esercizio 2. Studiare gli insiemi di livello delle seguenti funzioni: FUNZIONI IN PIÙ VARIABILI 1. Esercizi Esercizio 1. Determinare il dominio delle seguenti funzioni, specificando se si tratta di un insieme aperto o chiuso: 1) f(x, ) = log(x x ) ) f(x, ) = x + 3) f(x,

Dettagli

Ottimizzazione non Vincolata

Ottimizzazione non Vincolata Dipartimento di Informatica e Sitemistica Università di Roma Corso Dottorato Ingegneria dei Sistemi 15/02/2010, Roma Outline Ottimizzazione Non Vincolata Introduzione Ottimizzazione Non Vincolata Algoritmi

Dettagli

Matematica B - a.a 2006/07 p. 1

Matematica B - a.a 2006/07 p. 1 Matematica B - a.a 2006/07 p. 1 Definizione 1. Un sistema lineare di m equazioni in n incognite, in forma normale, è del tipo a 11 x 1 + + a 1n x n = b 1 a 21 x 1 + + a 2n x n = b 2 (1) = a m1 x 1 + +

Dettagli

EQUAZIONI non LINEARI

EQUAZIONI non LINEARI EQUAZIONI non LINEARI Francesca Pelosi Dipartimento di Matematica, Università di Roma Tor Vergata CALCOLO NUMERICO e PROGRAMMAZIONE http://www.mat.uniroma2.it/ pelosi/ EQUAZIONI non LINEARI p.1/44 EQUAZIONI

Dettagli

Lezioni di Algebra Lineare III. Applicazioni lineari e matrici Struttura algebrica delle soluzioni dei sistemi lineari

Lezioni di Algebra Lineare III. Applicazioni lineari e matrici Struttura algebrica delle soluzioni dei sistemi lineari Versione ottobre novembre 2008 Lezioni di Algebra Lineare III. Applicazioni lineari e matrici Struttura algebrica delle soluzioni dei sistemi lineari Contenuto 1. Applicazioni lineari 2. L insieme delle

Dettagli

d 2 dx ψ + 2 m E V x ψ = 0 V x = V x + a. ψ(x+a) = Q ψ(x). ψ x = e " i k x u k ψ x + a = e " i k x + a u k x + a = e " i k a e " i k x u k

d 2 dx ψ + 2 m E V x ψ = 0 V x = V x + a. ψ(x+a) = Q ψ(x). ψ x = e  i k x u k ψ x + a = e  i k x + a u k x + a = e  i k a e  i k x u k Teorema di Bloch Introduzione (vedi anche Ascroft, dove c è un approccio alternativo) Cominciamo col considerare un solido unidimensionale. Il modello è quello di una particella (l elettrone) in un potenziale

Dettagli

4 Quarta lezione: Spazi di Banach e funzionali lineari. Spazio duale

4 Quarta lezione: Spazi di Banach e funzionali lineari. Spazio duale 4 Quarta lezione: Spazi di Banach e funzionali lineari. Spazio duale Spazi Metrici Ricordiamo che uno spazio metrico è una coppia (X, d) dove X è un insieme e d : X X [0, + [ è una funzione, detta metrica,

Dettagli

ESERCIZI APPLICAZIONI LINEARI

ESERCIZI APPLICAZIONI LINEARI ESERCIZI APPLICAZIONI LINEARI PAOLO FACCIN 1. Esercizi sulle applicazioni lineari 1.1. Definizioni sulle applicazioni lineari. Siano V, e W spazi vettoriali, con rispettive basi B V := (v 1 v n) e B W

Dettagli

Esempio. Approssimazione con il criterio dei minimi quadrati. Esempio. Esempio. Risultati sperimentali. Interpolazione con spline cubica.

Esempio. Approssimazione con il criterio dei minimi quadrati. Esempio. Esempio. Risultati sperimentali. Interpolazione con spline cubica. Esempio Risultati sperimentali Approssimazione con il criterio dei minimi quadrati Esempio Interpolazione con spline cubica. Esempio 1 Come procedere? La natura del fenomeno suggerisce che una buona approssimazione

Dettagli

Indice generale. Modulo 1 Algebra 2

Indice generale. Modulo 1 Algebra 2 Indice generale Modulo 1 Algebra 2 Capitolo 1 Scomposizione in fattori. Equazioni di grado superiore al primo 1.1 La scomposizione in fattori 2 1.2 Raccoglimento a fattor comune 3 1.3 Raccoglimenti successivi

Dettagli

ESAME DI STATO DI LICEO SCIENTIFICO CORSO SPERIMENTALE P.N.I. 2003 Sessione straordinaria

ESAME DI STATO DI LICEO SCIENTIFICO CORSO SPERIMENTALE P.N.I. 2003 Sessione straordinaria ESAME DI STATO DI LICEO SCIENTIFICO CORSO SPERIMENTALE P.N.I. 3 Sessione straordinaria Il candidato risolva uno dei due problemi e 5 dei quesiti in cui si articola il questionario. PROBLEMA È assegnata

Dettagli

ESAME DI STATO 2002 SECONDA PROVA SCRITTA PER IL LICEO SCIENTIFICO DI ORDINAMENTO

ESAME DI STATO 2002 SECONDA PROVA SCRITTA PER IL LICEO SCIENTIFICO DI ORDINAMENTO ARCHIMEDE 4/ 97 ESAME DI STATO SECONDA PROVA SCRITTA PER IL LICEO SCIENTIFICO DI ORDINAMENTO Il candidato risolva uno dei due problemi e 5 dei quesiti in cui si articola il questionario. PROBLEMA In un

Dettagli

Le catene di Markov come metodologia utilizzata dai motori di ricerca per classificare le pagine web su internet.

Le catene di Markov come metodologia utilizzata dai motori di ricerca per classificare le pagine web su internet. Università degli Studi di Palermo Facoltà di Economia Dipartimento di Scienze Statistiche e Matematiche S. Vianelli Dottorato di Ricerca in Statistica e Finanza Quantitativa - XXI Ciclo Sergio Salvino

Dettagli

Stabilità di Lyapunov

Stabilità di Lyapunov Stabilità di Lyapunov Flaviano Battelli Dipartimento di Scienze Matematiche Università Politecnica delle Marche Ancona Introduzione. In queste note presentiamo i primi elementi della teoria della stabilità

Dettagli

Ricerca Operativa 2. Introduzione al metodo del Simplesso

Ricerca Operativa 2. Introduzione al metodo del Simplesso Ricerca Operativa 2. Introduzione al metodo del Simplesso Luigi De Giovanni Giacomo Zambelli 1 Problemi di programmazione lineare Un problema di ottimizzazione vincolata è definito dalla massimizzazione

Dettagli

Funzioni. Lorenzo Pareschi. Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara

Funzioni. Lorenzo Pareschi. Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara Funzioni Lorenzo Pareschi Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara http://utenti.unife.it/lorenzo.pareschi/ lorenzo.pareschi@unife.it Lorenzo Pareschi (Univ. Ferrara)

Dettagli

Indice Elementi di analisi delle matrici I fondamenti della matematica numerica

Indice Elementi di analisi delle matrici I fondamenti della matematica numerica Indice 1. Elementi di analisi delle matrici 1 1.1 Spazivettoriali... 1 1.2 Matrici... 3 1.3 Operazionisumatrici... 4 1.3.1 Inversadiunamatrice... 6 1.3.2 Matricietrasformazionilineari... 7 1.4 Tracciaedeterminante...

Dettagli

Esercizi di Analisi Matematica I

Esercizi di Analisi Matematica I Esercizi di Analisi Matematica I Andrea Corli e Alessia Ascanelli gennaio 9 Indice Introduzione iii Nozioni preliminari. Fattoriali e binomiali..................................... Progressioni..........................................

Dettagli

= E(X t+k X t+k t ) 2 + 2E [( X t+k X t+k t + E

= E(X t+k X t+k t ) 2 + 2E [( X t+k X t+k t + E 1. Previsione per modelli ARM A Questo capitolo è dedicato alla teoria della previsione lineare per processi stocastici puramente non deterministici, cioè per processi che ammettono una rappresentazione

Dettagli

Ricerca Operativa A.A. 2007/2008. 10. Dualità in Programmazione Lineare

Ricerca Operativa A.A. 2007/2008. 10. Dualità in Programmazione Lineare Ricerca Operativa A.A. 2007/2008 10. Dualità in Programmazione Lineare Luigi De Giovanni - Ricerca Operativa - 10. Dualità in Programmazione Lineare 10.1 Soluzione di un problema di PL: punti di vista

Dettagli

Valori caratteristici di distribuzioni

Valori caratteristici di distribuzioni Capitolo 3 Valori caratteristici di distribuzioni 3. Valori attesi di variabili e vettori aleatori In molti casi è possibile descrivere adeguatamente una distribuzione di probabilità con pochi valori di

Dettagli

Lezione 9: Cambio di base

Lezione 9: Cambio di base Lezione 9: Cambio di base In questa lezione vogliamo affrontare uno degli argomenti piu ostici per lo studente e cioè il cambio di base all interno di uno spazio vettoriale, inoltre cercheremo di capire

Dettagli

Modelli di Ottimizzazione

Modelli di Ottimizzazione Capitolo 2 Modelli di Ottimizzazione 2.1 Introduzione In questo capitolo ci occuperemo più nel dettaglio di quei particolari modelli matematici noti come Modelli di Ottimizzazione che rivestono un ruolo

Dettagli

(V) (FX) Z 6 è un campo rispetto alle usuali operazioni di somma e prodotto.

(V) (FX) Z 6 è un campo rispetto alle usuali operazioni di somma e prodotto. 29 giugno 2009 - PROVA D ESAME - Geometria e Algebra T NOME: MATRICOLA: a=, b=, c= Sostituire ai parametri a, b, c rispettivamente la terzultima, penultima e ultima cifra del proprio numero di matricola

Dettagli

I appello - 26 Gennaio 2007

I appello - 26 Gennaio 2007 Facoltà di Ingegneria - Corso di Laurea in Ing. Informatica e delle Telecom. A.A.006/007 I appello - 6 Gennaio 007 Risolvere gli esercizi motivando tutte le risposte. (N.B. il quesito teorico è obbligatorio)

Dettagli

Appunti dalle lezioni di Calcolo Numerico

Appunti dalle lezioni di Calcolo Numerico Appunti dalle lezioni di Calcolo Numerico A.A. 2012/2013 ii Indice 1 La soluzione di equazioni nonlineari 1 1.1 Prime prove................................ 2 1.2 Lo schema delle iterazioni successive (o

Dettagli

Appunti sul corso di Complementi di Matematica - prof. B.Bacchelli. 03 - Equazioni differenziali lineari omogenee a coefficienti costanti.

Appunti sul corso di Complementi di Matematica - prof. B.Bacchelli. 03 - Equazioni differenziali lineari omogenee a coefficienti costanti. Appunti sul corso di Complementi di Matematica - prof. B.Bacchelli 03 - Equazioni differenziali lineari omogenee a coefficienti costanti. Def. Si dice equazione differenziale lineare del secondo ordine

Dettagli

Parte I. Relazioni di ricorrenza

Parte I. Relazioni di ricorrenza Parte I Relazioni di ricorrenza 1 Capitolo 1 Relazioni di ricorrenza 1.1 Modelli Nel seguente capitolo studieremo le relazioni di ricorrenza. Ad esempio sono relazioni di ricorrenza a n = a n 1 + n, a

Dettagli

Facoltà di Dipartimento di Ingegneria Elettrica e dell'informazione anno accademico 2014/15 Registro lezioni del docente SPORTELLI LUIGI

Facoltà di Dipartimento di Ingegneria Elettrica e dell'informazione anno accademico 2014/15 Registro lezioni del docente SPORTELLI LUIGI Facoltà di Dipartimento di Ingegneria Elettrica e dell'informazione anno accademico 2014/15 Registro lezioni del docente SPORTELLI LUIGI Attività didattica ANALISI MATEMATICA [2000] Periodo di svolgimento:

Dettagli

1 Grafico di una funzione reale 1. 2 Funzioni elementari 2 2.1 Funzione potenza... 2 2.2 Funzione esponenziale... 3 2.3 Funzione logaritmica...

1 Grafico di una funzione reale 1. 2 Funzioni elementari 2 2.1 Funzione potenza... 2 2.2 Funzione esponenziale... 3 2.3 Funzione logaritmica... UNIVR Facoltà di Economia Sede di Vicenza Corso di Matematica Funzioni reali di variabile reale Indice Grafico di una funzione reale 2 Funzioni elementari 2 2. Funzione potenza................................................

Dettagli

Corso di Matematica per la Chimica

Corso di Matematica per la Chimica Dott.ssa Maria Carmela De Bonis a.a. 203-4 I sistemi lineari Generalità sui sistemi lineari Molti problemi dell ingegneria, della fisica, della chimica, dell informatica e dell economia, si modellizzano

Dettagli

15 febbraio 2010 - Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a. 2009-2010 COGNOME... NOME... N. MATRICOLA...

15 febbraio 2010 - Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a. 2009-2010 COGNOME... NOME... N. MATRICOLA... 15 febbraio 010 - Soluzione esame di geometria - 1 crediti Ingegneria gestionale - a.a. 009-010 COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura

Dettagli

Lezioni di Geometria e Algebra. Fulvio Bisi, Francesco Bonsante, Sonia Brivio

Lezioni di Geometria e Algebra. Fulvio Bisi, Francesco Bonsante, Sonia Brivio Lezioni di Geometria e Algebra Fulvio Bisi, Francesco Bonsante, Sonia Brivio CAPITOLO 4 Applicazioni lineari 1. Definizioni ed esempi. In questo capitolo ci proponiamo di studiare le funzioni tra spazi

Dettagli

Elaborazione delle Immagini Digitali

Elaborazione delle Immagini Digitali Elaborazione delle Immagini Digitali Parte I Prof. Edoardo Ardizzone A.A. 2-22 La trasformata di Hotelling o di Karhunen-Loeve KLT discreta Questa trasformata detta anche analisi delle componenti principali

Dettagli

Serie numeriche. 1 Definizioni e proprietà elementari

Serie numeriche. 1 Definizioni e proprietà elementari Serie numeriche Definizioni e proprietà elementari Sia { } una successione, definita per ogni numero naturale n n. Per ogni n n, consideriamo la somma s n degli elementi della successione di posto d s

Dettagli

GEOMETRIA I Corso di Geometria I (seconda parte)

GEOMETRIA I Corso di Geometria I (seconda parte) Corso di Geometria I (seconda parte) anno acc. 2009/2010 Cambiamento del sistema di riferimento in E 3 Consideriamo in E 3 due sistemi di riferimento ortonormali R e R, ed un punto P (x, y, z) in R. Lo

Dettagli

Esercizi svolti. 1. Si consideri la funzione f(x) = 4 x 2. a) Verificare che la funzione F(x) = x 2 4 x2 + 2 arcsin x è una primitiva di

Esercizi svolti. 1. Si consideri la funzione f(x) = 4 x 2. a) Verificare che la funzione F(x) = x 2 4 x2 + 2 arcsin x è una primitiva di Esercizi svolti. Si consideri la funzione f() 4. a) Verificare che la funzione F() 4 + arcsin è una primitiva di f() sull intervallo (, ). b) Verificare che la funzione G() 4 + arcsin π è la primitiva

Dettagli

Geometria nel piano complesso

Geometria nel piano complesso Geometria nel piano complesso Giorgio Ottaviani Contents Un introduzione formale del piano complesso 2 Il teorema di Napoleone 5 L inversione circolare 6 4 Le trasformazioni di Möbius 7 5 Il birapporto

Dettagli

Ricerca Operativa Dualità e programmazione lineare

Ricerca Operativa Dualità e programmazione lineare Ricerca Operativa Dualità e programmazione lineare L. De Giovanni AVVERTENZA: le note presentate di seguito non hanno alcuna pretesa di completezza, né hanno lo scopo di sostituirsi alle spiegazioni del

Dettagli

Fondamenti di Automatica

Fondamenti di Automatica Fondamenti di Automatica Analisi dei sistemi dinamici Dott. Ing. Marcello Bonfè Dipartimento di Ingegneria - Università di Ferrara Tel. +39 0532 974839 E-mail: marcello.bonfe@unife.it pag. 1 Analisi dei

Dettagli

ESAME DI STATO DI LICEO SCIENTIFICO CORSO SPERIMENTALE P.N.I. 2002 Sessione suppletiva

ESAME DI STATO DI LICEO SCIENTIFICO CORSO SPERIMENTALE P.N.I. 2002 Sessione suppletiva ESAME DI STATO DI LICEO SCIENTIFICO CORSO SPERIMENTALE P.N.I. Sessione suppletiva Il candidato risolva uno dei due problemi e dei quesiti in cui si articola il questionario. PROBLEMA Nel piano riferito

Dettagli

Esercizi su lineare indipendenza e generatori

Esercizi su lineare indipendenza e generatori Esercizi su lineare indipendenza e generatori Per tutto il seguito, se non specificato esplicitamente K indicherà un campo e V uno spazio vettoriale su K Cose da ricordare Definizione Dei vettori v,,v

Dettagli

ESTRAZIONE DI DATI 3D DA IMMAGINI DIGITALI. (Visione 3D)

ESTRAZIONE DI DATI 3D DA IMMAGINI DIGITALI. (Visione 3D) ESTRAZIONE DI DATI 3D DA IMMAGINI DIGITALI () Una immagine (digitale) permette di percepire solo una rappresentazione 2D del mondo La visione 3D si pone lo scopo di percepire il mondo per come è in 3 dimensioni

Dettagli

1.1. Spazi metrici completi

1.1. Spazi metrici completi SPAZI METRICI: COMPLETEZZA E COMPATTEZZA Note informali dalle lezioni 1.1. Spazi metrici completi La nozione di convergenza di successioni è centrale nello studio degli spazi metrici. In particolare è

Dettagli

Laboratorio Complementi di Ricerca Operativa DEI, Politecnico di Milano. Stima di parametri

Laboratorio Complementi di Ricerca Operativa DEI, Politecnico di Milano. Stima di parametri Stima di parametri Il gestore di un sito turistico dove si pratica il bungee-jumping deve fornire alla sovrintendenza municipale un documento che riguarda la sicurezza del servizio fornito. Il documento

Dettagli

4. Operazioni elementari per righe e colonne

4. Operazioni elementari per righe e colonne 4. Operazioni elementari per righe e colonne Sia K un campo, e sia A una matrice m n a elementi in K. Una operazione elementare per righe sulla matrice A è una operazione di uno dei seguenti tre tipi:

Dettagli

Svolgimento di alcuni esercizi del libro Matematica di Angelo Guerraggio

Svolgimento di alcuni esercizi del libro Matematica di Angelo Guerraggio Svolgimento di alcuni esercizi del libro Matematica di Angelo Guerraggio. Funzioni e insiemi numerici.4 Verificare che (A B) (A B) = (A A ) B. ) Sia (a, b) (A B) (A B). Allora a (A A ) e b B, da cui (a,

Dettagli

Alcune note sulle serie di potenze 1

Alcune note sulle serie di potenze 1 Alcune note sulle serie di potenze Contents G. Falqui Preliminari 2 Serie di potenze 3 3 Rappresentazione di funzioni mediante serie di potenze 7 3. Esempi notevoli........................... 9 3.2 Formula

Dettagli

Corso PAS Anno 2014. ESEMPIO. Per n = 3, Z 3 contiene 3 elementi:

Corso PAS Anno 2014. ESEMPIO. Per n = 3, Z 3 contiene 3 elementi: Corso PAS Anno 2014 Matematica e didattica 3 Correzione esercizi 1. Definizione. Sia n un fissato intero maggiore di 1. Dati due interi a, b si dice che a è congruo a b modulo n, e si scrive a b (mod n),

Dettagli

ESERCIZI CINEMATICA IN UNA DIMENSIONE

ESERCIZI CINEMATICA IN UNA DIMENSIONE ESERCIZI CINEMATICA IN UNA DIMENSIONE ES. 1 - Due treni partono da due stazioni distanti 20 km dirigendosi uno verso l altro rispettivamente alla velocità costante di v! = 50,00 km/h e v 2 = 100,00 km

Dettagli

Giochi ed equilibri di Nash. Marco Sciandrone Dipartimento di Ingegneria dell Informazione Università di Firenze E-mail: marco.sciandrone@unifi.

Giochi ed equilibri di Nash. Marco Sciandrone Dipartimento di Ingegneria dell Informazione Università di Firenze E-mail: marco.sciandrone@unifi. Giochi ed equilibri di Nash Marco Sciandrone Dipartimento di Ingegneria dell Informazione Università di Firenze E-mail: marco.sciandrone@unifi.it 1 1 Notazione e definizione di equilibrio di Nash Si supponga

Dettagli

Esempi di funzione. Scheda Tre

Esempi di funzione. Scheda Tre Scheda Tre Funzioni Consideriamo una legge f che associa ad un elemento di un insieme X al più un elemento di un insieme Y; diciamo che f è una funzione, X è l insieme di partenza e X l insieme di arrivo.

Dettagli

Lezioni del corso di Geometria e Algebra. prof. Michele Mulazzani dott. Alessia Cattabriga

Lezioni del corso di Geometria e Algebra. prof. Michele Mulazzani dott. Alessia Cattabriga Lezioni del corso di Geometria e Algebra prof Michele Mulazzani dott Alessia Cattabriga AA 20001/2002 Indice 1 Equazioni e sistemi lineari 4 11 Alcune strutture algebriche 4 12 Operazioni standard su K

Dettagli

LE FIBRE DI UNA APPLICAZIONE LINEARE

LE FIBRE DI UNA APPLICAZIONE LINEARE LE FIBRE DI UNA APPLICAZIONE LINEARE Sia f:a B una funzione tra due insiemi. Se y appartiene all immagine di f si chiama fibra di f sopra y l insieme f -1 y) ossia l insieme di tutte le controimmagini

Dettagli

Sono definite in sottoinsiemi di R n (n N), a valori in R Ci si limiterà al caso di R 2 o di R 3

Sono definite in sottoinsiemi di R n (n N), a valori in R Ci si limiterà al caso di R 2 o di R 3 1 FUNZIONI DI PIÙ VARIABILI 1 1 Funzioni di più variabili Sono definite in sottoinsiemi di R n (n N), a valori in R Ci si limiterà al caso di R 2 o di R 3 Definizione 1.1 Dati D R 2 e f : D R, l insieme

Dettagli

Equazioni non lineari

Equazioni non lineari Dipartimento di Matematica tel. 011 0907503 stefano.berrone@polito.it http://calvino.polito.it/~sberrone Laboratorio di modellazione e progettazione materiali Trovare il valore x R tale che f (x) = 0,

Dettagli

Appunti di Statistica Descrittiva

Appunti di Statistica Descrittiva Appunti di Statistica Descrittiva 30 dicembre 009 1 La tabella a doppia entrata Per studiare dei fenomeni con caratteristiche statistiche si utilizza l espediente della tabella a doppia entrata Per esempio

Dettagli

ALCUNE APPLICAZIONI DEL CALCOLO DIFFERENZIALE

ALCUNE APPLICAZIONI DEL CALCOLO DIFFERENZIALE ALCUNE APPLICAZIONI DEL CALCOLO DIFFERENZIALE Sia I un intervallo di R e siano a = inf(i) R { } e b = sup(i) R {+ }; i punti di I diversi dagli estremi a e b, ( e quindi appartenenti all intervallo aperto

Dettagli

Ottimizazione vincolata

Ottimizazione vincolata Ottimizazione vincolata Ricordiamo alcuni risultati provati nella scheda sulla Teoria di Dini per una funzione F : R N+M R M di classe C 1 con (x 0, y 0 ) F 1 (a), a = (a 1,, a M ), punto in cui vale l

Dettagli

Ricerca Operativa Esercizi sul metodo del simplesso. Luigi De Giovanni, Laura Brentegani

Ricerca Operativa Esercizi sul metodo del simplesso. Luigi De Giovanni, Laura Brentegani Ricerca Operativa Esercizi sul metodo del simplesso Luigi De Giovanni, Laura Brentegani 1 1) Risolvere il seguente problema di programmazione lineare. ma + + 3 s.t. 2 + + 2 + 2 + 3 5 2 + 2 + 6,, 0 Soluzione.

Dettagli

PROPRIETÀ DEI CIRCUITI DI RESISTORI

PROPRIETÀ DEI CIRCUITI DI RESISTORI CAPITOLO 5 PROPRIETÀ DEI CIRCUITI DI RESISTORI Nel presente Capitolo, verrà introdotto il concetto di equivalenza tra bipoli statici e verranno enunciati e dimostrati alcuni teoremi (proprietà) generali

Dettagli

Equazioni alle differenze finite (cenni).

Equazioni alle differenze finite (cenni). AL 011. Equazioni alle differenze finite (cenni). Sia a n } n IN una successione di numeri reali. (Qui usiamo la convenzione IN = 0, 1,,...}). Diremo che è una successione ricorsiva o definita per ricorrenza

Dettagli