Ripasso di Calcolo Scientifico: Giulio Del Corso
|
|
|
- Maurizio Sartori
- 9 anni fa
- Visualizzazioni
Transcript
1 Ripasso di Calcolo Scientifico: Giulio Del Corso Queste dispense sono tratte dalle lezioni del Prof. Gemignani e del Prof. Bini del corso di Calcolo Scientifico (2014/2015) dell università di Pisa. Non contengono le dimostrazioni dei teoremi svolti ma gli algoritmi e i risultati ottenuti. In quanto semplici rielaborazioni potrebbero contenere errori, in tal caso se voleste segnalarmeli all indirizzo [email protected] ve ne sarei grato. Queste dispense possono essere usate/stampate liberamente purché non venga eliminato il nome dell autore. Ringrazio infine per l aiuto nel compilarli Giulia Bernardini Giulio Del Corso 1
2 Indice: 5 Capitolo 1: Studio degli errori 8 Capitolo 2: Algebra lineare numerica 8 Teoremi di Gershgorin e riducibilità 9 Forma di Schur 10 Capitolo 3: Norme vettoriali e di matrici 10 Norma vettoriale 11 Norma matriciale e raggio spettrale 12 Capitolo 4: Zeri di funzione e problemi di punto fisso 12 Problemi di punto fisso 13 Tipi di convergenza 14 Metodi di bisezione e di Newton 15 Capitolo 5: Trasformata discreta di Fourier 15 Radici n-esime dell unità, DFT, IDFT 16 Algoritmi FFT (Cooley Turkey) 17 Applicazioni DFT 18 Capitolo 6: Interpolazione 19 Interpolazione polinomiale 20 Interpolazione di Lagrange 21 Capitolo 7: Sistemi lineari 22 Numero di condizionamento e perturbazioni 23 Metodi diretti per sistemi lineari 24 Matrici elementari 25 Fattorizzazione (Eliminazione Gaussiana) 28 Fattorizzazione QR 30 Metodi iterativi per sistemi lineari 33 Metodo di Jacobi 34 Metodo di Gauss Seidel 35 Teoremi di convergenza 36 Capitolo 8: Metodi di rilassamento e del gradiente 38 Metodo del gradiente ottimo 39 Metodo del gradiente coniugato 40 Precondizionamento 41 SOR (Rilassamento) Giulio Del Corso 2
3 43 Capitolo 9: Problema lineare dei minimi quadrati 44 Fattorizzazione QR 45 Sistema di equazioni normali 46 SVD, decomposizione a valori singolari 48 Pseudo inversa di Penrose 49 Metodi di calcolo 50 TSVD 51 Capitolo 10: Matrici strutturate di Hessenberg ed Hermitiane 52 Matrici di Hessenberg 54 Matrici Hermitiane tridiagonali 55 Metodo di Lanczos 57 Metodo di Krylov 58 Capitolo 11: Polinomio caratteristico e autovalori 60 Caso particolare: Matrici Hermitiane tridiagonali 61 Equazione secolare 62 Capitolo 12: Metodi numerici per il calcolo di autovalori e autovettori 63 Metodo di Sturm 64 Metodo di bisezione di Sturm 65 Metodo QR 68 Metodo divide et impera (Cuppen) 71 Metodo delle potenze 71 Matrici di Toeplitz Giulio Del Corso 3
4 Giulio Del Corso 4
5 Capitolo 1: Studio degli errori Idea: Studiare gli errori degli algoritmi e di approssimazione per determinare quando è preferibile la scelta di un metodo rispetto ad un altro. Rappresentazione in aritmetica Floating Point: Ogni numero reale lo rappresentiamo mediante la scrittura: Dove sono le cifre, è l esponente, è la mantissa. è il numero di cifre e dipende dalla precisione da noi scelta, allo stesso modo l esponente fra dei valori fissati varia Problemi: Se cerchiamo di rappresentare un valore con esponente maggiore di si parla di Overflow. Se cerchiamo di rappresentare un valore con esponente minore di si parla di Underflow. L errore relativo è maggiorato da detta Precisione di macchina. Giulio Del Corso 5
6 Tipi di errore: Errore di rappresentazione (Errore relativo): Errore dato dalla rappresentazione di un numero reale in aritmetica Floating Point. Equivalente: Errore inerente: È l errore intrinseco al problema, se stiamo ricercando il valore di una funzione calcolare il valore di con la scrittura di in Floating Point. dobbiamo limitarci a Sfruttando lo sviluppo di Taylor possiamo scrivere è detto Coefficiente di amplificazione, è l errore di approssimazione. Osservazione (Funzioni a più variabili): Prodotto e divisione hanno coefficiente di amplificazione 1. Errore algoritmico: È l errore dato dall approssimare la funzione f che stiamo calcolando con un numero finito di passaggi con la sua versione approssimata (Sarà funzione degli errori di ogni passaggio). Come si calcola: Si scrivono i vari passaggi dell algoritmo e si calcola di ciascun passaggio la propagazione dell errore. Si segna dunque il coefficiente di amplificazione dato dalla formula precedente e si moltiplica per l errore del passo precedente. Si somma infine un errore di rappresentazione. In conclusione si studia l errore algoritmico totale provando a maggiorarlo con la precisione di macchina. L errore inerente infatti non dipende dall algoritmo e dunque quello con maggiorazione minore sarà migliore. Giulio Del Corso 6
7 Tabella utile: Operazione: Coefficiente di amplificazione rispetto al primo termine: Problemi ben condizionati e algoritmi stabili: Un algoritmo è numericamente stabile se l errore algoritmico generato è piccolo. Un problema è ben condizionato se non risente di piccole perturbazioni, ossia se il coefficiente di amplificazione è piccolo. Errore analitico: È l errore dato dall approssimare una funzione non razionale con una funzione razionale calcolabile in un numero finito di passi. Errore totale: Osservazione pratica: Se la funzione da calcolare non è razionale: Giulio Del Corso 7
8 Capitolo 2: Algebra lineare numerica Idea: Avere dei metodi per determinare in maniera rapida se una matrice è invertibile. Studiare in maniera approssimata gli autovalori così da ottenere maggiorazioni per alcuni numeri di condizionamento. Definizione (Cerchio di Gershgorin): Data l -esimo cerchio di Gershgorin è definito come: Primo teorema di Gershgorin: Gli autovalori di sono contenuti in Secondo teorema di Gershgorin: Sia una matrice tale che unione di cerchi di Gershgorin con. Allora contiene tanti autovalori quanti sono i cerchi che lo costituiscono. Terzo teorema di Gershgorin: Sia una matrice irriducibile e sia un suo autovalore per cui vale la proprietà: Allora appartiene a tutti i (E quindi alle loro frontiere). Definizione (Permutazione): Una matrice è di permutazione se e permutazione. Si dice di permutazione perché data matrice qualsiasi è la matrice con le righe permutate. Vale Definizione (Riducibile): Una matrice si dice riducibile se esiste una matrice di permutazione tale che: Definizione (Grafo fortemente connesso): Un grafo orientato si dice fortemente connesso se per ogni coppia di indici con esiste un cammino orientato che parte dal nodo e arriva al nodo. Teorema: Una matrice è riducibile se e solo se il grafo orientato associato non è fortemente connesso. Giulio Del Corso 8
9 Forma canonica di Schur: Sia, allora esiste una matrice unitaria e una matrice triangolare superiore tale che: Definizione (Matrice normale): si dice normale se Teorema: Una matrice è normale se e solo se esistono unitaria e diagonale tali che: Giulio Del Corso 9
10 Capitolo 3: Norme vettoriali e matriciali Idea: Definizione delle norme vettoriali e matriciali. Definizione di raggio spettrale e studio del condizionamento per stima mediante norma. Definizione (Norma vettoriale): Una norma vettoriale è un applicazione tale che: Esempi: (Norma euclidea) (Norma di Frobenius), Teorema (Norma uniformemente continua): La funzione è uniformemente continua. Teorema (Equivalenza fra norme vettoriali): Per ogni coppia di norme vettoriali su esistono tali che: Esempi utili: Giulio Del Corso 10
11 Definizione (Norma matriciale): Una norma matriciale è un applicazione tale che: (Submoltiplicatività) Esempio non indotta: Norma di Frobenius: è invariante per trasformazioni unitarie. Norma indotta dalla norma vettoriale: Data un norma vettoriale la norma matriciale indotta è: Le norme indotte misurano quanto Esempi: amplifica i vettori di norma unitaria. (Massima colonna) (Massima riga) Proprietà: Se è Hermitiana Se la norma è indotta Se è invertibile Definizione (Raggio spettrale): è il massimo modulo degli autovalori della matrice. È una norma matriciale per le matrici Hermitiane. indotta vale Teorema: Per ogni una norma matriciale indotta tale che: Il raggio spettrale è dunque il limite inferiore di tutte le norme matriciali indotte. Teorema fondamentale: e per ogni norma matriciale vale: Giulio Del Corso 11
12 Capitolo 4: Zeri di funzioni e problemi di punto fisso Idea: Per funzioni semplici vogliamo individuare gli (Ossia gli ) riconducendoci allo studio di problemi di punto fisso ( ). Metodo: Data Vale funzione di cui cerchiamo gli 0 possiamo studiare: con scelta a seconda del contesto. La successione che vogliamo converga al risultato è costruita nel seguente modo: Costruzione grafica: Si rappresenta su, i punti fissi corrispondono alle intersezioni di con la bisettrice. Dato un punto il modo di determinare il successivo è tracciare la retta verticale fino ad individuare l intersezione con, proiettare il punto orizzontalmente sulla retta e usare questo punto per applicare nuovamente il metodo. Condizione sufficiente di convergenza: Sia punto fisso per con e tale che ; sia inoltre. Allora e Teorema di unicità del punto fisso: Se e su. Allora esiste al più un punto fisso per in Teorema dell errore : Sia un punto fisso per la funzione e (Intervallo di incertezza) con maggiorazione dell errore -esimo. Se e allora: Giulio Del Corso 12
13 Tipi di convergenza: La convergenza si stima definendo: Oppure per funzioni derivabili osservando la derivata del punto di equilibrio. Attenzione: È una stima del limite quindi non c è alcuna garanzia che un metodo con convergenza lineare sia più lento di uno con convergenza superlineare su un numero basso di iterazioni, Convergenza geometrica o lineare: Convergenza Sublineare: Convergenza Superlineare: Ordine di convergenza superlineare: Definendo si dice che la convergenza è di ordine se il limite esiste e appartiene a In realtà il calcolo di può essere evitato sfruttando il seguente teorema. Teorema di convergenza superlineare: Sia e allora esiste un intervallo allora l successione converge ad in modo superlineare con ordine. Viceversa: Sia ed esista un che converge in modo superlineare con ordine a, allora e Attenzione: Questo metodo funziona per valori interi di, quando così non è bisogna controllare a mano il limite per individuare l ordine di convergenza. Giulio Del Corso 13
14 Calcolo degli 0: Metodo di bisezione: Dato un intervallo applicando il teorema degli 0 si calcola e si valuta. A seconda del segno si itera su o su Metodo di Newton: Idea: Dato un punto iniziale vicino ad punti fisso si sceglie come l intersezione della tangente con l asse delle ascisse. Formula: Teorema convergenza metodo di Newton: Se e per un opportuno ; se allora esiste un intorno tale che la successione converge ad in maniera superlineare con ordine almeno 2. L ordine è esattamente 2 se Nel metodo di Newton più derivate di problema mal condizionato. si annullano più il punto sarà orizzontale e dunque il Condizioni di interruzione dell iterazione: Condizioni sul passo: Condizioni sul valore: Problema degli 0 piatti : Se le derivate successive di si annullano nello 0, ossia: Definiamo imponendo. La convergenza è allora del tipo Giulio Del Corso 14
15 Capitolo 5: Trasformata discreta di Fourier (DFT) Idea: Definiremo le radici -esime dell unità e interpoleremo sfruttandone le proprietà. In pratica useremo come nodi (Radici -esime primitive), la matrice di Van der Monde associata sarà Definizione (Radice -esima dell unità): Proposizione: Data una radice dell unità allora vale: Proposizione: Sia matrice di Van der Monde tale che, allora: Corollario: è unitaria e ha numero di condizionamento 1. Definizione (Trasformata discreta di Fourier (DFT)): Definizione (Trasformata discreta inversa di Fourier (IDFT)): Calcolare la DFT corrisponde a calcolare i coefficienti del polinomio interpolante. Calcolare la IDFT corrisponde a valutare il polinomio interpolante. Giulio Del Corso 15
16 Algoritmi (FFT): Algoritmo di Cooley Turkey (IDFT): Vogliamo determinare gli dati i punti, per semplicità supponiamo Il procedimento prevede di spostare il calcolo della IDFT allo studio di due di dimensione minore (Dimezzata): Dunque scrivendo per le seconde componenti vale: Ma quindi abbiamo già calcolato questi valori mentre bisogna considerare le sottrazioni. Costo computazionale: Applicando questo procedimento vale la formula ricorsiva: Quindi: Giulio Del Corso 16
17 Applicazioni trasformate di Fourier: Oltre a determinare i coefficienti di un polinomio interpolante la DFT può essere usata anche per: Moltiplicazione di polinomi: Dati: Supponendo possiamo calcolare i coefficienti di mediante la moltiplicazione matrice vettore: Di base questo ha un costo di Applicazione (IDFT e DFT): Sia, consideriamo la IDFT per valutare i polinomi sulle radici -esime dell unità, ossia: con costo Si ricavano: Infine si applica la DFT a Costo totale: con costo con costo Interpolazione trigonometrica: Un interpolazione trigonometrica è data da un polinomio della forma: Per individuare i coefficienti dati i nodi Applicazione DFT: Se calcoliamo con gli algoritmi noti allora: Esiste un unico polinomio trigonometrico con che risolve il problema di interpolazione. Giulio Del Corso 17
18 Capitolo 6: Interpolazione Idea: Data una funzione definita su di un intervallo, noti punti del grafico detti nodi e un insieme di funzioni definite su e linearmente indipendenti, interpolare significa individuare la funzione: Tale che La scelta di funzioni facili permette di lavorare con oggetti più maneggevoli. La soluzione se esiste dipende dalla scelta della base. A seconda di questa scelta di funzioni interpolanti si parla di: Interpolazione razionale (Funzioni razionali) Interpolazione polinomiale (Polinomi) Interpolazione trigonometrica (Seni e coseni) Giulio Del Corso 18
19 Interpolazione polinomiale: La scelta di una base per l interpolazione polinomiale è risulta essere una matrice di Van der Monde. e la matrice associata al problema Matrici di Van der Monde: Sia allora Il numero di condizionamento di una matrice di Van der Monde cresce esponenzialmente con. Se gli vengono scelti in alcuni modi si può abbassare il numero di condizionamento (Ad esempio se scegliamo le radici -esime dell unità come nella DFT). Costo computazionale: Per risolvere un sistema di interpolazione abbiamo il costo usuale di. Vista la struttura di queste matrici esistono due algoritmi di costo rispettivamente: con problemi di instabilità Il prodotto matrice vettore ha un costo di oppure con problemi di instabilità. Resto dell interpolazione: Definito il resto dell interpolazione come vale il seguente teorema. Teorema del resto: Data allora preso esiste tale che: Nel caso dell interpolazione polinomiale questa maggiorazione è poco stringente. Osservazione (DFT): Come visto prima individuare la DFT è equivalente a calcolare i coefficienti del polinomio interpolante, la strategia è dunque ricondurci al caso particolare del capitolo precedente e applicare gli algoritmi visti. Giulio Del Corso 19
20 Interpolazione polinomiale di Lagrange: Idea: Risolvere i problemi di mal condizionamento delle matrici di Van der Monde. Consideriamo la famiglia di polinomi: La famiglia sopra scritta è una base (Detta base di Lagrange) per i polinomi fino al grado -esimo. Polinomio di interpolazione: Siccome in questa base la matrice di Van der Monde diventa l identità allora il polinomio interpolante è semplicemente: Valutazione del polinomio interpolante in un punto : Osservazione costo computazionale: La produttoria al denominatore costa ma può essere calcolata una volta sola. Una volta fatto il calcolo di ha costo lineare in. Giulio Del Corso 20
21 Capitolo 7: Sistemi lineari Idea: Studiare un sistema lineare significa risolvere il problema: con Un sistema è detto consistente se ammette almeno una soluzione non nulla. In questo caso potremmo calcolare e risolverlo imponendo ma come sistema non è ottimale. Metodi diretti e iterativi: I metodi diretti fattorizzano così da rendere semplice il calcolo. I metodi iterativi individuano una successione di vettori convergenti alla soluzione del sistema. Giulio Del Corso 21
22 Condizionamento (Numero di condizionamento): Quando si parla di condizionamento intendiamo studiare come vari la soluzione in funzione di perturbazione dei dati iniziali. Perturbazione del vettore dei termini noti: Al posto di consideriamo. Il problema diventa: e vogliamo studiare Al posto di un analisi dell errore usiamo le norme per stimare l errore relativo. Definizione (Numero di condizionamento): Definiamo il numero di condizionamento della matrice individuato: come il coefficiente di amplificazione Se stiamo applicando più cambi di basi Quindi dobbiamo cercare di effettuare dei cambi di base unitari. Perturbazione della matrice : In questo caso generale stiamo studiando il sistema: Se la perturbazione è piccola rispetto alla matrice precedente. In generale vale: ci si riconduce al caso Casi noti (In norma 2): Matrice unitaria: Matrice Hermitiana: Giulio Del Corso 22
23 Metodi diretti per sistemi lineari: Idea: Ricondurci ad un caso nel quale è semplice risolvere il problema, ad esempio matrici triangolari o unitarie. Se stiamo cercando di individuare la soluzione del sistema e possiamo scrivere il problema come: Osservazione tridiagonali: Se ci troviamo nel caso in cui dobbiamo risolvere metodo di sostituzione all indietro la soluzione è: con A triangolare superiore allora mediante il Se triangolare inferiore la sostituzione in avanti è invece: Il costo è di e i metodi sono stabili all indietro. Osservazioni unitarie: Se abbiamo con unitaria allora semplicemente: Il costo è di e il metodo è stabile all indietro. Giulio Del Corso 23
24 Matrici elementari: Una matrice si dice elementare se è della forma con Possono essere sfruttare per determinare delle decomposizioni in forma facile di matrici non particolari. Osservazione rango: Osservazione autovalori: Gli autovalori di una matrice elementare sono: con molteplicità Inoltre è invertibile Osservazione inversa: L inversa di una matrice elementare è elementare. Se allora con Il costo per calcolare l inversa è lineare Proprietà vettori: Dati non nulli allora esiste una matrice elementare non singolare tale che: Conseguenza: Possiamo ogni volta applicare l osservazione precedente per assegnare il -esimo elemento della matrice in un vettore a nostra scelta. Dunque con triangolare superiore fino alla riga -esima. Householder e Gauss: Se scegliamo le matrici elementari unitarie (Householder) otteniamo una fattorizzazione. Se scegliamo le matrici elementari triangolari inferiori (Gauss) otteniamo una fattorizzazione. Giulio Del Corso 24
25 Fattorizzazione : Idea: con triangolare inferiore con diagonale uguale ad e triangolare superiore. Si può fattorizzare in questo modo una matrice complessa se e solo se tutte le sottomatrici principali di testa sono invertibili. L algoritmo utilizzato per il calcolo della fattorizzazione è l eliminazione gaussiana. Senza applicar strategie di pivoting il metodo è instabile dal punto di vista numerico. Teorema di esistenza e unicità: ammette un unica fattorizzazione LU se e solo se tutte le sottomatrici principali di testa di dimensione minore uguale ad sono invertibili. Matrici di Gauss: Matrici elementari tali che. Si sfrutta il fatto che Giulio Del Corso 25
26 Metodo diretto per calcolare i coefficienti: Data la matrice: Determinare la matrice elementare di Gauss: è la matrice identità con la colonna sostituita dal vettore: con con coefficienti della matrice Ricaviamo dunque: Una volta ottenuta allora: Osservazione inversa: essendo elementare si ottiene cambiando di segno gli elementi non sulla diagonale Il prodotto di tutte queste si ottiene semplicemente come la matrice valori calcolati subito prima. con nelle sottodiagonali i Giulio Del Corso 26
27 Costo dell eliminazione gaussiana: Individuare la matrice di Gauss necessita di operazioni Il calcolo della matrice costa invece. Dunque: Casi particolari: Per le matrici a banda il costo è di Per le matrici di Hessenberg il costo è di Memoria occupata: La memoria occupata si riduce ad va a sovrascrivere i valori di ricavati delle matrici di Gauss. se usiamo il seguente accorgimento: e negli spazi vuoti al di sotto della diagonale scriviamo i valori Instabilità: Stando dividendo per non abbiamo garanzie che il metodo sia stabile. Pivoting ( ): L idea è che quando l algoritmo incontro uno 0 in uno dei posti permutazione così da eliminarlo e poter proseguire con l algoritmo. A meno di permutazioni esiste sempre una fattorizzazione. va ad applicare una matrice di Strategia del massimo pivot parziale: Permutiamo in modo da portare nella posizione colonna. Strategia del massimo pivot totale: Permutiamo in modo da portare nella posizione sottomatrice di coda. l elemento di modulo massimo lungo la l elemento di modulo massimo dell intera Giulio Del Corso 27
28 Fattorizzazione : Idea: con unitaria e triangolare superiore. A differenza della fattorizzazione LU esiste sempre una fattorizzazione della matrice ma non è unica. Il costo computazionale è doppio ma questo metodo è stabile all indietro. Teorema di esistenza: Data una matrice esiste sempre la fattorizzazione ma questa non è unica. A meno di trasformazioni unitarie diagonali diventa unica. Matrici di Householder: Sono matrici elementari della forma: Giulio Del Corso 28
29 Metodo diretto per calcolare i coefficienti: Data la matrice come prima, allora la matrice elementare di Householder è: Ottenibile come: E la matrice successiva invece: Costo computazionale: L algoritmo sopra descritto ha un costo di Questo algoritmo dunque ha un costo doppio rispetto a quello della fattorizzazione. Stabilità : La fattorizzazione è stabile per analisi all indietro dell errore. Giulio Del Corso 29
30 Metodi iterativi per sistemi lineari: Idea: Un metodo iterativo diventa efficace se sappiamo calcolare a costo basso il prodotto matrice vettore, ad esempio quando è una matrice sparsa. Metodo: Dato il sistema si scrive con facilmente invertibile. Allora vale: Il problema diventa quindi la ricerca di un punto fisso per la funzione prima descritta. è detta matrice di iterazione, Se la matrice di iterazione ha raggio spettrale nullo il metodo diviene diretto e la successione coinciderà definitivamente con la soluzione. La successione da studiare è: Convergenza: Definizione (Successione di vettori convergenti): Una successione di vettori converge ad un vettore se esiste una norma vettoriale per cui: Non dipende dalla scelta della norma ma di solito lavoriamo in norma 2. Definizione (Metodo iterativo convergente): Un metodo iterativo si dice convergente se vale soluzione del sistema. Definizione (Errore al passo ): Giulio Del Corso 30
31 Condizione sufficiente di convergenza: Se esiste una norma matriciale indotta tale che allora la successione converge. Controllare come prima cosa la norma e la norma. Condizione necessaria e sufficiente di convergenza: Confronto fra matrici di iterazione: Per confrontare due metodi iterativi non possiamo valutare le norme delle matrici poiché il risultato dipenderebbe dalla scelta della norma. Possiamo maggiorare l errore al passo -esimo con il raggio spettrale. Dunque: Se confrontiamo però il raggio spettrale possiamo determinare quale metodo converge più rapidamente. Attenzione: È una maggiorazione relativa al caso peggiore, se sappiamo escludere gli autospazi con modulo degli autovalori maggiori il risultato potrebbe cambiare. Osservazione matrici singolari: Se è singolare il metodo non converge (Almeno lungo gli autospazi relativi a ) Giulio Del Corso 31
32 Condizioni di arresto: Valutazione del residuo: Con il residuo. L errore relativo si maggiora con: Valutazione del passo: Dalla relazione: Passiamo alle norme e alla valutazione dell errore sfruttando la maggiorazione: Dunque: Se è vicino a 0 converge rapidamente, al contrario se è vicino ad 1 allora la convergenza è lenta. Giulio Del Corso 32
33 Metodo di Jacobi: con: diagonale non nulla triangolare inferiore triangolare superiore Scelta di : Iterazione: Iterazione componente a componente: Osservazioni: Il costo è dato prevalentemente dal prodotto Dobbiamo mantenere in memoria due vettori. Metodo implementabile in parallelo componente a componente. Giulio Del Corso 33
34 Metodo di Gauss Seidel: con: diagonale non nulla triangolare inferiore triangolare superiore Scelta di : Iterazione: Iterazione componente a componente: Osservazioni: Questo metodo è in media più veloce ma non è implementabile in parallelo. Dobbiamo mantenere in memoria un solo vettore. Giulio Del Corso 34
35 Teoremi di convergenza: Ricordando che se il raggio spettrale della matrice è minore di 1 i metodi convergono valgono i seguenti risultati. Teorema di dominanza: Se soddisfa una delle seguenti condizioni allora : è fortemente dominante diagonale. è dominante diagonale e irriducibile. è fortemente dominante diagonale. è dominante diagonale e irriducibile. Teorema delle tridiagonali: Se è tridiagonale con elementi sulla diagonale diversi da 0 allora Teorema di Stein Rosenberg: Se è tale che e allora si verifica uno e uno solo dei seguenti risultati: (Se Jacobi converge allora Gauss Seidel converge più velocemente) Giulio Del Corso 35
36 Capitolo 8: Metodi di rilassamento (SOR) e del gradiente Idea: Per risolvere i sistemi lineari conosciamo già i metodi diretti e i metodi iterativi di Jacobi e Gauss Seidel Per casi troppo grandi o lenti nella convergenza dei metodi classici introduciamo questi nuovi algoritmi. I metodi del gradiente sfruttano proprietà della matrice delle derivate successive per determinare una direzione di decrescita. Il metodo del rilassamento (SOR) è invece una variazione del metodo di Gauss Seidel. Giulio Del Corso 36
37 Metodo del gradiente: Data definita positiva e il sistema lineare che vogliamo studiare: Se il costo del prodotto matrice vettore è basso possiamo usare un metodo iterativo. Considerando: Il suo gradiente vale: risolve il sistema lineare. (E Riduciamo il problema alla ricerca dei punti stazionari di Punti di minimo: La matrice delle derivate seconde di è (definita positiva) nei punti stazionari, dunque questi sono dei punti di minimo. Procedimento: Scegliamo arbitrario. Si determina la direzione del minimo. Si pone con vettore di decrescita e uno scalare opportuno. La determinazione della direzione del minimo può essere diversa e origina diversi metodi. Giulio Del Corso 37
38 Metodo del gradiente ottimo: Scegliamo la direzione di decrescita come l opposto della direzione di massima crescita indicata dal gradiente: Con con Motivazione: Per la scelta di valutiamo lungo la retta determinata da. Cerchiamone il minimo osservando che è convessa (Quindi basta trovare il punto stazionario): Da cui con Proprietà: Convergente per ogni scelta di. arresto.. è indice di quanto siamo lontani dalla soluzione, ci fornisce quindi una condizione di Osservazione computazionale: Potremmo evitarci il calcolo di Attenzione: Riduce il costo ma standolo ricavando iterativamente amplifica l errore proprio nel termine che usiamo per decidere quanto interrompere l iterazione. Giulio Del Corso 38
39 Metodo del gradiente coniugato: Questo metodo in realtà se consideriamo iterazioni diventa diretto. Definizione -coniugati: Data una matrice definita positiva e simmetrica ed una -upla di vettori di si dicono -coniugati se: Se è invertibile allora questi vettori sono indipendenti. Quindi non possiamo fare più di iterazioni mantenendo questo tipo di vettori. Costruzione dei vettori -coniugati: Per costruire una successione di vettori che siano -coniugati poniamo: Con Costruzione della successione : Invece gli vengono definiti con la stessa regola del gradiente imponendo come velocità di decrescita proprio (Mentre viene individuato come prima). Teorema convergenza: Siano una succssione di vettori costruiti con la regola di prima e con, allora vale: Quindi è il minimo assoluto. Motivazione metodo iterativo: Sebbene il teorema precedente affermi che in realtà il metodo sia diretto possiamo voler eseguire un numero più basso di iterazioni considerandolo iterativo. Teorema errore: Per ogni scelta iniziale vale: Quindi se la matrice è ben condizionata il metodo converge molto velocemente. Giulio Del Corso 39
40 Precondizionamento: Idea: Per il teorema sull errore una matrice ben condizionata converge rapidamente. Nel caso di una matrice mal condizionata possiamo dunque portarci al caso di una ben condizionata così da incrementare la velocità di convergenza. Attenzione: Partendo da una matrice mal condizionata non abbiamo garanzie sulla precisione del risultato. Metodo: Dato il sistema consideriamo: Inoltre vale la relazione di similitudine Studiamo come far variare. Osservazione inversa: migliore sarebbe, se lo conoscessimo non si porrebbe il problema quindi in realtà ricercheremo delle approssimazioni di. Osservazione condizionamento: Il condizionamento della matrice è maggiorato da. Quindi cerchiamo tale che abbia gli autovalori vicini. Problemi: sembrerebbe dover essere definita positiva (Esiste un metodo per risolvere questo problema). Dopo aver calcolato apparente dovremmo ricavare ma in realtà possiamo farne a meno. Il modo di precondizionare dipende caso per caso. Giulio Del Corso 40
41 Metodi di rilassamento (SOR Successive Over Relaxation): A partire dal metodo di Gauss Seidel la cui iterazione può essere scritta nella forma: Con il residuo. Allora conviene applicare un correttivo definendo: Definizioni: Se si parla di sottorilassamento Se è il normale metodo di Gauss Seidel Se si parla di sovrarilassamento Metodo: Con matrice di iterazione. Componenti: Dobbiamo scegliere così da ridurre il raggio spettrale di e aumentare la velocità di convergenza. Teorema di Kahan: Per la matrice di iterazione di un metodo di rilassamento risulta: Quindi condizione necessaria per la convergenza: Caso reale: Teorema di Ostrawski Reich: Se è definita positiva e è un numero reale tale che allora il metodo di rilassamento è convergente. Giulio Del Corso 41
42 Teorema di minimizzazione: Sia una matrice tridiagonali a blocchi (Blocchi quadrati e non singolari) e. Dette: matrice di iterazione del metodo di Jacobi a blocchi. matrice di iterazione del metodo di rilassamento a blocchi. Allora autovalore di e è autovalore di (Valido anche il viceversa) Inoltre se gli autovalori di sono reali e il valore ottimo del metodo di rilassamento a blocchi è: Infine: Pratica: Se studiamo la matrice di iterazione di Jacobi possiamo ricavare delle condizioni per minimizzare la matrice di iterazione del SOR. Giulio Del Corso 42
43 Capitolo 11: Problema lineare dei minimi quadrati Idea: Aggiungere ai metodi già studiati per risolvere i problemi lineari una diversa formulazione che permette di estenderli alle matrici rettangolari. Dal punto di vista pratico questo significa studiare problemi di interpolazione dove il polinomio interpolante ha grado strettamente minore dei punti dei quali possediamo informazioni. Problema: Siano. La ricerca di che risolve: Presenta due problemi, la difficoltà della risoluzione del sistema lineare e l effettiva impossibilità a risolverlo se. Problema ai minimi quadrati equivalente: Cerchiamo: Così da avere la migliore approssimazione del problema. Osservazione interpolazione: Avendo posto il problema in questa forma non deve più necessariamente essere quadrata. Questa formulazione può dunque risolvere il problema dell interpolazione mediante un polinomio di grado inferiore al numero di punti. Giulio Del Corso 43
44 Fattorizzazione : Permette di ricondurre il problema alla risoluzione di un sistema lineare quadrato di ordine un problema di dimensione minore. o al peggio ad Passaggi: Fattorizzare Minimizzare la norma 2 è come minimizzarne il quadrato: Ma con Riscriviamo la condizione: Quindi il problema si è ridotto a minimizzare o, nel caso sia invertibile, alla risoluzione del sistema lineare Proposizione; Esiste ed è unica la soluzione. Costo computazionale: Questo metodo è meno efficiente di quello che sfrutta la SVD del problema descritta nei paragrafi successivi. Giulio Del Corso 44
45 Sistema delle equazioni normali: Se vogliamo risolvere e supponiamo che sia di rango massimo allora possiamo ricondurci al sistema quadrato: Teorema: Detto l insieme dei vettori complessi che minimizzano allora: (Sistema di equazioni normali) si riduce ad un solo elemento ha rango massimo detta Soluzione di minima norma. Pratica: Possiamo ricondurci a studiare la matrice definita positiva e quadrata Miglioramento: Per migliorare i metodi di ricerca sfruttiamo il teorema di decomposizione in valori singolari. Giulio Del Corso 45
46 Teorema di decomposizione in valori singolari (SVD) : Siano, allora e ortogonali e con e vale: Osservazione approssimazione: Conviene approssimata con meglio condizionata perché si perde il quadrato al numero di condizionamento. Osservazione rango: Se ha rango allora sono diversi da 0 mentre Decomposizione spettrale: Quindi dati gli autovalori, reali poiché è simmetrica, ordinati in modo decrescente vale: Osservazione algoritmo: Sebbene mal condizionato e con costo possiamo calcolare di e da li ricaviamo gli autovalori. Proprietà principali SVD: Data di rango allora i sono nulli dal -esimo in poi. Inoltre: Quindi: Giulio Del Corso 46
47 Utilizzo della SVD nel problema dei minimi quadrati: Usiamo questa fattorizzazione nel problema ai minimi quadrati: Con Se chiamiamo otteniamo: In questo passaggio abbiamo sfruttato il fatto che la lunghezza di sia proprio e che abbia gli autovalori nulli dal -esimo in poi. Infatti se allora partizioniamo il problema in uno di grado e annulliamo le componenti rimaste (Potremo sceglierle liberamente ma così teniamo bassa la norma). Soluzione esplicita: con -esima colonna di. Se è di rango massimo: Giulio Del Corso 47
48 Pseudo inversa di Moore Penrose: Equivalente: con rango. con Perciò che minimizza la norma 2 e risolve il sistema lineare approssimato è dato proprio da Se il rango della matrice è minore possiamo definire comunque: Condizionamento mediante pseudo inversa: Per il numero di condizionamento vale: ( rango di ) Giulio Del Corso 48
49 Metodi di calcolo: Osserviamo che i sono le radici degli autovalori di (Semidefinita positiva). Passi: Calcoliamo Determiniamo la decomposizione spettrale Calcoliamo la fattorizzazione di Problema: Questo metodo prevede il calcolo di che può essere oneroso. Possiamo individuare due matrici ortogonali e una B bidiagonale tali che: Metodo per determinarle (mediante matrici di Householder): Calcoliamo Calcoliamo abbia la prima riga nulla ad esclusione dei primi due elementi. Iteriamo sulle righe e colonne successive. Conclusione: Vale allora quindi possiamo cercare la decomposizione spettrale di (Tridiagonale simmetrica) che è più semplice da determinare. Costo computazionale: Calcolare due matrici di Householder Ripeterlo per ogni passo, dunque Effettuare le moltiplicazioni Calcolare gli autovalori mediante il metodo costa lasciando quindi invariato il costo totale. Sembrerebbe di dover calcolare ma in realtà esiste un metodo che permette di risparmiare questo calcolo. Costo computazionale totale Stima dell errore: Il teorema di Bauer Fike è applicabile e fornisce una maggiorazione dell errore assoluto, non abbiamo però maggiorazioni dell errore relativo che può essere un problema per valori piccoli. Giulio Del Corso 49
50 TSVD e applicazioni: Idea: La T indica il troncamento del SVD. Ricordando che i sono disposti in ordine quindi un modo per abbassare il condizionamento del sistema può essere trascurare gli autovalori più bassi azzerandoli. Risolviamo dunque un sistema troncato simile al precedente: Attenzione: Stiamo approssimando l operatore definito della matrice, non il problema. Osservazione (Soglia o filtro): Possiamo azzerare tutti quegli autovalori che sono al di sotto di un valore fissato una maggiorazione del numero di condizionamento pari a così da ottenere Osservazione (Risparmiare memoria): Possiamo troncare anche per risparmiare memoria: Metodo: Calcoliamo la SVD: Tronchiamo la ponendo Approssimiamo il sistema con Osservazione 1 (Memoria occupata): Con questo troncamento riduciamo di circa lo spazio occupato. Osservazione 2 (Differenza fra le matrici e ): Questa approssimazione inoltre è la migliore possibile di rango. Se quindi i sono divisi in un gruppo dai valori più alti ed uno di quelli più bassi troncando completamente quelli bassi otteniamo un errore piccolo a fronte di una riduzione considerevole della memoria occupata. Questo è il caso della compressione di una foto dove eliminiamo i valori più bassi. Giulio Del Corso 50
51 Capitolo 10: Matrici strutturate di Hessenberg ed Hermitiane Idea: Descriviamo questi due tipi di matrici e identifichiamo degli algoritmi per ricondurci allo studio di quest ultime. Osservazioni introduttive sulla riducibilità: Per una matrice di Hessenberg o in particolare per una tridiagonale vale: La matrice è riducibile con elementi della sottodiagonale. Una matrice è non riducibile se tutti i sono diversi da 0. (Se simmetrica è equivalente ad irriducibile) Una matrice è irriducibile se il suo grafo è fortemente connesso. Giulio Del Corso 51
52 Matrici in forma di Hessenberg superiore: Sono matrici tali che se. Teorema costruttivo: Per ogni matrice esistono vari metodi che la rendano in forma di Hessenberg superiore. (Il più usato è quello di Householder) Metodo di Gauss: Applicare le matrici elementari di Gauss (Con tecnica del massimo pivot) per ricondurci alla forma richiesta. Il costo computazionale è di inferiore a quello dei metodi successivi ma presenta problemi di instabilità, soprattutto nel caso in cui gli autovalori della matrice ottenuta dopo iterazioni abbia autovalori in modulo molto alti rispetto a quelli di. Metodo di Givens: Sfrutta delle matrici con elementi in forma di seno e coseno. Non approfondito. Costo Giulio Del Corso 52
53 Metodo di Householder: Ricordiamo che si dice matrice elementare di Householder se e e. Proprietà matrici di Householder: è Hermitiana è unitaria Osservazione riducibilità: Se la matrice è riducibile studiamo i problemi più piccoli in essa contenuti, supponiamo dunque di esserci già ridotti al caso in cui la matrice sia irriducibile. Data dunque la generica matrice irriducibile. Sappiamo che esiste una matrice si Householder tale che quindi, detta vale: Iterando per volte questo passaggio si ottiene una matrice di Hessenberg superiore. Osservazione Hermitiane: Se la matrice di partenza era Hermitiana lo è anche quella di arrivo, dunque la matrice conclusiva sarà tridiagonale. Valutazione costo computazionale: Il calcolo di è Il calcolo di è (Se non è Hermitiana) Il calcolo di è In totale l algoritmo è Questo algoritmo è stabile all indietro. Test sugli 0: Siccome a meno di precisione di macchina non siamo certi di individuare dei veri 0 su di un calcolatore allora li consideriamo nulli se: Giulio Del Corso 53
54 Matrici Hermitiane tridiagonali: Sono matrici Hermitiane tali che se e tale che Hermitiane diagonalizzabili: Una matrice tridiagonale Hermitiana irriducibile ha tutti gli autovalori di molteplicità 1, dunque è diagonalizzabile. Teorema costruttivo: Ogni matrice Hermitiana può essere ricondotta mediante una trasformazione ad una matrice Hermitiana tridiagonale. Metodi: Tutti questi metodi sfruttano trasformazioni per similitudine unitarie, dunque per il teorema di Bauer Fike la ricerca degli autovalori è un problema ben condizionato. Metodo di Householder: Il metodo descritto nel paragrafo precedente per determinare la forma di Hessenberg di una matrice qualsiasi se viene applicato ad una matrice Hermitiana restituisce una matrice Hermitiana tridiagonale. Costo Metodo di Givens: Sfrutta delle matrici con elementi in forma di seno e coseno. Non approfondito. Costo Come stabilità è analogo al metodo di Householder ma risulta migliorabile per sfruttare una struttura con abbastanza zeri della matrice. Giulio Del Corso 54
55 Metodo di Lanczos: Idea: Metodo alternativo a quello di Householder per tridiagonalizzare una matrice simmetrica. Metodo non realmente usato per effettuare tridiagonalizzazione in quanto non è numericamente stabile e così ottenuta non è ortogonale (Scegliendo differisce per una matrice di fase da ottenuta con il metodo di Householder). Il metodo di Lanczos viene usato dopo la definizione dei coefficienti di Rayleigh poiché ci da una rapida stima della matrice per approssimare gli autovalori di modulo minimo (Metodi di Krylov) Data Hermitiana allora cerchiamo unitaria tale che: con L idea è che individuato il primo vettore possiamo trovare tutti gli altri. Metodo: Da segue: Dunque: Osservazione (Scelta del vettore iniziale): Si può scegliere un vettore qualsiasi, scegliendo se uno dei risultasse nullo, come un vettore ortonormale a tutti quelli prima calcolati. Proposizione: I vettori così calcolati sono ortonormali. Giulio Del Corso 55
56 Osservazione (Costo computazionale e instabilità): Interessante è il fatto che se siamo interessati solo alla matrice solo due vettori per implementare l algoritmo. dobbiamo limitarci a tenere in memoria Se non è sparsa il costo è Se è a banda con diagonali il costo è Il metodo di triagonalizzazione di Lanczos presenta problemi di instabilità numerica nel caso in cui uno dei sia piccolo, inoltre Q così calcolata non abbiamo garanzie che sia ortogonale. È utile per il calcolo degli autovalori estremi dello spettro della matrice. Quoziente di Rayleigh: Il quoziente di Rayleigh di e è lo scalare: Il minimo quoziente di Rayleigh su tutto Il massimo quoziente di Rayleigh su tutto è il modulo dell autovalore minimo. è il modulo dell autovalore massimo. Dato un generico sottospazio allora: è il minimo modulo degli autovalori di. Se è grande può essere una stima del modulo dell autovalore minimo di Detta base di e allora vale: Detto vale. Quindi: Perciò ci basta minimizzare su e quindi lavoriamo con matrici riducendo la complessità del problema. Giulio Del Corso 56
57 Definizione (Sottospazio di Krylov): Sia (Alla stessa maniera è possibile definirlo a partire da ) e. Il sottospazio di Krylov di e di ordine è: Metodo: Dato uno spazio di Krylov scriviamo la fattorizzazione della matrice dei vettori che lo generano: Proposizione: Le prime colonne di generano di Calcolando si ottiene la matrice simmetrica. Se e siccome è ortogonale a è tridiagonale. Collegamento con il metodo di Lanczos: si può ottenere con iterazioni del metodo di Lanczos e ci permette di dare una stima degli autovalori di modulo minimo e massimo. Giulio Del Corso 57
58 Capitolo 11: Polinomio caratteristico e autovalori Idea: Introduciamo lo studio degli autovalori ed autovettori di matrici con alcuni teoremi che offrono garanzie sull errore totale per lo studio di questi problemi. Osserviamo anche che lo studio verrà svolto prevalentemente su matrici di Hessenberg e su tridiagonali Hermitiane (Previa tridiagonalizzazione su Hermitiane qualsiasi). Teorema di Bauer Fike: Se (Va bene anche ) è una matrice diagonalizzabile tramite il cambio di base in (Ossia ), una norma assoluta e è un autovalore della matrice perturbata, allora esiste un autovalore di tale che: Definizione (Norma assoluta): Una norma si dice assoluta se diagonale vale sono norme assolute. Ottimizzare la maggiorazione: Ricordando che è il numero di condizionamento della matrice per migliorare l approssimazione dobbiamo ridurre. Per ogni vale Se stiamo applicando più cambi di basi Se è una matrice unitaria Attenzione: Stiamo sempre parlando di norma Euclidea quando affermiamo le matrici unitarie hanno condizionamento 1. Quindi dobbiamo cercare di effettuare dei cambi di base unitari. è diagonalizzabile mediante matrici unitarie è normale Dunque in questi casi ed il problema è ben condizionato. Errore assoluto e relativo: La maggiorazione è in valore assoluto e non ci da informazioni sull errore relativo. Se l autovalore è piccolo in modulo l approssimazione può non essere buona. Giulio Del Corso 58
59 Idea (Condizionamento): Per matrici generiche non è garantito il buon condizionamento del problema, quando possibile dunque non calcoleremo direttamente gli autovalori di una matrice ma ci ricondurremo prima a matrici particolari a noi note. Osservazione (Matrici non normali): Se la matrice non è normale il calcolo degli autovalori può non essere ben condizionato, studiamo i casi distinguendo a seconda della molteplicità algebrica. Teorema (Molteplicità 1): Sia autovalore di A di molteplicità algebrica uno, tali che: Allora ed inoltre esiste nel piano complesso un intorno V dello 0 e una funzione analitica : è autovalore di molteplicità algebrica 1 di A meno di termini di ordine superiore in vale Formulazione equivalente: Data una matrice, una matrice di perturbazione, un autovalore di e un autovalore della matrice si ha che, dati autovettori destro e sinistro di modulo 1 relativi a : Conseguenza pratica: La variazione dell autovalore dato da una perturbazione della matrice risulta proporzionale al coefficiente di perturbazione ed è tanto maggiore quanto più piccolo è. Osservazione (Molteplicità maggiore): In questo caso maggiore è la dimensione dei blocchi di Jordan (Ossia maggiore è la disparità fra le molteplicità geometrica e algebrica) più il problema è mal condizionato. Giulio Del Corso 59
60 Caso di matrici Hermitiane tridiagonali: Teorema di Courant - Fisher o del minimax: Sia una matrice Hermitiana con autovalori: Allora risulta: Dove è un qualunque sottospazio di di dimensione per Teorema della perturbazione di rango 1: Sia, siano Hermitiane, tali che: Per gli autovalori: di e: di, vale la relazione: Calcolo del polinomio caratteristico: Nel caso di matrici Hermitiane tridiagonali la loro struttura particolare suggerisce un metodo rapido per calcolare il polinomio caratteristico (Sviluppando l ultima riga) e di ogni polinomio caratteristico delle sottomatrici di testa di dimensione. Conviene porre per poterlo applicare al primo passo. Costo dell algoritmo. Osservazione interessante: Se è un autovalore per non è un autovalore di. Teorema di separazione delle sottomatrici di testa: Sia Hermitiana e la matrice di testa -esima. Allora gli autovalori di separano quelli di Giulio Del Corso 60
61 Equazione secolare (Matrici Hermitiane tridiagonali): Procedimento (Matrici reali per semplicità di notazione): 1. Scriviamo la matrice come: (Arrow matrix) 2. Sappiamo che esiste una matrice ortogonale tale che: Con 3. Sfruttando il complemento di Schur sappiamo che esistono delle matrici a blocchi tali che: con il Complemento di Schur della matrice. Questo ci permette di calcolare più facilmente il determinante di ottenuto come: Quindi: Conclusione: Siccome gli autovalori di sono diversi da quelli di allora le radici del polinomio caratteristico sono le soluzioni dell equazione secolare: Quindi nel tracciare il grafico (Se gli autovalori sono ordinati decrescenti) basta ricordarsi che: Ad ogni autovalore di corrisponde un asintoto verticale. La derivata di è sempre negativa e quindi la funzione è decrescente. Ogni due autovalori di c è dunque esattamente un autovalore di.(proprietà di interlacing) Per ora non abbiamo gli strumenti per definire un iterazione funzionale per il calcolo degli autovalori di a parte il normale metodo di bisezione (Inefficiente) nel caso in cui si conoscano gli autovalori di. Il metodo di bisezione di Sturm invece è un sistema efficiente. In generale sulle matrici di Hessenberg non esiste un metodo altrettanto efficace. Giulio Del Corso 61
62 Capitolo 12: Metodi numerici per il calcolo di autovalori e autovettori Idea: Mostriamo gli algoritmi effettivamente utilizzati nel calcolo degli autovalori e autovettori di matrici Hermitiane e in forma di Hessenberg. Calcolo degli autovalori: Metodo di Sturm: Si applica a matrici Hermitiane tridiagonali (Previa riduzione Hermitiane qualsiasi). Questo metodo permette di ricavare in maniera esplicita l -esimo autovalore (Costo oppure se da ridurre) o l intero spettro (Costo in entrambi i casi) se tridiagonale Metodo : Questo è uno dei metodi più efficaci per il calcolo degli autovalori di una matrice qualsiasi mediante l uso della fattorizzazione tramite matrici di Householder. Vantaggi: Fornisce l intero spettro della matrice. Questo metodo inoltre è applicabile a matrici qualsiasi. Svantaggi: Ha delle condizioni di convergenza molto restrittive. Divide et Impera (Cuppen): Si applica a matrici Hermitiane tridiagonali (Previa riduzione Hermitiane qualsiasi). Questo metodo permette di ricavare l intero spettro passando per il calcolo degli autovettori. Vantaggio: Otteniamo una base di autovettori e l intero spettro. Svantaggio: Il calcolo degli autovettori è un problema mal condizionato e questo condiziona il risultato ottenuto anche sugli autovalori. Calcolo degli autovettori: Metodo delle potenze: Permette di calcolare l autovettore relativo all autovalore di modulo massimo o minimo. Se gli autovalori sono già noti permette di ricavare una base di autovettori. Giulio Del Corso 62
63 Metodo di Sturm: Data una matrice tridiagonale Hermitiana (Mediante riduzione un Hermitiana qualsiasi). Osservazioni preliminari: Per quanto visto prima il costo per valutare il polinomio caratteristico è. La valutazione di tutti i polinomi in punto fissato ha costo. Se la matrice con cui stiamo lavorando è riducibile ci riconduciamo ai sottocasi più piccoli. Definiamo : ; cambi di segno nel vettore Buona definizione: Imponiamo che se allora il segno lo consideriamo uguale a. Osserviamo a questo proposito che. Se cambia valore in un punto significa che questo deve essere lo 0 di almeno uno dei Polinomio di bordo: Polinomio interno: Se allora: Da si ottiene che Quindi non cambia di segno se un polinomio interno si azzera in un punto e più in generale non dipende dal segno dei polinomi interni. Osserviamo che la derivata di e quella di sono opposte in segno, essendo gli 0 semplici allora la derivata non è nulla. Quindi ad ogni cambio di cambia il valore di. In conclusione rappresenta il numero di 0 di, ossia del polinomio caratteristico. (Teorema di Sturm) Polinomio esterno (Polinomio caratteristico): ; gli 0 di separano gli 0 di ; gli 0 di una matrice tridiagonale Hermitiana sono semplici. Teorema della successione di Sturm: di autovalori, ossia di 0 del polinomio caratteristico in Giulio Del Corso 63
64 Metodo di bisezione di Sturm: Ipotizziamo di voler calcolare il -esimo autovalore. Ricordiamo la disuguaglianza di Hirsch -esimo., questo vale per ogni autovalore e quindi anche per il Calcoliamo il cui valore indica il numero di autovalori prima di 0. Se allora significa che il nostro autovalore è nell intervallo. Calcoliamo adesso e iteriamo il procedimento. Osservazione (Intervallo e metodo di Newton): L intervallo che contiene l autovalore al passo -esimo ha dimensione. Il metodo di Newton è comunque più efficiente nel ricavare con esattezza l autovalore. Valutazione costo: Il costo per ridurre un Hermitiana in forma tridiagonale è. Il calcolo di un autovalore specifico ha costo. Il calcolo dell intero spettro (Sia nel caso tridiagonale che in quello generale) ha costo. Questo non è molto efficiente perché si può individuare un algoritmo a costo. Se abbiamo macchine che lavorano in parallelo il metodo di Sturm diventa interessante anche per il calcolo dell intero spettro (Facendo calcolare a ciascuna macchina una parte degli autovalori). Teorema di Hirsch: norma qualsiasi, allora l insieme In particolare per ogni autovalore vale. contiene tutti gli autovalori. Metodo di Newton: Definita la relazione a tre termini precedenti è possibile determinare un autovalore sfruttando il metodo di Newton: Studiamo quindi il problema Attenzione: Necessita di un raffinamento mediante bisezione di Sturm dell intervallo di definizione, infatti una volta che ci siamo ridotti ad un intervallo con un solo autovalore all interno al funzione è monotona e dunque è possibile ricavare l autovalore con il metodo di Newton. Il costo è per ogni passo. Giulio Del Corso 64
65 Metodo : Idea: Questo è uno dei metodi più efficaci per il calcolo degli autovalori di una matrice qualsiasi mediante l uso della fattorizzazione tramite matrici di Householder. Fornisce l intero spettro della matrice. Questo metodo inoltre è applicabile a matrici qualsiasi ma il problema è che ha delle condizioni di convergenza molto restrittive. Metodo di base: Data una matrice la successione convergente alla matrice diagonale degli autovalori è: Con la fattorizzazione di. Osservazione similitudine: è simile ad, infatti: Siccome le trasformazioni unitarie preservano il condizionamento allora questa è una buona successione. Teorema di convergenza (Wilkinson): Se gli autovalori sono distinti in modulo allora il metodo converge. In questo caso converge significa che (Triangolare) Non si riesce ad indebolire le ipotesi. Costo computazionale: Empiricamente pare che approssimi l intero spettro. La fattorizzazione di una matrice qualsiasi è Il numero di passi per avere convergenza cresce linearmente con la dimensione. Il costo totale del metodo è dunque Se lavoriamo con matrici tridiagonali Hermitiane il costo della fattorizzazione (Poiché otteniamo una successione di matrici tridiagonali Hermitiane) è Il costo totale del metodo è dunque di ogni passo Per le matrici di Hessenberg il costo della fattorizzazione è. Il costo totale del metodo è dunque Osservazione Hessenberg: Triangolare superiore dunque i Giulio Del Corso 65
66 Ottimizzare la velocità di convergenza: L idea è applicare uno shift alla matrice, considerare quindi la matrice: Caso matrici di Hessenberg con valori complessi: Data Primo autovalore (Metodo di Wilkinson): Applichiamo l algoritmo con shift di Quando con la precisione di macchina memorizziamo l approssimazione dell autovalore ottenuto. Autovalore successivo (Metodo di Wilkinson): Iteriamo con il minore di dimensione in alto a sinistra (Che sarà ancora in forma di Hessenberg superiore). Giulio Del Corso 66
67 Bulge Chasing: Nel caso di matrici a valori reali non possiamo applicare il procedimento precedente. Il passaggio ad un aritmetica complessa rischia infatti di portare ad errori tali da non ottenere più due autovalori complessi coniugati, il che può essere problematico. Conviene vedere allora il problema nel seguente modo: dunque, nel caso reale però Problema: Il polinomio essendo reale è di secondo grado e il calcolo di non è agevole. L idea è modificare la fattorizzazione mentre calcoliamo. Procedimento: Si calcola solo la prima colonna di, ossia Calcoliamo una matrice di Householder Costruiamo le altre matrici di Householder tali che fissato valga:. Questa iterazione produce una matrice simile a meno di una matrice di fase reale rispetto a quella presentata prima. Giulio Del Corso 67
68 Metodo Divide et Impera (Cuppen): Passo 1: Ricondurci ad una matrice della forma conoscendo gli autovettori Data la matrice tridiagonale possiamo scriverla a blocchi più un correttivo di rango 2: Oppure a blocchi con un correttivo di rango 1: Con tranne il blocco e tranne il blocco Ipotesi (Conoscenza degli autovettori): Supponiamo di saper calcolare: Di conseguenza supponiamo di sapere autovettori e autovalori di Siano e allora: Con con l ultima colonna di e la prima di Passo 2: Calcolare gli autovalori Cerchiamo gli autovalori di : Osservando che è una matrice elementare sviluppiamo: Con gli autovalori della matrice diagonale e calcolati a partire dalle matrici prima descritte. Giulio Del Corso 68
69 Caso particolare: Ipotesi aggiuntive: (Autovalori distinti) Anche nei casi senza ipotesi aggiuntive ci si può ricondurre a questo. La relazione diventa: Conseguenza (Bisezione): Gli autovalori delle matrici di ordine separano quelli della matrice iniziale (Ovviamente a loro volta possiamo suddividerli in matrici più piccole). Da questa osservazione possiamo applicare il metodo di bisezione per individuare gli autovalori. Osservazione autovettori: Per poter utilizzare la relazione dobbiamo conoscere i vettori delle matrici più piccole ottenuti a partire da matrici che diagonalizzano e, in altre parole dobbiamo trovare gli autovettori. Giulio Del Corso 69
70 Passo 3: Calcolare gli autovettori Noti gli autovalori il calcolo di un autovettore ha costo. Il calcolo degli autovettori è mal condizionato, inoltre sfruttandoli noi per il passaggio successivo (Abbiamo spezzato il problema e dobbiamo risalire ) non possiamo garantire l accuratezza del risultato finale. Metodo: Cerchiamo gli autovettori di e una volta ottenuta la matrice da questi moltiplicarla per la matrice. Formula esplicita: Data Motivazione: Se è autovettore per allora: Quindi: Siccome possiamo assumere, si ottiene allora: Equivalente: Problemi del metodo: Usando gli autovettori per procedere nel metodo non abbiamo garanzie sull accuratezza del risultato. La matrice deve essere ortogonale ma l accumularsi dell errore può inficiare questa proprietà. Il calcolo di in generale ha costo non trascurabile. Siccome è una matrice Cauchy Like il costo del prodotto è L algoritmo si applica solo ad Hermitiane tridiagonali (O aumentandone il costo ad Hermitiane qualsiasi), non esiste un implementazione robusta per le matrici di Hessenberg. Giulio Del Corso 70
71 Metodo delle potenze: Idea: Questo metodo permette di calcolare velocemente l autovettore relativo all autovalore di modulo massimo sotto le ipotesi aggiuntive che sia semplice e che sia strettamente maggiore in modulo degli altri autovalori. Con alcune modifiche si può calcolare ogni altro autovettore. Necessita di una stima degli autovalori. Teorema di convergenza: Se la matrice è diagonalizzabile e ha un autovalore in modulo strettamente maggiore di ogni altro allora il metodo converge. Metodo diretto: Scriviamo la successione: Attenzione: Se anche fosse un autovettore dopo qualche iterazione non lo sarebbe più. Scrivendolo nella base di autovettori dunque: Per stimare l autovalore basta studiare: Per l autovettore invece osserviamo che: Equivalente: Giulio Del Corso 71
72 Problemi di Overflow: Per ovviare al problema di Overflow possiamo normalizzare ad ogni passo il vettore. Metodo diretto: Con normalizzatore, la successione converge all autovettore normalizzato. Metodo inverso (Variante di Wielandt): Se vogliamo calcolare l autovettore relativo all autovalore di modulo minore possiamo studiare: In forma di sistema lineare: Con scalare che normalizzi. Risolvibile con metodi diretti o iterativi. Valutazione costo calcolo autovalore: Per matrici Hermitiane tridiagonali è Per le matrici di Hessenberg è Metodo inverso con shift: Se abbiamo una buona stima di un autovalore matrice possiamo applicare il metodo delle potenze inverse alla Dal punto di vista computazionale conviene fare la fattorizzazione LU delle matrici e poi iterare sfruttando quelle. Valutazione costo computazionale tutti gli autovettori: Per matrici Hermitiane tridiagonali è Per le matrici di Hessenberg è Giulio Del Corso 72
73 Matrici di Toeplitz: Definizione (Matrice di Toeplitz): si dice di Toeplitz se le sue diagonali sono costanti ossia vale Proprietà: Sono matrici per cui è facile calcolare il prodotto matrice vettore. Ad esempio nel caso di matrici di Toeplitz triangolari inferiori. Che è come calcolare il prodotto fra i due polinomi, quindi possiamo usare la trasformata discreta di Fourier. Costo computazionale: Prodotto vettore matrice mediante trasformata discreta di Fourier costa Metodo del gradiente coniugato costa Caso particolare: Matrici di Toeplitz tridiagonali simmetriche Idea: Questo caso particolare in realtà si presenta quando discretizziamo il problema differenziale. Sia una matrice di Toeplitz tridiagonale simmetrica. Studiamone il condizionamento (In norma 2) che influenza la convergenza del metodo del gradiente coniugato per il teorema dell errore. Scrivendo la relazione a tre termini otteniamo la relazione: Usando ad esempio i teoremi di Gershgorin possiamo fornire maggiorazioni al condizionamento della matrice. Giulio Del Corso 73
Registro di Matematica Applicata /18 - Dott.ssa L. Fermo 2
Registro delle lezioni di MATEMATICA APPLICATA Corsi di Laurea in Biomedica 6 CFU - A.A. 2017/2018 docente: Dott.ssa Luisa Fermo ultimo aggiornamento: 15 dicembre 2017 1. Lunedì 25/09/2017, 11 13. ore:
Risoluzione di sistemi lineari sparsi e di grandi dimensioni
Risoluzione di sistemi lineari sparsi e di grandi dimensioni Un sistema lineare Ax = b con A R n n, b R n, è sparso quando il numero di elementi della matrice A diversi da zero è αn, con n α. Una caratteristica
Raccolta di esercizi di Calcolo Numerico Prof. Michela Redivo Zaglia
Raccolta di esercizi di Calcolo Numerico Prof. Michela Redivo Zaglia Nota Bene: Gli esercizi di questa raccolta sono solo degli esempi. Non sono stati svolti né verificati e servono unicamente da spunto
Sistemi lineari. Lorenzo Pareschi. Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara
Sistemi lineari Lorenzo Pareschi Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara http://utenti.unife.it/lorenzo.pareschi/ [email protected] Lorenzo Pareschi (Univ. Ferrara)
ossia può anche essere localizzato univocamente sul piano complesso con la sua forma polare.
ALGEBRA COMPLESSA Nel corso dei secoli gli insiemi dei numeri sono andati man mano allargandosi per rispondere all esigenza di dare soluzione a equazioni e problemi sempre nuovi I numeri complessi sono
Esercizi proposti di Analisi Numerica
Esercizi proposti di Analisi Numerica Silvia Bonettini Dipartimento di Matematica, Università di Ferrara 30 gennaio 2012 1 Conversioni, operazioni di macchina e analisi dell errore 1. Convertire i numeri
Problema. Sistemi lineari. Problema. Problema. Quali sono i potenziali in ogni nodo? Leggi di Kirkoff e di Ohm:
Problema 4 Ω 3 3 Ω 2 2 Ω 40 V Sistemi lineari 2 Ω Ω 2 Ω Ω 5 6 7 8 Ω 4 Ω Ω 0 V Quali sono i potenziali in ogni nodo? 2 4 Ω Problema 3 3 Ω 2 2 Ω 40 V 4 Ω Problema 3 3 Ω 2 2 Ω 40 V 2 Ω Ω 2 Ω Ω 2 Ω Ω 2 Ω Ω
Facoltá di Scienze MM.FF.NN. Corso di Studi in Informatica- A.A
Facoltá di Scienze MM.FF.NN. Corso di Studi in Informatica- A.A. 5-6 Corso di CALCOLO NUMERICO / ANALISI NUMERICA : Esempi di esercizi svolti in aula 5//5 ) Dato un triangolo, siano a, b le lunghezze di
Corso di Calcolo Numerico
Corso di Calcolo Numerico Dott.ssa M.C. De Bonis Università degli Studi della Basilicata, Potenza Facoltà di Ingegneria Corso di Laurea in Ingegneria Meccanica Risoluzione di Equazioni Algebriche Le equazioni
Note per il corso di Geometria Corso di laurea in Ing. Edile/Architettura. 4 Sistemi lineari. Metodo di eliminazione di Gauss Jordan
Note per il corso di Geometria 2006-07 Corso di laurea in Ing. Edile/Architettura Sistemi lineari. Metodo di eliminazione di Gauss Jordan.1 Operazioni elementari Abbiamo visto che un sistema di m equazioni
Programma del corso di: Laboratorio di Programmazione e Calcolo Corso di laurea in Matematica a.a Proff. B. Paternoster, D.
Programma del corso di: Laboratorio di Programmazione e Calcolo Corso di laurea in Matematica a.a.009-0 Proff. B. Paternoster, D. Conte Risoluzione di un problema con il calcolatore: dal problema reale
Diario delle lezioni di Analisi Numerica laurea Magistrale in Statistica e Informatica A.A
Diario delle lezioni di Analisi Numerica laurea Magistrale in Statistica e Informatica A.A. 2009-2010 Prof. Stefano De Marchi December 4, 2009 28/9/09 Aula SC20. 30/9/09 Aula SC20. Rappresentazione dei
Corso di Matematica per la Chimica
Dott.ssa Maria Carmela De Bonis a.a. 2013-14 Pivoting e stabilità Se la matrice A non appartiene a nessuna delle categorie precedenti può accadere che al k esimo passo risulti a (k) k,k = 0, e quindi il
A.A Prof. R. Morandi
Svolgimento di alcuni esercizi del corso di Calcolo Numerico A.A. - Prof. R. Morandi Versione in aggiornamento ( gennaio ): ogni segnalazione di imprecisioni è gradita Aritmetica Finita Esercizio : Assegnati
4. Sottospazi vettoriali Piani e rette in E 3 O
Indice Prefazione i Capitolo 0. Preliminari 1 1. Insiemistica e logica 1 1.1. Insiemi 1 1.2. Insiemi numerici 2 1.3. Logica matematica elementare 5 1.4. Ancora sugli insiemi 7 1.5. Funzioni 10 1.6. Composizione
0.1 Spazi Euclidei in generale
0.1. SPAZI EUCLIDEI IN GENERALE 1 0.1 Spazi Euclidei in generale Sia V uno spazio vettoriale definito su R. Diremo, estendendo una definizione data in precedenza, che V è uno spazio vettoriale euclideo
Motivazioni. Sistemi lineari. Obiettivo. Il problema
Motivazioni Sistemi lineari Metodo di eliminazione di Gauss Molti problemi si possono rappresentare mediante un sistema lineare La soluzione di un sistema lineare costituisce un sottoproblema di moltissime
1 PRELIMINARI 1.1 NOTAZIONI. denota l insieme vuoto. a A si legge a appartiene a A oppure a è elemento di A.
1 PRELIMINARI 1.1 NOTAZIONI denota l insieme vuoto. a A si legge a appartiene a A oppure a è elemento di A. B A si legge B è un sottoinsieme di A e significa che ogni elemento di B è anche elemento di
Note sull algoritmo di Gauss
Note sull algoritmo di Gauss 29 settembre 2009 Generalità Un sistema lineare di m equazioni in n incognite x,..., x n è un espressione del tipo: a x + a 2 x 2 + + a n x n = b a 2 x + a 22 x 2 + + a 2n
Metodi di Iterazione Funzionale
Appunti di Matematica Computazionale Lezione Metodi di Iterazione Funzionale Il problema di calcolare il valore per cui F() = si può sempre trasformare in quello di trovare il punto fisso di una funzione
Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria.
Capitolo 2 Campi 2.1 Introduzione Studiamo ora i campi. Essi sono una generalizzazione dell insieme R dei numeri reali con le operazioni di addizione e di moltiplicazione. Nel secondo paragrafo ricordiamo
NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n
NOTE DI ALGEBRA LINEARE 2- MM 9 NOVEMBRE 2 Combinazioni lineari e generatori Sia K un campo e V uno spazio vettoriale su K Siano v,, v n vettori in V Definizione Un vettore v V si dice combinazione lineare
Registro di Matematica Applicata /18 - Dott.ssa L. Fermo 2
Registro delle lezioni di CALCOLO SCIENTIFICO E METODI NUMERICI Corsi di Laurea in Informatica 6 CFU - A.A. 2018/2019 docente: Dott.ssa Luisa Fermo ultimo aggiornamento: 15 dicembre 2018 1. Martedì 25/09/2018,
Sistemi sovradeterminati
Sistemi sovradeterminati Sia A una matrice m n ove m > n sia b R m trovare una soluzione del sistema sovradeterminato Ax = b significa cercare di esprimere un vettore di R m come combinazione lineare di
CORSO DI ALGEBRA LINEARE Anno Accademico 2004/2005 Appunti su SISTEMI di EQUAZIONI LINEARI
CORSO DI ALGEBRA LINEARE Anno Accademico 2004/2005 Appunti su SISTEMI di EQUAZIONI LINEARI Lo studente ha forse già incontrato i sistemi di equazioni lineari alla scuola secondaria Con il termine equazione
2. Risolvere con il metodo di eliminazione di Gauss con pivoting parziale il seguente sistema lineare:
Esercizi sui metodi diretti per la risoluzione di sistemi lineari 1. Data la matrice 1 0 2 1 3 1 5 2 1 determinare la sua fattorizzazione P LR. Risolvere il sistema Ax = b con b = (3, 5, 6) T mediante
Esercitazione di Calcolo Numerico 1 27 Maggio Calcolare la fattorizzazione P A = LU della matrice A =
Esercitazione di Calcolo Numerico 1 27 Maggio 29 1. Calcolare la fattorizzazione P A = LU della matrice 1 2 3 A = 2 3 3, ed utilizzarla per risolvere il sistema lineare Ax = b, con b = (1, 2,, 16) T. 2.
Derivazione numerica. Introduzione al calcolo numerico. Derivazione numerica (II) Derivazione numerica (III)
Derivazione numerica Introduzione al calcolo numerico Il calcolo della derivata di una funzione in un punto implica un processo al limite che può solo essere approssimato da un calcolatore. Supponiamo
Autovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti)
Autovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti) April 14, 2011 (alcune note non complete sugli argomenti trattati: eventuali completamenti saranno aggiunti)
A.A. 2014/2015 Corso di Algebra Lineare
A.A. 2014/2015 Corso di Algebra Lineare Stampato integrale delle lezioni Massimo Gobbino Indice Lezione 01: Vettori geometrici nel piano cartesiano. Operazioni tra vettori: somma, prodotto per un numero,
LEZIONE 3. a + b + 2c + e = 1 b + d + g = 0 3b + f + 3g = 2. a b c d e f g
LEZIONE 3 3.. Matrici fortemente ridotte per righe. Nella precedente lezione abbiamo introdotto la nozione di soluzione di un sistema di equazioni lineari. In questa lezione ci poniamo il problema di descrivere
Capitolo 3: Ottimizzazione non vincolata parte III. E. Amaldi DEI, Politecnico di Milano
Capitolo 3: Ottimizzazione non vincolata parte III E. Amaldi DEI, Politecnico di Milano 3.4 Metodi di ricerca unidimensionale In genere si cerca una soluzione approssimata α k di min g(α) = f(x k +αd k
8 Metodi iterativi per la risoluzione di sistemi lineari
8 Metodi iterativi per la risoluzione di sistemi lineari È dato il sistema lineare Ax = b con A R n n e x, b R n, con deta 0 Si vogliono individuare dei metodi per determinarne su calcolatore la soluzione,
Matrici elementari e fattorizzazioni
Matrici elementari e fattorizzazioni Dario A Bini, Università di Pisa 19 ottobre 2015 Sommario Questo modulo didattico introduce ed analizza la classe delle matrici elementari Tale classe verrà usata per
APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof. F.Podestà, a.a
APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof FPodestà, aa 003-004 Sia V uno spazio vettoriale e sia f : V V una applicazione lineare una tale applicazione da uno spazio vettoriale in se stesso è chiamata
SPAZI EUCLIDEI, APPLICAZIONI SIMMETRICHE, FORME QUADRATICHE
SPAZI EUCLIDEI, APPLICAZIONI SIMMETRICHE, FORME QUADRATICHE. Esercizi Esercizio. In R calcolare il modulo dei vettori,, ),,, ) ed il loro angolo. Esercizio. Calcolare una base ortonormale del sottospazio
Raccolta di compiti degli appelli precedenti
Ingegneria Informatica e delle Telecomunicazioni Anno accademico 24-25. Docente Costanza Conti Raccolta di compiti degli appelli precedenti Nota: Gli esercizi riportati si riferiscono a compiti dei precendeti
Applicazioni eliminazione di Gauss
Applicazioni eliminazione di Gauss. Premessa Nel seguito supporremo sempre di applicare il metodo di eliminazione di Gauss allo scopo di trasformare la matrice del sistema Ax = b in una matrice triangolare
Il Metodo di Newton, o delle Tangenti Federico Lastaria, Analisi e Geometria 1. Politecnico di Milano Corso di Analisi e Geometria 1
Politecnico di Milano Corso di Analisi e Geometria 1 Federico Lastaria [email protected] Il Metodo di Newton, o delle Tangenti 6 Novembre 2016 Indice 1 Metodo di Newton, o delle tangenti 2 1.1
1 Il polinomio minimo.
Abstract Il polinomio minimo, così come il polinomio caratterisico, è un importante invariante per le matrici quadrate. La forma canonica di Jordan è un approssimazione della diagonalizzazione, e viene
Corso di Matematica per la Chimica. Dott.ssa Maria Carmela De Bonis a.a
Dott.ssa Maria Carmela De Bonis a.a. 2013-14 Risoluzione di Equazioni non lineari Sia F C 0 ([a, b]), cioé F è una funzione continua in un intervallo [a, b] R, tale che F(a)F(b) < 0 1.5 1 F(b) 0.5 0 a
iv Indice c
Indice Prefazione ix 1 Numeri 1 1 Insiemi e logica 1 1.1 Concetti di base sugli insiemi 1 1.2 Un po di logica elementare 9 2 Sommatorie e coefficienti binomiali 13 2.1 Il simbolo di sommatoria 13 2.2 Fattoriale
Formulario sui Prodotti Hermitiani Marcello Mamino Pisa, 24 v 2010
Formulario sui Prodotti Hermitiani Marcello Mamino Pisa, 24 v 2010 In quetsa dispensa: V è uno spazio vettoriale di dimensione d sul campo complesso C generato dai vettori v 1,..., v d. Le variabili m,
Metodi computazionali per i Minimi Quadrati
Metodi computazionali per i Minimi Quadrati Come introdotto in precedenza si considera la matrice. A causa di mal condizionamenti ed errori di inversione, si possono avere casi in cui il e quindi S sarebbe
1. Si scriva una function Matlab che implementa il seguente metodo di punto fisso
Domanda 1 1. Si scriva una function Matlab che implementa il seguente metodo di punto fisso x n+1 = x n f(x n), n = 0, 1, 2,... K dove x 0 è il punto iniziale, f(x) = x 3 cos(x) e K è una costante assegnata.
Problema. Equazioni non lineari. Metodo grafico. Teorema. Cercare la soluzione di
Problema Cercare la soluzione di Equazioni non lineari dove Se è soluzione dell equazione, cioè allora si dice RADICE o ZERO della funzione Metodo grafico Graficamente si tratta di individuare l intersezione
