Approssimazione di PDE con il metodo della decomposizione di domini (DD)



Documenti analoghi
Elementi Finiti: stime d errore e adattività della griglia

Parte 2. Determinante e matrice inversa

Corso di Matematica per la Chimica

Sulle funzioni di W 1,p (Ω) a traccia nulla

Esercizi svolti. 1. Si consideri la funzione f(x) = 4 x 2. a) Verificare che la funzione F(x) = x 2 4 x2 + 2 arcsin x è una primitiva di

Dimensione di uno Spazio vettoriale

2.1 Definizione di applicazione lineare. Siano V e W due spazi vettoriali su R. Un applicazione

x 1 + x 2 3x 4 = 0 x1 + x 2 + x 3 = 0 x 1 + x 2 3x 4 = 0.

CONTINUITÀ E DERIVABILITÀ Esercizi proposti. 1. Determinare lim M(sinx) (M(t) denota la mantissa di t)

9 Metodi diretti per la risoluzione di sistemi lineari: fattorizzazione P A = LU

u 1 u k che rappresenta formalmente la somma degli infiniti numeri (14.1), ordinati al crescere del loro indice. I numeri u k

4. Operazioni elementari per righe e colonne

LEZIONE 23. Esempio Si consideri la matrice (si veda l Esempio ) A =

1 Applicazioni Lineari tra Spazi Vettoriali

Parte 3. Rango e teorema di Rouché-Capelli

risulta (x) = 1 se x < 0.

Ottimizazione vincolata

Approssimazione polinomiale di funzioni e dati

Politecnico di Milano. Facoltà di Ingegneria Industriale. Corso di Analisi e Geometria 2. Sezione D-G. (Docente: Federico Lastaria).

TECNICHE COMPUTAZIONALI AVANZATE

RICHIAMI SULLE MATRICI. Una matrice di m righe e n colonne è rappresentata come

Metodi Numerici per Equazioni Ellittiche

APPUNTI DI MATEMATICA LE FRAZIONI ALGEBRICHE ALESSANDRO BOCCONI

Funzioni. Parte prima. Daniele Serra

Capitolo 2. Operazione di limite

CAPITOLO 16 SUCCESSIONI E SERIE DI FUNZIONI

x (x i ) (x 1, x 2, x 3 ) dx 1 + f x 2 dx 2 + f x 3 dx i x i

LE FUNZIONI A DUE VARIABILI

1 Serie di Taylor di una funzione

Corso di Calcolo Numerico

ESERCIZI DI ALGEBRA LINEARE E GEOMETRIA

EQUAZIONI DIFFERENZIALI. 1. Trovare tutte le soluzioni delle equazioni differenziali: (a) x = x 2 log t (d) x = e t x log x (e) y = y2 5y+6

Per studio di funzione intendiamo un insieme di procedure che hanno lo scopo di analizzare le proprietà di una funzione f ( x) R R

FUNZIONI ELEMENTARI - ESERCIZI SVOLTI

ESAME DI STATO DI LICEO SCIENTIFICO CORSO SPERIMENTALE P.N.I. 2004

Esercizi su lineare indipendenza e generatori

2. Leggi finanziarie di capitalizzazione

APPLICAZIONI LINEARI

Come visto precedentemente l equazione integro differenziale rappresentativa dell equilibrio elettrico di un circuito RLC è la seguente: 1 = (1)

MATEMATICA. { 2 x =12 y 3 y +8 x =0, si pone il problema di trovare, se esistono, un numero x ed un numero y che risolvano entrambe le equazioni.

Corso di Analisi Numerica - AN1. Parte 2: metodi diretti per sistemi lineari. Roberto Ferretti

Matematica generale CTF

Capitolo 4: Ottimizzazione non lineare non vincolata parte II. E. Amaldi DEIB, Politecnico di Milano

Parte 6. Applicazioni lineari

ANALISI NUMERICA. Elementi finiti bidimensionali. a.a Maria Lucia Sampoli. ANALISI NUMERICA p.1/23

Consideriamo due polinomi

19. Inclusioni tra spazi L p.

A i è un aperto in E. i=1

Lezione 9: Cambio di base

Controlli Automatici T. Trasformata di Laplace e Funzione di trasferimento. Parte 3 Aggiornamento: Settembre Prof. L.

Per lo svolgimento del corso risulta particolarmente utile considerare l insieme

Una ricetta per il calcolo dell asintoto obliquo. Se f(x) è asintotica a mx+q allora abbiamo f(x) mx q = o(1), da cui (dividendo per x) + o(1), m =

1. PRIME PROPRIETÀ 2

CONTINUITÀ E DERIVABILITÀ Esercizi risolti

Iniziamo con un esercizio sul massimo comun divisore: Esercizio 1. Sia d = G.C.D.(a, b), allora:

Rette e curve, piani e superfici

1 Estensione in strategia mista di un gioco

Appunti sul corso di Complementi di Matematica - prof. B.Bacchelli Equazioni differenziali lineari omogenee a coefficienti costanti.

CONCETTO DI LIMITE DI UNA FUNZIONE REALE

MATEMATICA DEL DISCRETO elementi di teoria dei grafi. anno acc. 2009/2010

Dipendenza dai dati iniziali

Basi di matematica per il corso di micro

Le funzioni continue. A. Pisani Liceo Classico Dante Alighieri A.S A. Pisani, appunti di Matematica 1

10. Insiemi non misurabili secondo Lebesgue.

2 Argomenti introduttivi e generali

Corrispondenze e funzioni

Trasformate di Laplace

Esponenziali elogaritmi

Ricerca Operativa Esercizi sul metodo del simplesso. Luigi De Giovanni, Laura Brentegani

Sia data la rete di fig. 1 costituita da tre resistori,,, e da due generatori indipendenti ideali di corrente ed. Fig. 1

Spazi lineari - PARTE II - Felice Iavernaro. Dipartimento di Matematica Università di Bari. 9 e 16 Marzo 2007

FUNZIONI / ESERCIZI SVOLTI

PROBLEMI TRADIZIONALI SIMULAZIONE DELLA PROVA DI MATEMATICA

Appunti sulla Macchina di Turing. Macchina di Turing

Luigi Piroddi

15 febbraio Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA...

Applicazioni lineari

Complementi di Analisi per Informatica *** Capitolo 2. Numeri Complessi. e Circuiti Elettrici. a Corrente Alternata. Sergio Benenti 7 settembre 2013

4 Dispense di Matematica per il biennio dell Istituto I.S.I.S. Gaetano Filangieri di Frattamaggiore EQUAZIONI FRATTE E SISTEMI DI EQUAZIONI

LEZIONE 31. B i : R n R. R m,n, x = (x 1,..., x n ). Allora sappiamo che è definita. j=1. a i,j x j.

LE FIBRE DI UNA APPLICAZIONE LINEARE

Appunti sul corso di Complementi di Matematica- modulo Analisi Prof. B.Bacchelli

LE SUCCESSIONI 1. COS E UNA SUCCESSIONE

Matematica generale CTF

NOME:... MATRICOLA:... Scienza dei Media e della Comunicazione, A.A. 2007/2008 Analisi Matematica 1, Esame scritto del x 1.

Le equazioni. Diapositive riassemblate e rielaborate da prof. Antonio Manca da materiali offerti dalla rete.

4 Quarta lezione: Spazi di Banach e funzionali lineari. Spazio duale

Capitolo 13: L offerta dell impresa e il surplus del produttore

1 Giochi a due, con informazione perfetta e somma zero

Equazioni differenziali ordinarie

Raccolta degli Scritti d Esame di ANALISI MATEMATICA U.D. 1 assegnati nei Corsi di Laurea di Fisica, Fisica Applicata, Matematica

Esempio. Approssimazione con il criterio dei minimi quadrati. Esempio. Esempio. Risultati sperimentali. Interpolazione con spline cubica.

Soluzione di equazioni quadratiche

Documentazione esterna al software matematico sviluppato con MatLab

Analisi 2. Argomenti. Raffaele D. Facendola

Rette e piani con le matrici e i determinanti

LEZIONE 17. B : kn k m.

MATEMATICA p = 4/6 = 2/3; q = 1-2/3 = 1/3. La risposta corretta è quindi la E).

UNIVERSITÀ DEGLI STUDI DI TERAMO

Funzioni inverse Simmetrie rispetto alla bisettrice dei quadranti dispari. Consideriamo la trasformazione descritta dalle equazioni : = y

Transcript:

Capitolo 4 Approssimazione di PDE con il metodo della decomposizione di domini (DD) Prof. Alfio Quarteroni 4.1 Introduzione Sia Ω un dominio di dimensione d, per d = 2, 3, con frontiera Lipschitziana Ω; si consideri su Ω il seguente problema differenziale: Lu = f in Ω, u = ϕ su Γ D, (4.1) u n = ψ su Γ N, dove L è un operatore ellittico su Ω (ad esempio, il Laplaciano o l operatore di diffusione e trasporto), mentre ϕ, ψ sono due funzioni assegnate su Γ D e Γ N, rispettivamente, con Γ D Γ N = Ω. Vogliamo calcolare una soluzione per il problema modello (4.1), utilizzando uno schema numerico efficiente. A tal fine, come primo passo, introduciamone un approssimazione alla Galerkin. Utilizzeremo quindi le tecniche della decomposizione di domini (DD) per calcolare la soluzione di tale problema approssimato. L idea alla base dei metodi DD è quella di suddividere il dominio globale Ω in due o più sottodomini su cui risolvere dei problemi di dimensione minore rispetto a quello iniziale, utilizzando possibilmente degli algoritmi paralleli. In particolare, esistono due modi differenti con cui fare una decomposizione del dominio Ω: si possono cioè considerare dei sotto-domini con o senza sovrapposizione (si veda la Figura 4.1). Tale scelta individuerà metodi differenti per la risoluzione del problema assegnato. 95

96 CAPITOLO 4. DECOMPOSIZIONE DI DOMINI Ω Ω 1 Ω 2 Γ PSfrag replacements Ω Ω 1 Γ 2 Γ 12 Γ 1 Ω 2 Figura 4.1: Esempi di partizione del dominio Ω senza e con sovrapposizione. Come lettura di riferimento per le tecniche di decomposizione di domini, rimandiamo, ad esempio, a [30, 41, 36, 25]. 4.2 Tre classici metodi iterativi basati su DD Introduciamo in questa sezione tre diversi schemi iterativi partendo dal problema modello (4.1) fatte le scelte ϕ = 0 e Γ N = : trovare u : Ω R tale che { Lu = f in Ω, u = 0 su Ω, (4.2) con L operatore ellittico generico del second ordine. 4.2.1 Il metodo di Schwarz Consideriamo una decomposizione del dominio Ω in due sotto-domini Ω 1 e Ω 2 tali che Ω = Ω 1 Ω 2, Ω 1 Ω 2 = Γ 12 (si veda la Figura 4.1) e sia Γ i = Ω i \ ( Ω Ω i ). Consideriamo il seguente metodo iterativo: dato u (0) 2 su Γ 1, si risolvano i seguenti problemi per k 1: Lu (k) 1 = f in Ω 1, u (k) 1 = u (k 1) 2 su Γ 1, u (k) 1 = 0 su Ω 1 \ Γ 1, (4.3)

PSfrag replacements 4.2. TRE CLASSICI METODI ITERATIVI BASATI SU DD 97 Ω 2 a γ 2 γ 1 b Ω 1 Figura 4.2: Esempio di decomposizione con sovrapposizione in dimensione 1. Lu (k) 2 = f in Ω 2, u (k) 2 = u (k) 1 su Γ 2, u (k) 2 = 0 su Ω 2 \ Γ 2. Abbiamo così due problemi ellittici con condizioni al bordo di Dirichlet per i due sotto-domini Ω 1 e Ω 2, e vogliamo che le due successioni {u (k) 1 } e {u(k) 2 } tendano alle rispettive restrizioni della soluzione u del problema (4.2) quando k tende a infinito: lim k u(k) 1 = u Ω1 e lim u (k) 2 = u Ω2. k Si può dimostrare che il metodo di Schwarz applicato al problema (4.2) converge sempre alla soluzione del problema di partenza, con una velocità che aumenta all aumentare della misura Γ 12 di Γ 12. Mostriamo questo risultato in un caso semplice monodimensionale. Esempio 4.1. Sia Ω = (a, b) e siano γ 1, γ 2 (a, b) tali che a < γ 2 < γ 1 < b (si veda la Figura 4.2). I due problemi (4.3) e (4.4) diventano Lu (k) 1 = f a < x < γ 1, u (k) 1 = u (k 1) 2 x = γ 1, u (k) 1 = 0 x = a, Lu (k) 2 = f γ 2 < x < b, u (k) 2 = u (k) 1 x = γ 2, u (k) 2 = 0 x = b. Per dimostrare la convergenza di tale schema, consideriamo il problema semplificato { u (x) = 0 a < x < b, u(a) = u(b) = 0, ovvero il problema modello (4.2) con L = d 2 /dx 2 e f = 0, la cui soluzione è evidentemente u = 0 in (a, b). Sia k = 1; dal momento che (u (1) 1 ) = 0, u (1) 1 (x) è una funzione lineare e, in particolare, coincide con la retta che assume il valore zero in x = a e u (0) 2 in x = γ 1. Conoscendo dunque il valore (4.4) (4.5) (4.6) (4.7)

PSfrag replacements 98 CAPITOLO 4. DECOMPOSIZIONE DI DOMINI u (1) 1 u (2) 1 u (0) 2 u (1) 2 u (2) 2 a γ 2 γ 1 b Figura 4.3: Alcune iterazioni del metodo di Schwarz per il problema (4.7). di u (1) 1 in γ 2 si può risolvere il problema (4.6) che, a sua volta, è caratterizzato da una soluzione lineare. Si procede poi in modo analogo. Mostriamo in Figura 4.3 alcune iterazioni: si vede chiaramente che il metodo converge e che la velocità di convergenza si riduce al ridursi della lunghezza dell intervallo (γ 2, γ 1 ). Osserviamo che il metodo iterativo di Schwarz (4.3)-(4.4) richiede, ad ogni passo, la risoluzione di due sotto-problemi con condizioni al bordo dello stesso tipo di quelle del problema di partenza: infatti si parte da un problema con condizioni di Dirichlet omogenee in Ω e si risolvono due problemi con condizioni al bordo ancora di Dirichlet su Ω 1 e Ω 2. Se il problema differenziale (4.2) fosse stato completato invece da una condizione di tipo Neumann su tutto il bordo Ω, ci si sarebbe ricondotti alla risoluzione di un problema misto (di tipo Dirichlet-Neumann) su ciascuno dei sotto-domini Ω 1 e Ω 2. 4.2.2 Il metodo di Dirichlet-Neumann Decomponiamo ora il dominio Ω in due sotto-domini senza sovrapposizione (si veda la Figura 4.1): siano dunque Ω 1, Ω 2 Ω, tali che Ω 1 Ω 2 = Ω, Ω 1 Ω 2 = Γ e Ω 1 Ω 2 =. Nel seguito indicheremo con n i la normale esterna al dominio Ω i, utilizzando la seguente convenzione n = n 1 = n 2. Si può dimostrare il seguente risultato (si veda [30]): Teorema 4.1 (d equivalenza). La soluzione u del problema (4.2) è tale che u Ωi = u i per i = 1, 2, dove u i è la soluzione del problema { Lui = f in Ω i, (4.8) u i = 0 su Ω i \ Γ, con condizioni di interfaccia e su Γ, avendo indicato con / n L la derivata conormale. u 1 = u 2 (4.9) u 1 n L = u 2 n L (4.10)

4.2. TRE CLASSICI METODI ITERATIVI BASATI SU DD 99 Grazie a tale risultato di equivalenza, si può decomporre il problema (4.2) utilizzando le condizioni di accoppiamento (4.9)-(4.10) come condizioni al bordo sull interfaccia Γ. In particolare si può costruire il seguente metodo iterativo: assegnato u (0) 2 su Γ, si risolvano i seguenti problemi per k 1: Lu (k) 1 = f in Ω 1, u (k) 1 = u (k 1) 2 su Γ, u (k) 1 = 0 su Ω 1 \ Γ, Lu (k) 2 = f in Ω 2, u (k) 2 n u (k) = u(k) 1 n su Γ, 2 = 0 su Ω 2 \ Γ. (4.11) (4.12) Si è utilizzata la (4.9) come condizione di Dirichlet su Γ per il sotto-problema associato a Ω 1 e la (4.10) come condizione di Neumann su Γ per il problema assegnato su Ω 2. Si nota dunque che, a differenza del metodo di Schwarz, il metodo di Dirichlet-Neumann introduce un problema di Neumann sul secondo sotto-dominio Ω 2. La soluzione del problema di partenza è dunque ottenuta risolvendo, successivamente, un problema di Dirichlet e un problema misto sui due sotto-domini. Inoltre il Teorema di equivalenza 4.1 garantisce che, se le successioni {u (k) 1 } e {u(k) 2 } convergono, allora convergono sempre alla soluzione esatta del problema (4.2). Il metodo di Dirichlet-Neumann è dunque consistente. Tuttavia la convergenza di tale metodo non è sempre garantita. Andiamo a verificarlo con l aiuto di un semplice esempio. Esempio 4.2. Sia Ω = (a, b), γ (a, b), L = d 2 /dx 2 e f = 0. Si hanno dunque i due seguenti sotto-problemi: (u (k) 1 ) = 0 a < x < γ, u (k) 1 = u (k 1) 2 x = γ, u (k) 1 = 0 x = a, (u (k) 2 ) = 0 γ < x < b, (u (k) 2 ) = (u (k) 1 ) x = γ, u (k) 2 = 0 x = b. (4.13) (4.14) Procedendo come nell Esempio 4.1, si può dimostrare che le successioni ottenute convergono solamente se γ > (a + b)/2 come mostrato nelle Figure 4.4 e 4.5. In generale, per i problemi di dimensione generica d > 1, si deve avere che la misura del sottodominio Ω 1 sia più grande di quella del dominio Ω 2 al fine di garantire la convergenza del metodo (4.11)-(4.12). Tuttavia questo rappresenta un vincolo molto forte e difficile da soddisfare, soprattutto nel momento in cui si debbano utilizzare parecchi sotto-domini.

100 CAPITOLO 4. DECOMPOSIZIONE DI DOMINI PSfrag replacements u (0) 2 u (2) 2 a a+b 2 γ b u (1) 2 Figura 4.4: Esempio di iterazione convergente per il metodo di Dirichlet-Neumann in 1D. u (0) 2 PSfrag replacements a γ a+b 2 b u (1) 2 Figura 4.5: Esempio di iterazione non convergente per il metodo di Dirichlet-Neumann in 1D.

4.2. TRE CLASSICI METODI ITERATIVI BASATI SU DD 101 Tale limitazione viene superata introducendo una variante del metodo iterativo Dirichlet-Neumann, rimpiazzando la condizione di Dirichlet (4.11) 2 nel primo sotto-problema con la seguente u (k) 1 = θu (k 1) 2 + (1 θ)u (k 1) 1 su Γ, (4.15) introducendo cioè un rilassamento che dipende da un parametro positivo θ. Si osservi che in questo modo è sempre possibile ridurre l errore da un iterata alla successiva. Nel caso rappresentato in Figura 4.5 si può facilmente dimostrare che, se si sceglie il metodo converge in una sola iterata. θ opt = u (k 1) 1 u (k 1) 2 u (k 1) 1 Più in generale si può dimostrare che, in dimensione 1 e 2, esiste un intervallo in cui scegliere il parametro θ in modo da garantire la convergenza del metodo di Dirichlet-Neumann e, in particolare, è possibile determinare un valore massimo θ max < 1 per il parametro di rilassamento tale che l intervallo di cui sopra sia (0, θ max ). 4.2.3 Il metodo di Neumann-Neumann Si consideri ancora una partizione del dominio Ω senza sovrapposizione e sia λ il valore della soluzione u in corrispondenza dell interfaccia Γ. Introduciamo lo schema iterativo seguente: dato λ (0) su Γ, si risolvano i seguenti problemi per k 0: con u (k+1) i = f in Ω i, u (k+1) i = λ (k) su Γ, u (k+1) i = 0 su Ω i \ Γ, ψ (k+1) i = 0 in Ω i, ψ (k+1) i = u(k+1) 1 u(k+1) 2 su Γ, n n n ψ (k+1) i = 0 su Ω i \ Γ, ( λ (k+1) = λ (k) θ σ 1 ψ (k+1) 1 Γ σ 2 ψ (k+1) 2 Γ, (4.16) (4.17) ), (4.18) essendo θ un parametro d accelerazione positivo, σ 1 e σ 2 due coefficienti positivi. Esempio 4.3. Fatte per i dati le stesse scelte dell Esempio 4.2, si risolvono ora i seguenti quattro sotto-problemi: (u 1 ) = 0 a < x < γ, u (k+1) 1 = λ (k) x = γ, (4.19) u (k+1) 1 = 0 x = a,

102 CAPITOLO 4. DECOMPOSIZIONE DI DOMINI con θ, σ 1 e σ 2 definiti come sopra. (u (k+1) 2 ) = 0 γ < x < b, u (k+1) 2 = λ (k) x = γ, u (k+1) 2 = 0 x = b, (ψ (k+1) 1 ) = 0 a < x < γ, (ψ (k+1) 1 ) = (u (k+1) 1 ) (u (k+1) 2 ) x = γ, ψ (k+1) 1 = 0 x = a, (ψ (k+1) 2 ) = 0 γ < x < b, (ψ (k+1) 2 ) = (u (k+1) 1 ) (u (k+1) 2 ) x = γ, (4.20) (4.21) (4.22) ψ (k+1) 2 = 0 x = b, ( ) λ (k+1) = λ (k) θ σ 1 ψ (k+1) 1 σ 2 ψ (k+1) 2 x = γ, (4.23) 4.3 Formulazione multi-dominio del problema di Poisson ed equazioni di interfaccia In questa sezione scegliamo L = e consideriamo il problema di Poisson con condizioni al bordo di Dirichlet omogenee: { u = f in Ω, (4.24) u = 0 su Ω. Il Teorema di equivalenza 4.1 ci permette di riscrivere questo problema nella formulazione multidominio seguente: u 1 = f in Ω 1, u 1 = 0 su Ω 1 \ Γ, u 2 = f in Ω 2, u 2 = 0 su Ω 2 \ Γ, u 1 = u 2 su Γ, u 1 n = u 2 n 4.3.1 L operatore di Steklov-Poincaré su Γ. (4.25) Indichiamo ora con λ il valore incognito della soluzione u del problema (4.24) sull interfaccia Γ, cioè λ = u Γ. Se si conoscesse a priori il valore di λ su Γ, si potrebbero risolvere i due problemi

4.3. FORMULAZIONE MULTI-DOMINIO 103 seguenti con condizioni al bordo di Dirichlet, in corrispondenza di Γ, pari a λ: w i = f in Ω i (i = 1, 2), w i = 0 su Ω i \ Γ, w i = λ su Γ. (4.26) Si noti che tali problemi possono essere risolti indipendentemente uno dall altro. Il problema è dunque come ottenere il valore di λ su Γ. Possiamo scomporre intanto le funzioni w i, soluzioni di (4.26), nel seguente modo: w i = w i + u0 i, dove wi e u 0 i sono le soluzioni dei due problemi w i = f in Ω i (i = 1, 2), wi = 0 su Ω i Ω, (4.27) wi = 0 su Γ, e u 0 i = 0 in Ω i (i = 1, 2), u 0 i = 0 u 0 i = λ su Γ, su Ω i Ω, (4.28) rispettivamente. Osserviamo che le funzioni wi (i = 1, 2) dipendono solamente dal dato f, mentre u 0 i (i = 1, 2) dipende soltanto dal valore λ su Γ. Inoltre, entrambe queste dipendenze sono lineari, e quindi possiamo scrivere wi come w i = G if, con G i operatore lineare, e u 0 i come u 0 i = H iλ, essendo H i l operatore d estensione armonico di λ sul dominio Ω i, per i = 1, 2. Ora, confrontando formalmente il problema (4.25) con (4.26), si osserva che l uguaglianza u i = w i + u0 i (i = 1, 2) vale se e solamente se le funzioni w i soddisfano la condizione (4.25) 6 sulle derivate normali su Γ, ovvero se e solamente se w 1 n = w 2 su Γ. n Utilizzando le notazioni introdotte sopra, possiamo riscrivere quest ultima condizione come ovvero e quindi n (w 1 + u 0 1) = n (w 2 + u 0 2), n (G 1f + H 1 λ) = n (G 2f + H 2 λ), ( H1 n H ) ( 2 G2 λ = n n G ) 1 f su Γ. n

104 CAPITOLO 4. DECOMPOSIZIONE DI DOMINI H 1 λ λ H 2 λ a l 1 l 2 Ω 1 γ Ω 2 b Figura 4.6: Estensioni armoniche in una dimensione. Abbiamo ottenuto in tal modo un equazione sull interfaccia Γ per l incognita λ, nota come equazione d interfaccia di Steklov-Poincaré, espressa, in forma più compatta, come Sλ = χ su Γ. (4.29) S è l operatore pseudo-differenziale di Steklov-Poincaré definito formalmente come Sµ := n H 1µ n H 2µ = mentre χ è un funzionale lineare dipendente dai dati del problema: χ := n G 2f n G 1f = Ricordiamo che n i è la normale esterna al sotto-dominio Ω i, per i = 1, 2. Si noti che S = S 1 + S 2, dove S i = H i, per i = 1, 2. n i 2 i=1 2 i=1 n i H i µ, (4.30) n i G i f. (4.31) Esempio 4.4. Consideriamo un caso semplice monodimensionale per fornire un esempio di operatore S. Sia Ω = (a, b) R come illustrato in Figura 4.6 e Lu = u. Se suddividiamo Ω in due sotto-domini senza sovrapposione, l interfaccia Γ si riduce ad un punto solo γ (a, b), e l operatore di Steklov-Poincaré S diventa con l 1 = γ a e l 2 = b γ. Sλ = ( dh1 dx dh 2 dx ) ( 1 λ = + 1 ) λ, l 1 l 2 Usando la formula di Green si può fornire la seguente caratterizzazione variazionale dell operatore di Steklov-Poincaré: per i = 1, 2. Pertanto < S i λ, µ >= a i (H i λ, H i µ), λ, µ Λ = H 1/2 00 (Γ) (4.32) < Sλ, µ >= 2 a i (H i λ, H i µ), λ, µ Λ. (4.33) i=1

4.3. FORMULAZIONE MULTI-DOMINIO 105 4.3.2 Proprietà dell operatore di Steklov-Poincaré Sia Ω i R d un dominio limitato e Lipschitziano, con i = 1, 2. Definiamo lo spazio Teorema 4.2 (Disuguaglianza di Poincaré). Corollario 4.1. V i = {v H 1 (Ω i ) v = 0 su Ω i \ Γ}. v V i v 2 L 2 (Ω i ) C Ω i v 2 L 2 (Ω i ). (4.34) ( 1 + C Ωi ) 1 v H 1 (Ω i ) v L 2 (Ω i ) v H 1 (Ω i ), v V i. (4.35) Per ogni funzione v H 1 (Ω i ) è possibile definire l operatore di traccia γ : V i L 2 (Γ) t.c. γw = w Γ w C 0 (Ω) V i. È noto che, se d > 1, H 1 (Ω) C 0 (Ω) ma tale definizione può essere estesa per densità, ovvero esiste un operatore γ continuo tale che v Γ L 2 (Γ) = γv L 2 (Γ) C v H 1 (Ω i ). Inoltre, poiché γ(v i ) L 2 (Γ), si definisce l immagine di γ in L 2 (Γ) introducendo lo spazio di traccia Λ = Im(γ). Si può dimostrare che Λ L 2 (Γ) e che è possibile definire una norma sullo spazio Λ η Λ := inf v H 1 (Ω i ) v V i v Γ =η rispetto alla quale (Λ, Λ ) sia uno spazio di Banach. L operatore γ : V i rispetto a tale norma, cioè si ha che Λ è continuo C > 0 : v Γ Λ C v H 1 (Ω i ), v H 1 (Ω i ). Consideriamo ora alcune proprietà del rilevamento armonico H i η. Si consideri il problema armonico seguente (H i η) = 0 in Ω i, H i η = η su Γ, H i η = 0 su Ω i \ Γ. (4.36) La forma debole associata è data da: trovare H i η V i, con H i η = η su Γ ed η Λ, tale che Ω i (H i η) v dω i = 0 v V 0 i, (4.37) dove V 0 i = {v H 1 (Ω i ) v = 0 su Ω i }.

106 CAPITOLO 4. DECOMPOSIZIONE DI DOMINI Teorema 4.3 (Teorema di estensione). Esistono due costanti C 1, C 2 > 0 tali che C 1 η Λ H i η H 1 (Ω i ) C 2 η Λ i = 1, 2, η Λ. (4.38) Dimostrazione. Grazie alla (4.36) 2, si ha che γ(h i η) = H i η Γ = η e dunque la disuguaglianza a sinistra segue dalla continuità di γ: η Λ C H i η H 1 (Ω i ). D altro canto, poiché η Λ = Im(γ), esiste una funzione u H 1 (Ω i ) tale che γu = η. Possiamo allora riscrivere H i η come la somma H i η = u + u 0, essendo u 0 una funzione di H0 1(Ω i) tale che γu 0 = 0. La forma debole del problema (4.36) può essere riformulata come: trovare u 0 H0(Ω 1 i ) tale che u 0 v dω i = u v dω i v H0 1 (Ω i). Ω i Ω i Sia v = u 0 ; dunque u 0 2 L 2 (Ω i ) = Ω i u u 0 dω i. Grazie alla disuguaglianza di Poincaré (4.34), si ha e dunque Ma 1 1 + C Ωi u 0 2 H 1 (Ω i ) u L 2 (Ω i ) u 0 L 2 (Ω i ) u H 1 (Ω i ) u 0 H 1 (Ω i ), u 0 H 1 (Ω i ) (1 + C Ωi ) u H 1 (Ω i ). H i η H 1 (Ω i ) = u 0 + u H 1 (Ω i ) u 0 H 1 (Ω i ) + u H 1 (Ω i ) (2 + C Ωi ) u H 1 (Ω i ) e tale disuguaglianza è vera per ogni u V i tale che u Γ = η. Da ciò segue H i η H 1 (Ω i ) (2 + C Ωi ) inf u H 1 u (Ω i ) = (2 + C Ωi ) η Λ. V i u Γ =η Come abbiamo visto, l operatore di Steklov-Poincaré S può essere riscritto come la somma di due operatori S 1 e S 2 tali che S i : η Λ n i (H i η) Λ i = 1, 2. Definiamo la forma bilineare seguente su Λ: < S i η, µ >:= µ (H i η) dγ η, µ Λ. n i Γ

4.3. FORMULAZIONE MULTI-DOMINIO 107 Scriviamo la formulazione debole del problema (4.36) scegliendo una funzione test v V i : trovare H i η V i tale che (H i η) v dω i = Ω i Γ n i (H i η) v dγ. (4.39) Per ogni µ Λ, esiste R i µ V i tale che R i µ Γ = µ. Scegliendo allora v = R i µ e grazie alla (4.39), si ha < S i η, µ >= (H i η) (R i µ) dω i, (4.40) Ω i e dunque < Sη, µ >= 2 < S i η, µ >= i=1 2 i=1 Ω i (H i η) (R i µ) dω i. (4.41) Infine, essendo R i un operatore d estensione qualsiasi, possiamo fare la scelta particolare R i = H i, da cui: < S i η, µ >= (H i η) (H i µ) dω i. (4.42) Ω i Proprietà 4.1. La forma bilineare (4.42) è simmetrica, coerciva e continua. Dimostrazione. La simmetria è evidente. Per quanto riguarda la coercività, grazie alla (4.35) ed alla (4.38), si ha < S i η, η > = (H i η) 2 L 2 (Ω i ) 1 1 + C Ωi H i η 2 H 1 (Ω i ) 2 1 + C Ωi η 2 Λ, ovvero dove α è la costante positiva < S i η, η > α η 2 Λ η Λ, α := 2 1 + C Ωi. Infine, grazie ancora a (4.38), < S i η, µ >= (H i η) (H i µ) dω i (H i η) L 2 (Ω i ) (H i µ) L 2 (Ω i ) Ω i C2 2 η Λ µ Λ η, µ Λ, e dunque la forma è continua con costante di continuità β = C2 2 > 0.

108 CAPITOLO 4. DECOMPOSIZIONE DI DOMINI 4.3.3 Equivalenza tra il metodo di Dirichlet-Neumann e il metodo di Richardson Il metodo di Dirichlet-Neumann può essere reinterpretato come un metodo iterativo di Richardson precondizionato per risolvere l equazione d interfaccia di Steklov-Poincaré. Consideriamo ancora un dominio Ω suddiviso in due sotto-domini senza sovrapposizione Ω 1 e Ω 2 con interfaccia Γ. Nella Sezione 4.2.2 abbiamo considerato il metodo di Dirichlet-Neumann, e dopo aver introdotto l equazione d interfaccia di Steklov-Poincaré abbiamo anticipato che tale metodo è equivalente allo schema di Richardson applicato alla risoluzione dell equazione di Steklov-Poincaré su Γ. Vogliamo dimostrare ora tale risultato di equivalenza sul problema di Laplace. Ricordiamo innanzitutto il metodo di Dirichlet-Neumann: dato λ 0, si risolva, per k 1, u 1 = f 1 in Ω 1, u (k) 1 = λ (k 1) su Γ, u (k) 1 = 0 su Ω 1 \ Γ, u (k) 2 = f 2 in Ω 2, u (k) 2 n 2 = u(k) 1 su Γ, n 2 u (k) 2 = 0 su Ω 2 \ Γ, (4.43) (4.44) λ (k) = θu (k) 2 Γ + (1 θ)λ (k 1). (4.45) Ricordiamo anche il metodo di Richardson precondizionato per l equazione d interfaccia di Steklov-Poincaré (4.29): P (λ (k) λ (k 1) ) = θ(χ Sλ (k 1) ), (4.46) essendo P un precondizionatore opportuno. Si ha il risultato seguente: Teorema 4.4. Il metodo di Dirichlet-Neumann (4.43)-(4.45) è equivalente al metodo di Richardson precondizionato (4.46) con precondizionatore P = S 2 = (H 2 µ)/ n 2. In versione algebrica tale metodo è equivalente allo schema di Richardson precondizionato con precondizionatore P h = Σ 2. P h (λ (k) λ (k 1) ) = θ(χ Γ Σλ (k 1) ), Dimostrazione. Consideriamo innanzitutto il caso differenziale. Abbiamo già visto che la soluzione u (k) 1 di (4.43) può essere scritta come u (k) 1 = H 1 λ (k 1) + G 1 f 1. (4.47)

4.3. FORMULAZIONE MULTI-DOMINIO 109 Inoltre G 2 f 2 soddisfa il problema differenziale { (G2 f 2 ) = f 2 in Ω 2, G 2 f 2 = 0 su Ω 2. Dunque, dalla (4.44) si ha che u (k) 2 G 2 f 2 soddisfa l equazione (u (k) 2 G 2 f 2 ) = 0 sul dominio Ω 2, assieme alla condizione u (k) 2 G 2 f 2 = 0 su Ω 2 \ Γ, e (u (k) 2 G 2 f 2 ) = u(k) 2 (G 2 f 2 ) n 2 n 2 n 2 = u(k) 1 (G 2 f 2 ) = u(k) 1 n 2 n 2 n + n (G 2f 2 ) su Γ, con n = n 1 = n 2, essendo n i la normale esterna al dominio Ω i. Si ha allora che u (k) 2 G 2 f 2 è la soluzione del problema differenziale (u (k) 2 G 2 f 2 ) = 0 in Ω 2, (u (k) n 2 G 2 f 2 ) = u(k) 1 2 n + n (G 2f 2 ) su Γ, u (k) 2 G 2 f 2 = 0 su Ω 2 \ Γ. In particolare u (k) 2 Γ = (u (k) 2 G 2 f 2 ) Γ. Ora ricordiamo che S i : µ Γ n i (H i µ) Γ (i = 1, 2), (4.48) cioè che l operatore di Steklov-Poincaré ci permette di passare da un dato di Dirichlet ad un dato di Neumann su Γ. Il suo inverso S 1 i, partendo da un dato di Neumann, ci fornisce invece un dato di Dirichlet su Γ. Si può esprimere ciò dicendo anche che S2 1 η = µ se esiste w tale che w Γ = µ e w è la soluzione del seguente problema: w = 0 in Ω 2, w = η su Γ, (4.49) n 2 w = 0 su Ω 2 \ Γ. Allora, se si pone η = u(k) 1 n + n (G 2f 2 ), e se si confronta la (4.48) con la (4.49), si può concludere che ( u (k) 2 Γ = (u (k) 2 G 2 f 2 ) Γ = S 1 2 u(k) 1 n + n (G 2f 2 ) ).

110 CAPITOLO 4. DECOMPOSIZIONE DI DOMINI Ma, grazie alla (4.47), si ottiene u (k) 2 Γ = S2 1 ( n (H 1λ (k 1) ) n (G 1f 1 ) + n (G 2f 2 ) ) = S 1 2 ( S 1λ (k 1) + χ), ricordata la definizione (4.31) di χ. Utilizzando la (4.45), possiamo dunque scrivere che Ma S 1 = S 2 S, dunque λ (k) = θ [ S 1 2 ( S 1λ (k 1) + χ) ] + (1 θ)λ (k 1) λ (k) λ (k 1) = θ [ S 1 2 ( S 1λ (k 1) + χ) λ (k 1)]. λ (k) λ (k 1) = θ [ S 1 2 ((S 2 S)λ (k 1) + χ) λ (k 1)] = θs 1 2 (χ Sλ (k 1) ), ovvero S 2 (λ (k) λ (k 1) ) = θ(χ Sλ (k 1) ). 4.4 Approssimazione con elementi finiti del problema di Poisson e formulazione per sotto-domini In questa sezione introduciamo l approssimazione discreta del problema (4.24) basata sullo schema degli elementi finiti, e studiamo la forma algebrica della corrispondente formulazione multi-dominio (4.25) e dell equazione d interfaccia di Steklov-Poincaré (4.29). Innanzitutto identifichiamo V con lo spazio H 1 0(Ω) definito in (1.50). Dal Capitolo 1, ne segue che, indicata con T h una triangolazione del dominio Ω, la formulazione alla Galerkin del problema (4.24) può essere scritta come con trovare u h V h : a(u h, v h ) = F (v h ) v h V h, (4.50) a(w 1, w 2 ) = Ω F (v) = w 1 w 2 dω w 1, w 2 V, (4.51) Ω f v dω v V, (4.52) V h = X k h, Ω = { v h X k h : v h Ω = 0 } spazio degli elementi finiti di grado k con base {ϕ j } N h j=1. Introduciamo la partizione seguente dei nodi del dominio Ω: siano {x (1) j, 1 j N 1 } i nodi ubicati dentro il sotto-dominio Ω 1, {x (2) j, 1 j N 2 } quelli in Ω 2 e, infine, {x (Γ) j, 1 j N Γ } quelli posizionati sull interfaccia Γ. Ripartiamo in modo analogo anche le funzioni di base:

4.4. APPROSSIMAZIONE CON ELEMENTI FINITI 111 indicheremo dunque con ϕ (1) j le funzioni di base associate ai nodi x (1) j, con ϕ (2) j quelle associate ai nodi x (2) j, e con ϕ (Γ) j quelle relative ai nodi x (Γ) j di interfaccia. Ciò significa che ϕ (α) j (x (β) j ) = { δij 1 i, j N α se α = β, 0 se α β, con α, β = 1, 2, Γ, e δ ij il simbolo di Kronecker. Scelto ora in (4.50) v h coincidente con una funzione test, possiamo dare la seguente formulazione equivalente della (4.50): trovare u h V h tale che Sia ora a(u h, ϕ (1) i ) = F (ϕ (1) i ) i = 1,..., N 1 a(u h, ϕ (2) j ) = F (ϕ (2) j ) j = 1,..., N 2 a(u h, ϕ (Γ) k ) = F (ϕ(γ) k ) k = 1,..., N Γ. a i (v, w) := v w dω v, w V, i = 1, 2 Ω i (4.53) la restrizione della forma bilineare a(.,.) al sotto-dominio Ω i e V i,h = {v H 1 (Ω i ) v = 0 su Ω i \ Γ} (i = 1, 2). Analogamente sia F i la restrizione del funzionale lineare F al sottodominio Ω i, per i = 1, 2. Indichiamo infine con u (i) h = u h Ωi la restrizione di u h al sotto-dominio Ω i, con i = 1, 2. Il problema (4.53) può così essere riscritto nella forma equivalente: trovare u (1) h V 1,h, u (2) h V 2,h tali che a 1 (u (1) h, ϕ(1) i ) = F 1 (ϕ (1) i ) i = 1,..., N 1, a 2 (u (2) h, ϕ(2) j ) = F 2 (ϕ (2) j ) j = 1,..., N 2 (4.54) a 1 (u (1) h, ϕ(γ) k Ω 1 ) + a 2 (u (2) h, ϕ(γ) k Ω 2 ) = F 1 (ϕ (Γ) k Ω 1 ) + F 2 (ϕ (Γ) k Ω 2 ) k = 1,..., N Γ. Si osservi che la condizione (4.25) 5 di continuità della soluzione all interfaccia è automaticamente verificata grazie alla definizione delle funzioni u (i) h. Osserviamo inoltre che le equazioni (4.54) 1 -(4.54) 3 corrispondono alla discretizzazione ad elementi finiti delle (4.25) 1 -(4.25) 6, rispettivamente. Possiamo ora esprimere la funzione u h come una somma rispetto alla base dello spazio V h : u h (x) = N 1 j=1 u h (x (1) j )ϕ (1) j (x) + j=1 N 2 j=1 u h (x (2) j )ϕ (2) j (x) N Γ + u h (x (Γ) j )ϕ (Γ) j (x), (4.55) dove u h (x (α) j ), con α = 1, 2, Γ, sono i coefficienti della combinazione lineare, indicati d ora in avanti come u (α) j = u h (x (α) j ), per j = 1,..., N α e α = 1, 2, Γ.

112 CAPITOLO 4. DECOMPOSIZIONE DI DOMINI Utilizzando la relazione (4.55), possiamo riscrivere il problema (4.54) nel seguente modo: N 1 N Γ u (1) j a 1 (ϕ (1) j, ϕ (1) i ) + u (Γ) j a 1 (ϕ (Γ) j, ϕ (1) i ) = F 1 (ϕ (1) i ) i = 1,..., N 1, j=1 N 2 j=1 N Γ j=1 u (2) j a 2 (ϕ (2) j, ϕ (2) i ) + u (Γ) j N 1 + j=1 [ a 1 (ϕ (Γ) j u (1) = F 1 (ϕ (Γ) i, ϕ (Γ) i j=1 N Γ j=1 j a 1 (ϕ (1) j, ϕ (Γ) i ) + u (Γ) j a 2 (ϕ (Γ) j, ϕ (2) i ) = F 2 (ϕ (2) i ) i = 1,..., N 2, ) + a 2 (ϕ (Γ) j, ϕ (Γ) i ) N 2 u (2) j=1 ] j a 2 (ϕ (2) j, ϕ (Γ) i ) Ω1 ) + F 2 (ϕ (Γ) i Ω2 ) i = 1,..., N Γ. Introduciamo ora le seguenti matrici e vettori: e sia ( con u 1 = u (1) j ) (, u 2 = (A 11 ) ij = a 1 (ϕ (1) j, ϕ (1) i ), (A 1Γ ) ij = a 1 (ϕ (Γ) j, ϕ (1) i ), (A 22 ) ij = a 2 (ϕ (2) j, ϕ (2) i ), (A 2Γ ) ij = a 2 (ϕ (Γ) j, ϕ (2) i ), (A 1 ΓΓ ) ij = a 1(ϕ (Γ) j, ϕ (Γ) (A Γ1 ) ij = a 1 (ϕ (1) j, ϕ (Γ) i ), (A 2 ΓΓ ) ij = a 2(ϕ (Γ) j i ), (A Γ2 ) ij = a 2 (ϕ (2) j, ϕ (Γ) i ),, ϕ (Γ) i ), (f 1 ) i = F 1 (ϕ (1) i ), (f 2 ) i = F 2 (ϕ (2) i ), ( f Γ 1 )i = F 1(ϕ (Γ) ( i ), f Γ 2 )i = F 2(ϕ (Γ) i, ϕ (1) i ), u (2) j u = (u 1, u 2, λ) T, ) ( ) e λ =. u (Γ) j (4.56) Il problema (4.56) può dunque essere scritto in forma algebrica nel seguente modo: A 11 u 1 + A 1Γ λ = f 1, A 22 u 2 + A 2Γ λ = f 2, (4.57) ( ) A Γ1 u 1 + A Γ2 u 2 + A (1) ΓΓ + A(2) ΓΓ λ = f1 Γ + f 2 Γ, o, in forma matriciale, come Au = f, ovvero A 11 0 A 1Γ u 1 f 1 0 A 22 A 2Γ u 2 = f 2, (4.58) A Γ1 A Γ2 A ΓΓ λ f Γ ( ) avendo indicato con A ΓΓ = A (1) ΓΓ + A(2) ΓΓ e con f Γ = f1 Γ + f 2 Γ.

4.4. APPROSSIMAZIONE CON ELEMENTI FINITI 113 4.4.1 Il complemento di Schur Consideriamo ora l equazione all interfaccia di Steklov-Poincaré (4.29). Vogliamo approssimarla con gli elementi finiti. Poiché λ rappresenta il valore di u su Γ, essa corrisponde, in dimensione finita, al vettore λ dei valori di u h sull interfaccia. Applicando il metodo di eliminazione Gaussiana al sistema (4.58), possiamo scrivere un problema algebrico per l incognita vettoriale λ. Le matrici A 11 e A 22 sono invertibili in quanto associate a due problemi di Dirichlet omogenei per l equazione di Laplace, e quindi si può facilmente ricavare e Si può allora rimpiazzare (4.59) e (4.60) in (4.57), ottenendo così: u 1 = A 1 11 (f 1 A 1Γ λ), (4.59) u 2 = A 1 22 (f 2 A 2Γ λ). (4.60) A Γ1 A 1 11 (f 1 A 1Γ λ) + A Γ2 A 1 22 (f 2 A 2Γ λ) + ( A (1) ΓΓ + A(2) ΓΓ ) λ = f Γ, ovvero [( ) ( )] A (1) ΓΓ A Γ1A 1 11 A 1Γ + A (2) ΓΓ A Γ2A 1 22 A 2Γ λ = f Γ A Γ1 A 1 11 f 1 A Γ2 A 1 22 f 2. Introduciamo ora le seguenti definizioni: (4.61) e Σ i := A (i) ΓΓ A ΓiA 1 ii A iγ i = 1, 2, (4.62) Σ := Σ 1 + Σ 2, (4.63) χ Γ := f Γ A Γ1 A 1 11 f 1 A Γ2 A 1 22 f 2. (4.64) Dalla (4.61) possiamo allora derivare l approssimazione ad elementi finiti desiderata per l equazione di Steklov-Poincaré (4.29): Σλ = χ Γ, (4.65) rappresentando Σ e χ Γ le approssimazioni alla Galerkin di S e χ, rispettivamente. La matrice Σ rappresenta il cosiddetto complemento di Schur della matrice A rispetto alle incognite vettoriali u 1 e u 2, mentre le matrici Σ i sono i complementi di Schur relativi ai sotto-domini Ω i (i = 1, 2). Il problema (4.65) è un sistema lineare nella sola incognita λ. Risolto tale sistema rispetto all incognita λ, in virtù delle (4.59) e (4.60), possiamo calcolare u 1 e u 2. Tale calcolo equivale a risolvere due problemi di Poisson in corrispondenza dei due sotto-domini Ω 1 e Ω 2, con condizione al bordo di Dirichlet u (i) h Γ = λ h, (i = 1, 2), sull interfaccia Γ. Per quanto concerne le proprietà del complemento di Schur Σ rispetto alla matrice A, si può dimostrare il risultato seguente:

114 CAPITOLO 4. DECOMPOSIZIONE DI DOMINI Lemma 4.1. La matrice Σ soddisfa le proprietà seguenti: 1. se A è una matrice singolare, allora Σ è singolare; 2. se A (rispettivamente, A ii ) è simmetrica, allora Σ (rispettivamente, Σ i ) è simmetrica; 3. se A è definita positiva, allora Σ è definita positiva. Per quanto riguarda il numero di condizionamento delle matrici A e Σ, si ricorda che A è una matrice mal condizionata, il suo numero di condizionamento essendo dato da K(A) C h 2. Quanto alla matrice Σ, si può invece dimostrare che K(Σ) C h. (4.66) Osserviamo infine che, nel caso specifico preso in considerazione, la matrice A (e dunque la matrice Σ, grazie al Lemma 4.1) è una matrice simmetrica definita positiva. È possibile dunque utilizzare il metodo del Gradiente Coniugato per risolvere il sistema (4.65). Ad ogni passo, bisognerà risolvere due problemi di Dirichlet indipendenti sui sotto-domini Ω i. 4.4.2 L operatore di Steklov-Poincaré discreto Ci proponiamo di trovare l operatore discreto associato al complemento di Schur. A tal fine definiamo, oltre allo spazio V i,h introdotto all inizio di questa sezione, lo spazio Vi,h 0 generato dalle funzioni {ϕ (i) j } associate ai soli nodi interni al dominio Ω i, e lo spazio Λ h generato dall insieme {ϕ (Γ) j }. La formulazione discreta del problema (4.37) può così essere espressa come: trovare Γ H i,h η h V i,h, con H i,h η h = η h su Γ, tale che (H i,h η h ) v h dω i = 0 v h Vi,h 0. (4.67) Ω i Riscriviamo la soluzione H i,h η h come combinazione lineare delle funzioni di base N i H i,h η h = u (i) j ϕ(i) j + j=1 N Γ k=1 η k ϕ (Γ) k Ωi, arrivando così a riscrivere la (4.67) sotto forma matriciale come A ii u (i) = A iγ η. (4.68) Il teorema d estensione uniforme enunciato nel caso continuo vale analogamente nel caso discreto:

4.4. APPROSSIMAZIONE CON ELEMENTI FINITI 115 Teorema 4.5. Esistono due costanti Ĉ1, Ĉ2 > 0 che dipendono dalle dimensioni relative di Ω 1 e Ω 2 ma independenti da h, tali che Ĉ 1 η h Λ H i,h η h H 1 (Ω i ) Ĉ2 η h Λ i = 1, 2, η h Λ h. (4.69) Dimostrazione. Poiché η h è la traccia sull interfaccia Γ sia di H 1,h η h che di H 2,h η h, esistono, grazie alla disuguaglianza di traccia, due costanti C 1 e C 2 positive, tali che η h Λ C i H i,hη h H 1 (Ω i ) η h Λ h, i = 1, 2. La prima disuguaglianza della (4.69) è dunque immediatamente verificata fatta la scelta D altro canto, abbiamo che Ora, grazie al Teorema 4.3, si ha che ( 1 Ĉ 1 = min, C1 1 C 2 ). H i,h η h H 1 (Ω i ) H i,h η h H i η h H 1 (Ω i ) + H i η h H 1 (Ω i ). (4.70) H i η h H 1 (Ω i ) C 2 η h Λ i = 1, 2. Poiché η h è una funzione polinomiale a tratti e continua sull interfaccia Γ, la soluzione H i η h appartiene ad un opportuno spazio di Sobolev H 1+s (Ω i ), con s > 1/2. Vale dunque la seguente stima di regolarità: H i η h H 1+s (Ω i ) C η h H 1/2+s (Γ). Sul primo termine della (4.70) utilizziamo invece la stima per l errore di discretizzazione degli elementi finiti: H i,h η h H i η h H 1 (Ω i ) Ch s H i η h H 1+s (Ω i ). Infine, grazie alla disuguaglianza inversa standard, si ha che h s η h H 1/2+s (Γ) C η h Λ η h Λ h, con C costante indipendente da h. Possiamo quindi concludere che, per un opportuna costante Ĉ 2 indipendente da h, H i,h η h H 1 (Ω i ) Ĉ2 η h Λ ovvero dimostrare la seconda disuguaglianza della (4.69). Partendo da tale teorema, è facile verificare il seguente risultato Corollario 4.2. Gli operatori discreti di Steklov-Poincaré S 1,h, S 2,h e S h = S 1,h + S 2,h sono continui e coercivi in Λ h, uniformemente rispetto ad h. Inoltre sono equivalenti spettralmente in modo uniforme (ovvero le costanti dell equivalenza spettrale non dipendono da h).

116 CAPITOLO 4. DECOMPOSIZIONE DI DOMINI Corollario 4.3. Esistono due costanti K 1, K 2 > 0, independenti da h, tali che K 1 H 1,h η h H 1 (Ω 1 ) H 2,h η h H 1 (Ω 2 ) K 2 H 1,h η h H 1 (Ω 1 ) η h Λ h. (4.71) Possiamo a questo punto fornire la seguente Definizione 4.1. Definiamo l operatore S i,h : Λ h Λ h dato da < S i,h η h, µ h >= (H i,h η h ) (H i,h µ h ), η h, µ h Λ h. (4.72) Ω i Lemma 4.2. L operatore di Steklov-Poincaré discreto può essere espresso in funzione del complemento di Schur come < S i,h η h, µ h >= µ T Σ i η dove e N Γ η h = η k ϕ (Γ) k Γ, µ h = k=1 Pertanto, S h = S 1,h + S 2,h verifica la relazione Dimostrazione. Si ha: N Γ k=1 µ k ϕ (Γ) k Γ η = (η 1,..., η NΓ ) T, µ = (µ 1,..., µ NΓ ) T. < S i,h η h, µ h > = a i (H i,h η h, H i,h µ h ) ( N Γ = a i j=1 < S h η h, µ h >= µ T Σ η. (4.73) u j ϕ (i) j + N Γ k=1 η k ϕ (Γ) N Γ k Ωi, l=1 w l ϕ (i) l + N Γ m=1 µ m ϕ (Γ) m Ωi ) = N Γ j,l=1 w l a i (ϕ (i) j, ϕ(i) l )u j + N Γ j,m=1 µ m a i (ϕ (i) j, ϕ(γ) m Ωi )u j + Ma, usando la (4.68), si ottiene: N Γ k,l=1 w l a i (ϕ (Γ) k Ωi, ϕ (i) l )η k + N Γ k,m=1 = w T A ii u + µ T A Γi u + w T A iγ η + µ T A (i) ΓΓ η. µ m a i (ϕ (Γ) k Ωi, ϕ (Γ) m Ωi )η k < S i,h η h, µ h > = w T A iγ η µ T A Γi A 1 ii A iγη + w T A iγ η + µ T A (i) ( ) = µ T A (i) ΓΓ A ΓiA 1 ii A iγ η = µ T Σ i η. ΓΓ η

4.4. APPROSSIMAZIONE CON ELEMENTI FINITI 117 Grazie al Teorema 4.5 d estensione uniforme per il caso discreto ed alla (4.72), si può dimostrare l esistenza di due costanti ˆK 1, ˆK2 > 0, indipendenti da h, tali che ˆK 1 < S 1,h µ h, µ h > < S 2,h µ h, µ h > ˆK 2 < S 1,h µ h, µ h > µ h Λ h. (4.74) Infine, utilizzando il Lemma 4.2 e la (4.74), si può affermare che esistono due costanti K 1, K2 > 0, indipendenti da h, tali che K 1 ( µ T Σ 1h µ ) µ T Σ 2h µ K 2 ( µ T Σ 1h µ ) µ R N Γ. (4.75) 4.4.3 Equivalenza tra il metodo di Dirichlet-Neumann e il metodo di Richardson precondizonato: il caso algebrico Dimostriamo ora il risultato di equivalenza del Teorema 4.4 nel caso algebrico. L approssimazione con elementi finiti dei problemi (4.43)-(4.44) si scrive in forma matriciale come [ A22 A 2Γ A Γ2 A (2) ΓΓ mentre la (4.45) diventa A 11 u (k) 1 = f 1 A 1Γ λ (k 1), (4.76) ] [ u (k) 2 λ (k 1/2) ] [ = f 2 f Γ A Γ1 u (k) 1 A (1) ΓΓ λ(k 1) ], (4.77) λ (k) = θλ (k 1/2) + (1 θ)λ (k 1). (4.78) Eliminiamo u (k) 2 dalla (4.77) usando il metodo di Gauss: ( ) A (2) ΓΓ A Γ2A 1 22 A 2Γ λ (k 1/2) = f Γ A Γ1 u (k) 1 A (1) ΓΓ λ(k 1) A Γ2 A 1 22 f 2. Grazie alla definizione (4.62) di Σ 2 ed alla (4.76), si ha Σ 2 λ (k 1/2) = f Γ A Γ1 A 1 11 f 1 A Γ2 A 1 22 f 2 ovvero, usando la definizione (4.62) di Σ 1 e la (4.64), Ora, in virtù della (4.78), ricaviamo λ (k) = θσ 1 2 λ (k 1/2) = Σ 1 2 ( ) A (1) ΓΓ A Γ1A 1 11 A 1Γ λ (k 1), (χ Γ Σ 1 λ (k 1) ). ) (χ Γ Σ 1 λ (k 1) + (1 θ)λ (k 1), cioè, poiché Σ 1 = Σ + Σ 2 : ) λ (k) = θσ 1 2 (χ Γ Σλ (k 1) + Σ 2 λ (k 1) + (1 θ)λ (k 1) ;

118 CAPITOLO 4. DECOMPOSIZIONE DI DOMINI Dunque abbiamo λ (k) λ (k 1) = θσ 1 2 (χ Γ Σλ (k 1) ). Σ 2 (λ (k) λ (k 1) ) = θ(χ Γ Σλ (k 1) ), ovvero il metodo di Richardson per il sistema Σλ = χ Γ con precondizionatore Σ 2. Osservazione 4.1. Il precondizionatore del metodo di Dirichlet-Neumann è sempre l operatore di Steklov-Poincaré associato al sotto-dominio su cui si risolve il problema di Neumann. Dunque, se si risolve il problema di Dirichlet su Ω 2 e quello di Neumann su Ω 1, il precondizionatore per il metodo di Richardson sarà S 1 anziché S 2. Per quanto riguarda il condizionamento del sistema Σλ = χ Γ, dalla (4.66) si ha che la matrice Σ è mal condizionata. L uso di un precondizionatore per la risoluzione di tale sistema è dunque fortemente raccomandato. Nella Sezione 4.6 considereremo il problema della costruzione di un opportuno precondizionatore per l equazione di Steklov-Poincaré. Possiamo comunque proporre già fin d ora i precondizionatori Σ i, i = 1, 2, per i quali si può dimostrare il seguente risultato: Teorema 4.6. Se si sceglie come precondizionatore P h = Σ 1 o P h = Σ 2, allora il numero di condizionamento spettrale K(P 1 Σ) è indipendente da h, ovvero h K(Σ 1 i Σ) = O(1), i = 1, 2. Corollario 4.4. Il numero d iterazioni del metodo di Dirichlet-Neumann è indipendente da h. Osservazione 4.2. Per quel che concerne il metodo di Neumann-Neumann introdotto nella Sezione 4.2.3, si può dimostrare un risultato dello stesso tipo di quello enunciato nel Teorema 4.4, il che ci garantisce che questo metodo è equivalente al metodo di Richardson per l equazione di Steklov-Poincaré con precondizionatore Nel caso algebrico P 1 = σ 1 S 1 1 + σ 2 S 1 2. P 1 h = σ 1 Σ 1 1 + σ 2 Σ 1 2 con σ 1 e σ 2 coefficienti positivi opportuni. Si può inoltre dimostrare che K((σ 1 Σ 1 1 + σ 2 Σ 1 2 )Σ) = O(1) ovvero che, anche per lo schema di Neumann-Neumann, il numero di iterazioni è indipendente dal parametro h. Ricordiamo la definizione seguente:

4.5. GENERALIZZAZIONE AL CASO DI PIÙ SOTTO-DOMINI 119 Definizione 4.2. Sia Ax = b un sistema lineare con A R N N. Un precondizionatore P per A è detto ottimale se il numero di condizionamento di P 1 A è uniformemente limitato rispetto alla dimensione N della matrice A. Possiamo allora concludere che, per la risoluzione del sistema Σλ = χ Γ, si può ricorrere ai seguenti precondizionatori ottimali: P 1 h = Σ 1 2 per il metodo di Dirichlet-Neumann, Σ 1 1 per il metodo di Neumann-Dirichlet, σ 1 Σ 1 1 + σ 2 Σ 1 2 per il metodo di Neumann-Neumann. (4.79) Anticipiamo il fatto che nel caso di molti sotto-domini tale risultato non risulta più essere valido nel senso che, se si considera, ad esempio, il metodo di Dirichlet-Neumann, si dovranno risolvere M/2 problemi di Dirichlet in Ω 1 e M/2 problemi di Neumann in Ω 2, ma il precondizionatore Σ 2 non è più ottimale per questo algoritmo. In questo caso il numero di condizionamento della matrice Σ è così maggiorabile K(Σ) C H, (4.80) hh 2 min essendo H il diametro massimo dei sotto-domini e H min quello minimo. Ricordiamo che il metodo di Dirichlet-Neumann è equivalente ad uno schema di Richardson con precondizionatore Σ 2 : Σ 2 (λ (k+1) λ (k) ) = θ(χ Γ Σλ (k) ), mentre il metodo di Neumann-Neumann è equivalente allo schema di Richardson con precondizionatore P 1 h,nn = (Σ 1 1 + Σ 1 2 )/2 (si rimanda alla (4.79) per σ 1 = σ 2 = 1/2). Ora, dalla teoria della convergenza del metodo iterativo di Richardson, sappiamo che la velocità di convergenza ottimale è data da ρ = 1 K(Ph Σ) 1 Σ) + 1, K(P 1 h da cui, ricordando la (4.75), segue il risultato seguente: Teorema 4.7. Il numero di condizionamento di P 1 h Σ è indipendente da h quando P h = Σ 2 ovvero P h = P h,nn. Conseguentemente, la velocità di convergenza non dipende da h, cioè questi due precondizionatori sono ottimali. 4.5 Generalizzazione al caso di più sotto-domini Vogliamo ora generalizzare i risultati ottenuti nelle sezioni precedenti al caso in cui il dominio Ω sia suddiviso in un numero M > 2 arbitrario di sotto-domini (vedremo svariati esempi nel seguito).

120 CAPITOLO 4. DECOMPOSIZIONE DI DOMINI Indichiamo con Ω i, con i = 1,..., M, gli M sotto-domini senza sovrapposizione tali che Ω i = Ω, Γ i = Ω i \ Ω e Γ = Γ i. A livello differenziale si può generalizzare la formulazione (4.25) del problema di Poisson (4.24) affermando che è equivalente alla seguente formulazione u i = f in Ω i, i = 1,..., M, u i = u k su Γ ik, u i = u (4.81) k su Γ ik, n i n i u i = 0 su Ω i Ω, con Γ ik = Ω i Ω k e dove n i indica la normale esterna al sotto-dominio Ω i. A livello discreto, seguendo le idee presentate nella Sezione 4.4 ed indicando con u = (u I, u Γ ) T il vettore delle incognite scomposto in quelle relative ai nodi interni (u I ) e a quelli sull interfaccia Γ (u Γ ), si può pervenire alla formulazione algebrica seguente [ ] [ ] [ ] AII A IΓ ui fi =, (4.82) A ΓI A ΓΓ essendo A ΓI = A T IΓ. Osserviamo che ogni sotto-dominio interno non comunica con gli altri, e dunque A II coincide con la matrice diagonale a blocchi A 11 0... 0 0.... A II =.... 0. 0... 0 A MM Al contrario A IΓ è una matrice a banda, poiché ci sono delle intersezioni solamente con le interfacce locali Γ i, ma non con le interfacce locali non adiacenti al sotto-dominio considerato. Su ciascun sotto-dominio ci troveremo dunque a risolvere un problema di Neumann che è rappresentato dalla matrice locale [ ] Aii A iγ A i = A Γi A (i) ΓΓ, con (A ii ) lj = a i (ϕ j, ϕ l ) 1 l, j N i, u Γ (A (i) ΓΓ ) sr = a i (ψ r, ψ s ) 1 r, s N Γi, (A iγ ) lr = a i (ψ r, ϕ l ) 1 r N Γi 1 l N i, essendo N i il numero di nodi in Ω i, N Γi quello dei nodi sull interfaccia Γ i, ϕ j e ψ r le funzioni di base associate ai nodi interni e di interfaccia, rispettivamente. La matrice A II è non singolare, e dunque dalla (4.82) possiamo ricavare f Γ u I = A 1 II (f I A IΓ u Γ ). (4.83)

4.5. GENERALIZZAZIONE AL CASO DI PIÙ SOTTO-DOMINI 121 Eliminando l incognita u I del sistema (4.82), si ha ovvero Ora ponendo e ed introducendo λ = u Γ, la (4.84) diviene A ΓΓ u Γ = f Γ A ΓI A 1 II (f I A IΓ u Γ ), ( AΓΓ A ΓI A 1 II A ) IΓ uγ = f Γ A ΓI A 1 II f I. (4.84) Σ := A ΓΓ A ΓI A 1 II A IΓ χ Γ := f Γ A ΓI A 1 II f I, Σλ = χ Γ. (4.85) L equazione (4.85) è dunque l approssimazione agli elementi finiti del problema all interfaccia di Steklov-Poincaré nel caso di M sotto-domini. Un algoritmo generale per risolvere il problema di Poisson su Ω potrà dunque essere così formulato: 1. calcolare la soluzione di (4.85) per ottenere il valore di λ sull interfaccia Γ; 2. risolvere (4.83) e, poiché A II è una matrice diagonale a blocchi, ciò implica la risoluzione parallela di M problemi indipendenti di dimensione ridotta su ciascun sotto-dominio, ovvero A ii u i I = gi, i = 1,..., M. 4.5.1 Alcuni risultati numerici Consideriamo il problema modello { u = f in Ω = (0, 1) 2, u = 0 su Ω, (4.86) la cui formulazione ad elementi finiti coincide con la (4.50). Decomponiamo il dominio Ω in M regioni quadrate Ω i, di dimensione caratteristica H, tali che M i=1 Ω i = Ω. Un esempio di tale decomposizione basata su 4 sotto-domini è riportato in Figura 4.7 (sulla sinistra). In Tabella 4.1 riportiamo i valori numerici di K(Σ) relativi al problema in esame. Possiamo osservare che K(Σ) cresce linearmente con 1/h e con 1/H, come indicato dalla formula (4.80) per H min = H. In Figura 4.7 (sulla destra) riportiamo il pattern di sparsità della matrice Σ associata alle scelte h = 1/8 e H = 1/2. La matrice ha una struttura a blocchi, che tiene conto delle interfacce Γ 1, Γ 2, Γ 3 e Γ 4, più il contributo dovuto al punto di intersezione Γ c delle quattro interfacce. Si osservi che Σ è densa. Per questo motivo, quando si utilizzano metodi iterativi per risolvere il sistema (4.85), non è conveniente, dal punto di vista dell occupazione

122 CAPITOLO 4. DECOMPOSIZIONE DI DOMINI K(Σ) H = 1/2 H = 1/4 H = 1/8 h=1/8 9.77 14.83 25.27 h=1/16 21.49 35.25 58.60 h=1/32 44.09 75.10 137.73 h=1/64 91.98 155.19 290.43 Tabella 4.1: Numero di condizionamento del complemento di Schur Σ. 0 5 Γ 1 PSfrag replacements Γ 4 PSfrag replacements Γ 2 Γ 3 Γ c Γ 1 Γ 1 Γ 2 Γ 3 Γ 4 Γ c 10 15 20 25 30 0 5 10 15 20 25 30 nz = 597 Γ 2 Γ c Γ 3 Γ 4 Figura 4.7: Esempio di decomposizione del dominio Ω = (0, 1) 2 in quattro sotto-domini quadrati (a sinistra). Pattern di sparsità del complemento di Schur Σ (sulla destra) associato alla decomposizione di domini riportata sulla sinistra. di memoria, calcolare in modo esplicito gli elementi di Σ. Al contrario, usando l Algoritmo 4.1 è possibile calcolare il prodotto Σx Γ, per ogni vettore x Γ. In tale algoritmo abbiamo indicato con R Γi : Γ Γ i = Ω i \ Ω un opportuno operatore di restrizione, mentre x y indica l operazione x = x + y. Algoritmo 4.1 (applicazione del complemento di Schur). Dato x Γ, calcolare y Γ = Σx Γ nel modo seguente: a. Porre y Γ = 0 b. For i = 1,..., M Do in parallelo: c. x i = R Γi x Γ d. z i = A iγi x i e. z i A 1 ii z i f. sommare nel vettore globale y Γi A Γi Γ i x i A Γi iz i g. sommare nel vettore globale y Γ RΓ T i y Γi h. EndFor Si osservi che l Algoritmo 4.1 è completamente parallelo, nel senso che non è richiesta alcuna comunicazione tra i vari sotto-domini. Prima di utilizzare per la prima volta il complemento di Schur, è necessario avviare una fase di startup descritta nell Algoritmo 4.2. Questo è un calcolo off-line.

4.6. PRECONDIZIONATORI NEL CASO DI PIÙ SOTTO-DOMINI 123 Algoritmo 4.2 (fase di startup per la risoluzione del sistema associato al complemento di Schur). Dato x Γ, calcolare y Γ = Σx Γ nel modo seguente: a. For i = 1,..., M Do in parallelo: b. Costruire la matrice A i c. Riordinare A i come ( Aii A A i = iγi A Γi i A Γi Γ i ed estrarre le sotto-matrici A ii, A iγi, A Γi i e A Γi Γ i d. Calcolare la fattorizzazione LU di A ii e. EndFor ) 4.6 Precondizionatori nel caso di più sotto-domini Vediamo come si possono ottenere dei precondizionatori scalabili per il caso in cui il dominio Ω sia partizionato in più sotto-domini. Forniamo dapprima la seguente Definizione 4.3. Si definisce scalabile un precondizionatore che permette di ottenere una matrice precondizionata P 1 h Σ con un numero di condizionamento indipendente dal numero di sottodomini. I metodi iterativi con precondizionatori scalabili consentono velocità di convergenza indipendenti dal numero dei sotto-domini. Tale proprietà è senza dubbio auspicabile nel momento in cui si ricorra ad un calcolo parallelo su più processori. Sappiamo che ad un problema globale su Ω si associa una matrice globale A e che a ciascun problema su un sotto-dominio Ω i con i = 1,..., M, corrisponde una matrice locale [ ] Aii A iγ A i =. A Γi Definiamo un operatore di restrizione R i che associa ad un vettore v h del dominio globale Ω la sua restrizione al sotto-dominio Ω i : Sia inoltre R T i, A (i) ΓΓ R i : v h Ω v i h Ωi Γ i. R T i : v i h Ωi Γ i v h Ω l operatore d estensione (o prolungamento) a zero di vh i. In forma algebrica R i può essere rappresentato da una matrice che coincide con la matrice identità in corrispondenza del sottodominio Ω i a cui essa è associata: 0... 0 1 0... 0 R i =.............. 0... 0 1 0... 0

124 CAPITOLO 4. DECOMPOSIZIONE DI DOMINI Ω e 1 e 4 v 2 v 1 e 5 e 6 e 7 e 8 v 3 e 9 v 4 e 10 e 2 e 3 e 11 e 12 Ω i Figura 4.8: Esempio di decomposizione in pù sotto-domini. } {{ } Ω i Analogamente possiamo definire il precondizionatore P h = M RΓ T i Σ i R Γi, i=1 che agisce sui vettori i cui valori sono associati ai soli nodi della griglia che vivono sull unione delle interfacce. L idea seguita per costruire un precondizionatore per il complemento di Schur Σ della matrice globale è di combinare opportunamente i contributi dovuti ai precondizionatori locali, ovvero che si possono costruire sui singoli sotto-domini, in modo da fornire un contributo globale ottenuto a partire da una griglia più grossolana (coarse) di Ω, ad esempio quella, di ampiezza H, i cui elementi sono i sotto-domini stessi di Ω. Possiamo esprimere questa idea attraverso la seguente relazione (P h ) 1 = M i=1 R T Γ i P 1 i,h R Γ i + R T Γ P 1 H R Γ. Abbiamo indicato con H la massima ampiezza dei diametri H i dei sotto-domini Ω i. Esistono diverse scelte possibili per il precondizionatore P i,h che daranno luogo ad andamenti differenti per quel che concerne la convergenza dell algoritmo adottato per risolvere il problema. 4.6.1 Il precondizionatore di Jacobi Sia {e 1,..., e m } l insieme dei lati e {v 1,..., v n } l insieme dei vertici di una partizione del dominio Ω (si veda la Figura 4.8).

4.6. PRECONDIZIONATORI NEL CASO DI PIÙ SOTTO-DOMINI 125 Per la matrice Σ possiamo allora fornire una rappresentazione a blocchi della forma seguente: Σ = Σ ee Σ ev, Σ T ev Σ vv con Σ ee = Σ e1 e 1... Σ e1 e m....., Σ eme 1... Σ eme m Σ ev = Σ e1 v 1... Σ e1 v n..... e Σ vv = Σ emv 1... Σ emv n Σ v1 v 1 0... 0. 0....... 0 0... 0 Σ vnv n. Il precondizionatore di Jacobi del complemento di Schur Σ è dunque definito come [ ] ˆΣee Ph J 0 = 0 Σ vv dove ˆΣ ee coincide con la stessa Σ ee o con una sua opportuna approssimazione. Tale precondizionatore non tiene conto in alcun modo delle interazioni tra i lati e i vertici della griglia essendo caratterizzato da una matrice che è diagonale. Inoltre anche la matrice ˆΣ ee è diagonale essendo data da ˆΣ e1 e 1 0... 0. ˆΣ ee = 0....... 0, 0... 0 ˆΣeme m con ˆΣ ek e k coincidente con Σ ek e k o con una sua opportuna approssimazione. Si può dimostrare il risultato seguente: Teorema 4.8. con H = max i (diam(ω i )). K ( (P J h ) 1 Σ ) CH 2 ( 1 + log H h ) 2,

126 CAPITOLO 4. DECOMPOSIZIONE DI DOMINI Il numero delle iterazioni necessarie per la convergenza del metodo del Gradiente Coniugato è dunque proporzionale ad H 1, e la presenza di H fa perdere la scalabilità desiderata per l algoritmo. Osserviamo inoltre che la presenza del termine log(h/h) introduce un legame tra la dimensione di ciascun sotto-dominio e quella degli elementi della griglia computazionale T h. Ciò genera una propagazione dell informazione tra i vari sotto-domini caratterizzata da una velocità finita anziché infinita. Il precondizionatore Ph J può essere anche espresso in funzione degli operatori di restrizione e di prolungamento nel seguente modo: ( P J h ) 1 = m k=1 R T e k ˆΣ 1 e k e k R ek + R T v Σ 1 vv R v, (4.87) dove R ek e R v sono gli operatori di restrizione sui lati e sui vertici, rispettivamente. 4.6.2 Il precondizionatore di Bramble-Pasciak-Schatz Per accelerare la velocità di propagazione delle informazioni all interno del dominio Ω, bisogna ricorrere ad un accoppiamento globale. Dopo aver decomposto Ω in sotto-domini, si può considerare questa stessa decomposizione come una griglia grossolana T H del dominio. In Figura 4.9, per esempio, abbiamo una griglia coarse composta da 9 elementi e 4 nodi interni. Si può dunque associare a tale griglia una matrice di rigidezza A H (nel caso in Figura 4.9 sarà una matrice di dimensione 4 4). Possiamo introdurre inoltre un operatore di restrizione R H : Γ h Γ H, definito sui nodi delle interfacce Γ h a valori sui nodi interni della griglia grossolana. Il suo trasposto RH T è sempre l operatore di estensione. La matrice A H è quella che permette un accoppiamento globale all interno del dominio Ω. Possiamo allora definire il precondizionatore seguente, detto di Bramble-Pasciak-Schatz: (P BP S h ) 1 = m k=1 R T e k ˆΣ 1 e k e k R ek + R T H A 1 H R H. (4.88) A differenza del precondizionatore di Jacobi (4.87), nel secondo addendo non compare più una matrice legata ai vertici (che non fornisce alcun accoppiamento interno, dal momento che ciascun vertice comunica soltanto con se stesso rendendo Σ vv diagonale), ma la matrice globale A H. Per il precondizionatore di Bramble-Pasciak-Schatz valgono i seguenti risultati: i) nel caso 2D ii) nel caso 3D K ( (Ph BP S ) 1 Σ ) ( C 1 + log H ) 2 ; h K ( (P BP S h ) 1 Σ ) C H h.