PROCESSI STOCASTICI: INTEGRAZIONI

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "PROCESSI STOCASTICI: INTEGRAZIONI"

Transcript

1 PROCESSI STOCASTICI: INTEGRAZIONI 1. Definizioni e risultati sparsi Def. Dato un insieme I, si chiama processo stocastico con spazio degli stati I una famiglia {X t } t T di variabili aleatorie a valori in I e definite sullo stesso spazio di probabilità, dove T R. Un processo stocastico corrisponde ad un sistema dinamico stocastico, T puo essere pensato come la famiglia di tempi in cui il sistema viene osservato e X t corrisponde allo stato del sistema al tempo t. Sia P matrice stocastica su I. Sia λ una distribuzione su I e sia {X n } n 0 una catena di Markov con matrice di transizione P e distribuzione iniziale λ. Abbiamo visto che, pensato λ con vettore riga, il vettore riga λp k è la distribuzione di X k per ogni k 0. Sia P matrice stocastica su I. Sia f : I C una funzione limitata. Pensato f come vettore colonna, vale P k f(i) = E i (f(x k )). Infatti, per definizione di prodotto di matrici e poi per definizione di valore atteso abbiamo P k f(i) = j I p (k) i,j f(j) = j I P i (X k = j)f(j) = E i (f(x k )). Sia P matrice stocastica. 2. Stazionarietà Def. Una misura λ : I [0, ) si dice invariante (o stazionaria) rispetto a P se λp = λ e λ 0. Def. Una distribuzione λ : I [0, 1] si dice invariante (o stazionaria) rispetto a P se λp = P. Def. Una catena di Markov {X n } n 0 di parametri (λ, P ) si dice invariante (o stazionaria) se per ogni ogni m 0 intero il processo stocastico {X n+m } n 0 è anch esso una catena di Markov di parametri (λ, P ). Prop. Una catena di Markov {X n } n 0 di parametri (λ, P ) è stazionaria se e solo se λ è distribuzione stazionaria rispetto a P. Dim. Supponiamo che {X n } n 0 sia stazionaria. Allora per ogni i I deve valere P (X 0 = i) = P (X 1 = i). Per le note regole di calcolo questo equivale al fatto che λ(i) = (λp )(i) per ogni i I. Quindi λ è distribuzione stazionaria rispetto a P. Supponiamo ora che λ sia distribuzione stazionaria rispetto a P. Fissiamo m 0 intero 1

2 2 PROCESSI STOCASTICI: INTEGRAZIONI e dimostriamo che {Y n } n 0 è catena di Markov di parametri (λ, P ), dove Y n := X m+n. Sappiamo che ci basta provare (vedi esercizi oppure Th del Norris) che P (Y 0 = i 0, Y 1 = i 1,..., Y n = i n ) = λ(i 0 )p i0,i 1 p in 1,i n (2.1) per ogni n 0 e ogni i 0, i 1,..., i n I. Per definizione di Y k e poi per le note regole di calcolo otteniamo P (Y 0 = i 0, Y 1 = i 1,..., Y n = i n ) = P (X m = i 0, X m+1 = i 1,..., X m+n = i n ) = (λp m ) i0 p i0,i 1 p in 1,i n. Al fine di ottenere (2.1) ci basta osservare che per la stazionarietà di λ vale (λp m ) i0 = λ(i 0 ). Sia P matrice stocastica. 3. Reversibilità Def. Una misura λ : I [0, ) si dice reversibile (o che soddisfa l equazione del bilancio dettagliato) rispetto a P se λ 0 e λ(i)p i,j = λ(j)p j,i i, j I. (3.1) Def. Una distribuzione λ : I [0, 1] si dice reversibile (o che soddisfa l equazione del bilancio dettagliato) rispetto a P se λ(i)p i,j = λ(j)p j,i i, j I. (3.2) Def. Una catena di Markov {X n } n 0 di parametri (λ, P ) si dice reversibile se per ogni N 0 intero il processo stocastico {Y n } 0 n N dove Y n = X N n è una catena di Markov di parametri (λ, P ) a tempi in {0, 1,..., N}. Prop. Una distribuzione λ reversibile rispetto a P è anche invariante rispetto a P. Dim. Vedi Markov chains di Norris. Prop. Una catena di Markov {X n } n 0 di parametri (λ, P ) è reversibile se e solo se λ è distribuzione reversibile rispetto a P. Dim. Supponiamo che {X n } n 0 sia reversibile. Prendendo N = 1 otteniamo per ogni i, j I che P (X 0 = i, X 1 = j) = P (X 1 0 = i, X 1 1 = j) = P (X 0 = j, X 1 = i). Per le note regole di calcolo possiamo riscrivere il primo e l ultimo membro come λ(i)p i,j = λ(j)p j,i. Abbiamo quindi verificato che λ soddisfa l equazione del bilancio dettagliato. Supponiamo ora che valga l equazione del bilancio dettagliato. Per il Teo del Norris, ci basta dimostrare che per ogni N 0, i 0, i 1,..., i N I vale P (Y 0 = i 0, Y 1 = i 1,..., Y N = i N ) = λ(i 0 )p i0,i 1 p in 1,i N (3.3)

3 PROCESSI STOCASTICI: INTEGRAZIONI 3 dove Y k := X N k. Per tale definizione di Y k e per le note regole di calcolo vale P (Y 0 = i 0, Y 1 = i 1,..., Y N = i N ) = P (X 0 = i N, X 1 = i N 1,..., X N 1 = i 1, X N = i 0 ) = λ(i N )p in,i N 1 p in 1,i N 2 p i1,i 0 (3.4) Per l equazione del bilancio dettagliato possiamo sostituire λ(i N )p in,i N 1 con p in 1,i N λ(i N 1 ) ottenendo P (Y 0 = i 0, Y 1 = i 1,..., Y N = i N ) = p in 1,i N λ(i N 1 )p in 1,i N 2 p i1,i 0. Analogamente possiamo sostituire λ(i N 1 )p in 1,i N 2 con p in 2,i N 1 λ(i N 2 ). Reiterando questo passaggio arriviamo all espressione finale P (Y 0 = i 0, Y 1 = i 1,..., Y N = i N ) = p in 1,i N p in 2,i N 1 p i0,i 1 λ(i 0 ), che banalmente coincide con (3.3), cioè con quanto volevamo provare. 4. Distribuzioni invarianti In questa sezione studiamo la struttura delle distribuzioni invarianti. Tutto si riferisce ad una data matrice di transizione (matrice stocastica) P, che sarà spesso sottintesa. Teorema di Markov Kakutani Se I <, allora esiste almeno una distribuzione invariante. Dim. Fissiamo una distribuzione λ su I. Consideriamo la media di Cesaro λ n = 1 n 1 λp k. n k=0 È facile provare che λ n è una distribuzione su I, ovvero λ n A, A := {v R I : v(i) 0, i I v(i) = 1}. A è compatto, quindi esiste una sottosuccessione n k tale che λ nk converge a qualche ˆλ A. Dico che ˆλ è distribuzione invariante. Poichè ˆλ A, ho ˆλ distribuzione. Inoltre ( λ n λ n P = 1 n 1 ) n λp k λp k = 1 n n (λ λp n ) Dato che λ(i) λp n (i) λ(i) + λp n (i) = 2, otteniamo k=0 λ nk (i) λ nk P (i) 2/n k i I. Mandando k ad infinito, otteniamo ˆλ(i) ˆλP (i) = 0 per ogni i, cioè l invarianza di ˆλ: ˆλ = ˆλP. Se I = allora l esistenza di qualche distribuzione invariante non è garantita: Esercizio: determinare le misure invarianti della passeggiata tra siti primi vicini su Z dove, per ogni x Z, p x,x+1 = p, p x,x 1 = q := 1 p. Provare che non esistono distribuzioni invarianti. Nel seguito, volendo studiare la struttura delle distribuzioni invarianti, ci concentriamo prima sui loro supporti. Ricordiamo che se λ è distribuzione su I allora il suo supporto è dato dall insieme {i : λ(i) > 0} (analoga definizione vale per misure). Fatto. Sia P irriducibile. Allora ogni misura λ invariante rispetto a P soddisfa λ(i) > 0 per ogni i I. Dim. Dato che λ 0 deve esistere i con λ(i) > 0. Dato che i conduce a tutti gli elementi di I la tesi segue dal lemma successivo.

4 4 PROCESSI STOCASTICI: INTEGRAZIONI Lemma 0. Sia λ distribuzione invariante, siano i, j stati con λ(i) > 0 e i j. Allora λ(j) > 0. Dim. Dato che i j esiste n 0 tale che (P n ) i,j > 0. Dato che λ = λp n deve essere λ j = k I λ k (P n ) k,j λ i (P n ) i,j > 0. Definizione. Diciamo che uno stato i I è essenziale se per ogni j I tale che i j deve valere j i. Lemma 1 i è essenziale se e solo se la classe comunicante di i è chiusa. Dim. Sia i essenziale e sia C la sua classe comunicante. Se C non fosse chiusa avremmo j C and z C tale che j z ma z j. Poichè i j e j z, abbiamo i z. Dato che i è essenziale vale z i. Ma siccome i, j C abbiamo i j. Quindi z i j contro il fatto che z j. Assumiamo ora che C sia chiusa. Se i j, per la chiusura di C abbiamo j C e quindi j i. Quindi i è essenziale. Prop. 1 Sia i elemento non essenziale e sia λ una distribuzione invariante. Allora λ(i) = 0 Dim. Definisco A = {j I : j i}. Osservo che i A e che k j se p k,j > 0. Quindi se j A e p k,j > 0 allora k A. Dato che λ(j) = k λ(k)p k,j abbiamo λ(j) = λ(k)p k,j = λ(k)p k,j. j A j A j A k k A Scambiando j e k nell ultima espressione abbiamo: ( ) λ(j) p j,k. j A λ(j) = j A Dato che k A p j,k 1 per avere la suddetta uguaglianza deve essere k A p j,k = 1 per ogni j A tale che λ(j) > 0. Quindi vale la seguente proprietà che chiamo (P): per ogni elemento j di A per cui λ(j) > 0 con un sol passo da j si può andare solo in un elemento di A. Supponiamo ora per assurdo che λ(i) > 0. Applicando (P) a i (dato che i A e λ(i) > 0), concludiamo che da i in un sol passo vado in elementi di A. Per il Lemma 0, tutti questi hanno misura λ positiva. Applicando ad essi la proprietà (P) deduciamo che da questi elementi con un sol passo andiamo in altri elementi di A che, per il Lemma 0, hanno misura λ positiva. Reiterando tale ragionamento otteniamo che i conduce solo ad elementi di A. Dato che per definizione gli elementi di A conducono tutti ad i, arriviamo all assurdo (cioè i è essenziale). La suddetta proposizione ci dice che le distribuzioni invarianti devono essere concentrate sull unione delle classi comunicanti chiuse, inoltre se non esistono classi comunicanti chiuse non esistono distribuzioni invarianti. Diciamo che una distribuzione su I è concentrata in un sottinsieme J I (o equivalentemente che la distribuzione ha supporto in J) se λ(x) = 0 per ogni x I \ J. Le distribuzioni su I concentrate in J sono in modo naturale in bigezione con le distribuzioni su J, la bigezione si ottiene associando a λ la sua restrizione λ J : J [0, 1], λ J (j) = λ(j) per ogni j J. k A

5 PROCESSI STOCASTICI: INTEGRAZIONI 5 Teorema 1 Per ogni classe comunicante chiusa C denotiamo con Inv(I, C) l insieme (eventualmente vuoto) delle distribuzioni invarianti su I con supporto in C. Supponiamo che vi siano N, con N N { }, classi comunicanti chiuse C per cui Inv(I, C). Se N = 0 allora non esistono distribuzioni invarianti. Se N 1, denotiamo le classi comunicanti chiuse C per cui Inv(I, C) come C 1, C 2,..., C N se N è finito, altrimenti come C 1, C 2,.... Allora le distribuzioni invarianti di P sono tutte e sole della forma λ = N α kλ k dove α k 0, N α k = 1 e λ k Inv(I, C k ). Dim. Se N = 0 la tesi segue dalla Prop. 1. Supponiamo che sia N 1. Sia λ = N α kλ k dove α k 0, N α k = 1, λ k Inv(I, C k ). Verifichiamo che λ è una distribuzione. λ(x) = N α kλ k (x) e poichè ogni addendo è non negativo abbiamo che λ(x) 0 per ogni x I. Inoltre abbiamo ) α k λ k (x) = λ k (x) = α k = 1. x I λ(x) = x I α k ( x I La penultima indentità segue dal fatto che λ k è una distribuzione, mentre l ultima segue dal fatto che N α k = 1. Questo conclude la verifica che λ è una distribuzione. Verifichiamo ora l invarianza. Dato che λ k P = λ k e data la linearità del prodotto di matrici vale λp = α k (λ k P ) = α k λ k = λ, quindi λ è una distribuzione invariante. Supponiamo ora che λ sia una distribuzione invariante. Data una classe comunicante chiusa C con λ(c) > 0 definiamo λ C : I [0, 1] come { λ(x)/λ(c) se x C, λ C (x) = 0 se x C. Proviamo che λ C Inv(I, C). Banalmente λ C è una distribuzione su I con supporto in C. Sia i I. Per l invarianza di λ abbiamo λ(i) = (λp )(i) = j I λ(j)p j,i. (4.1) Nella suddetta formula distinguiamo vari casi. Se j è inessenziale, allora λ(j) = 0 per la Prop.1 e quindi j non contribuisce. Se j non è inessenziale, allora la classe comunicante di j è chiusa (per il Lemma 1). Se fosse p j,i > 0 avremmo che j i, ma per la chiusura della classe comunicante di j avremmo che j e i devono stare nella stessa classe comunicante. In particolare, se i C si ha che nella somma in (4.1) contribuiscono solo gli stati j che stanno nella stessa classe comunicante di i e quindi solo gli stati j in C. Quindi, per i C, (4.1) puo essere riscritta come λ(i) = j C λ(j)p j,i, i C. (4.2) Dividendo entrambi i membri per λ(c) e usando la definizione di λ C otteniamo che λ C (i) = j I λ C (j)p j,i = (λ C P ) i, i C.

6 6 PROCESSI STOCASTICI: INTEGRAZIONI Se invece prendiamo i C per definizione λ C (i) = 0. Mentre siccome λ C ha supporto in C possiamo scrivere (λ C P )(i) = j I λ C (j)p j,i = j C λ C (j)p j,i. (4.3) Se fosse p j,i > 0 avremmo due stati j C e i C tali che j i. Per la chiusura di C dovrebbe essere i C contro l ipotesi i C. Ne deriva che nell ultimo membro di (4.3) tutti i termini p j,i sono nulli quindi deve essere (λ C P ) i = 0. Abbiamo provato che λ C (i) = 0 = (λp ) i nel caso i C. Questo conclude la dimostrazione che λ C è una distribuzione invariante per P. Siccome λ C Inv(I, C), deve essere C = C k per qualche k. Quindi se λ(c) > 0 deve essere C = C k per qualche k. In particulare, abbiamo che λ ha supporto in N C k. Questo implica che, ponendo α k := λ(c k ), vale 1 = λ ( N C ) N k = λ(c k ) = α k. Inoltre banalmente α k 0. Resta da dimostare che λ(x) = α k λ Ck (x) x I. (4.4) Se x N C k già sappiamo che entrambi i membri sono nulli (ricordare chi è il supporto di λ e la definizione di λ Ck ). Se invece x C k per qualche k allora (4.4) si riduce a λ(x) = α k λ Ck (x) e questo si deriva subito dalla definizione di λ Ck. Prop 2 Sia C una classe comunicante chiusa. Allora la matrice ˆP = {p i,j } i,j C è una matrice stocastica irriducibile con spazio degli stati C. Sia Inv(I, C) l insieme delle distribuzioni invarianti su I per P con supporto in C e sia Inv( ˆP ) l insieme delle distribuzioni invarianti su C per ˆP. Allora la mappa che a λ associa la restrizione λ C è una bigezione tra Inv(I, C) e Inv( ˆP ). Proof. Banalmente ˆP i,j 0 per ogni i, j C. Fissiamo i C. Se p i,j > 0 allora i j, ma dato che C è chiusa deve essere j C. Quindi abbiamo per ogni i C che ˆP i,j = p i,j = p i,j = 1. j C j C j I L ultima identità segue dal fatto che P è matrice stocastica. Questo conclude la dimostrazione che ˆP è matrice stocastica. Dimostriamo che ˆP è irriducibile. Siano i, j C. Essendo C classe comunicante per P esistono stati i 0, i 1,..., i n con i 0 = i, i n = j e p ik,i k+1 > 0 per ogni k {0, 1,..., n 1}. Dato che i 0 = i e p i0,i 1 > 0 deve essere i i 1 e quindi i 1 C poichè C è chiusa. Ma allora ˆP i0,i 1 = p i0,i 1 > 0. Iterando questo ragionamento otteniamo che tutti gli stati i 0, i 1,..., i n stanno in C ed inoltre ˆP ik,i k+1 = p ik,i k+1 > 0 per ogni k {0, 1,..., n 1}. Questo conclude la dimostrazione che ˆP è irriducibile (cioè tutti i suoi stati sono tra di loro comunicanti). Se λ Inv(I, C), usando l invarianza e il fatto che λ ha supporto in C otteniamo λ(i) = j I λ(j)p j,i = j C λ(j)p j,i = j C λ(j) ˆP j,i, i C.

7 PROCESSI STOCASTICI: INTEGRAZIONI 7 Quindi λ C Inv( ˆP ). Viceversa, se ˆλ Inv( ˆP ) definiamo λ : I [0, 1] come {ˆλ(i) se i C, λ(i) = 0 altrimenti. Banalmente λ C = ˆλ. Inoltre è banale verificare che λ Inv(I, C) (esercizio). Per il Teorema 1 e la Prop. 2 ci siamo ridotti a studiare le distribuzioni invarianti rispetto a P matrice irriducibile. Si può provare che ne esiste al più una. Per I finito abbiamo il seguente fatto: Prop. 3 Sia I finito e sia P matrice stocastica irriducibile su I. Allora esiste un unica distribuzione invariante rispetto a P. Dim. Per il Teorema di Markov Kakutani esiste almeno una distribuzione invariante. Si noti che λ = λp iff λ t = P t λ t (t indica il trasposto). Ci basta provare che P t ha 1 come autovalore semplice. Assumiamo provato questo fatto e concludiamo. Se vi fossere due distribuzioni invarianti λ, ˆλ si avrebbe λ t = P t λ t e ˆλ t = P tˆλt. Quindi λ t, ˆλ t sarebbero autovettori (colonna) di P t con autovalore 1. Sapendo che 1 è autovalore semplice concludiamo che λ t, ˆλ t sono dipendenti, quindi c tale che λ t = cˆλ t. Per la normalizzazione abbiamo 1 = λ t i = c ˆλ i = c 1 = c i I i I quindi λ t = ˆλ t, da cui λ = ˆλ. Ci resta quindi da provare che 1 è autovalore semplice di P t. L algebra lineare ci dice che questo equivale al fatto che 1 è autovalore semplice di P. Si noti che i vettori con entrata constante sono autovettori di P con autovalore 1 e formano uno spazio vettoriale di dim. 1. Dobbiamo quindi provare che questi sono tutti e soli i vettori v con v = P v (tali vettori, intesi come funzione i v i su I, sono detti funzioni armoniche rispetto a P ). La dimostrazione segue dal principio del massimo per funzioni armoniche. Infatti, sia v = P v. Sia M := max{v j : j I}. Sia M = v i. Siccome M = v i = (P v) i = j I P i,j v j j I P i,j M = M sopra deve valere in tutti i passi l uguaglianza, e quindi deve essere v j = M per ogni j tale che P i,j > 0. Abbiamo quindi provato tale proprietà (che chiamo (P)): se v i = M allora v j = M per ogni j tale che P i,j > 0. Fisso i 0 con M = v i0. Dato un generico elemento k I, essendo P irriducibile sappiamo che esiste n 1 e stati i 1, i 2,..., i n tali che P i0,i 1 > 0, P i1,i 2 > 0,, P in 1,i n > 0, P in,j > 0. Applicando iterativamente la proprietà (P) otteniamo che M = v i0 = v i1 = = v in = v j. Data l arbitrarietà di j abbiamo che v j = M per ogni j, quindi v è il vettore costante. Dai precedenti risultati e osservazioni otteniamo : Cor. 1 Sia I <. Siano C 1, C 2,..., C N le classi comunicanti chiuse (sappiamo 1 N < ). Allora le distribuzioni invarianti di P sono tutte e sole della forma λ = N α kλ k dove α k 0, N α k = 1 e λ k è l unica distribuzione invariante con supporto in C k.

8 8 PROCESSI STOCASTICI: INTEGRAZIONI Inoltre λ k (x) = {ˆλk (x) se x C k, 0 altrimenti, dove ˆλ k è l unica distribuzione invariante su C k per ˆP (k), con ˆP (k) = (P x,y ) x,y Ck. In particolare, esiste sempre almeno una distribuzione invariante. Essa è unica se e solo se vi è un unica classe comunicante chiusa. Si prova facilmente che vale il seguente fatto: Fatto. Sia I <. Siano C 1, C 2,..., C M le classi comunicanti chiuse per cui la matrice ˆP (k) = (P x,y ) x,y Ck ammette una distribuzione reversibile ˆλ k su C k, k = 1, 2,..., M (che deve essere unica). Allora le distribuzioni reversibili di P sono tutte e sole della forma λ = M α kλ k dove α k 0, M α k = 1 e {ˆλk (x) se x C k, λ k (x) = 0 altrimenti. Dim. Si verifica facilmente che λ k è misura reversibile. Infatti, se x, y C k vale λ k (x)p x,y = ˆλ (k) k (x) ˆP x,y e λ k (y)p y,x = ˆλ (k) k (y) ˆP y,x quindi ci basta invocare l equazione del bilancio dettagliato per ˆλ k. Se x, y C k vale λ k (x)p x,y = 0P x,y = 0 = P y,x 0 = P y,x λ k (y). Se x C k e y C k allora λ k (y) = 0 e dico che P x,y = 0. Infatti se fosse P x,y > 0 x condurebbe fuori di C k che è c.c.chiusa. Quindi λ k (x)p x,y = λ k (x)0 = 0 = 0P y,x = λ k (y)p y,x. Poichè le combinazioni convesse di distribuzioni reversibili sono distribuzioni reversibili concludiamo che se λ = M α kλ k, dove α k 0 e M α k = 1, allora λ è distribuzione reversibile. Sia viceversa λ distribuzione reversibile. Allora λ è stazionaria. Se x, y stanno nella stessa classe comunicante chiusa C con λ(c) > 0 allora vale λ C (x)p x,y = λ(c) 1 λ(x)p x,y = λ(c) 1 λ(y)p y,x = λ C (y)p y,x. Quindi (λ C (x)) x C è distribuzione su C reversibile rispetto a (P x,y ) x,y C. Ne deriva che nella combinazione convessa che esprime λ in termini della distribuzioni invarianti basilari entrano solo quelle indicate nell enunciato Applicazione. Mostriamo ora un esempio di applicazione della teoria sviluppata finora. Consideriamo la seguente matrice stocastica 1/4 1/ / /3 1/ P = 0 0 1/3 2/ /3 1/3 0 1/ / / /2 1/ /2 1/ sullo spazio degli stati I = {1, 2,..., 8}. Vogliamo determinare le distribuzioni invarianti di P. Per fare questo dovremmo prima di tutto risolvere il sistema λp = λ, che include 8 gradi di libertà e quindi sarebbe piuttosto calcoloso. Per semplifare possiamo procedere come segue. Osserviamo che le classi comunicanti sono {1, 2, 6, 8}, {3, 4}, {5, 7}. Sono chiuse solo C 1 := {1, 2, 6, 8} e C 2 := {3, 4}. Consideriamo dapprima la matrice ˆP = {p i,j } i,j C1,

9 PROCESSI STOCASTICI: INTEGRAZIONI 9 cioè ˆP = 1/4 1/4 1/ /2 0 1/2 1/2 1/2 0 0 Per la Prop. 2 questa matrice è una matrice stocastica irriducibile su C 1. Per la Prop. 3 ˆP ammette un unica distribuzione invariante. La calcoliamo risolvendo il sistema 1/4 1/4 1/2 0 (a, b, c, d, ) /2 0 1/2 = (a, b, c, d). 1/2 1/2 0 0 Si ottiene facilmente che l unica soluzione (a, b, c, d, ) che è anche distribuzione su {1, 2, 6, 8} è data da ( 2 16, 5 16, 6 16, 16) 3. Ne deriva che λ 1 := ( 2 16, 5 6, 0, 0, 0, 16 16, 0, 3 ) 16 è l unica distribuzione invariante per P con supporto in C 1. Similemente la matrice {p i,j } i,j C2 è stocastica con spazio degli stati C 2 ed è irriducibile. Si ottiene facilmente come sopra che l unica distrubizione invariante è data da (1/2, 1/2). Ne deriva che λ 2 := ( 0, 0, 1 2, 1, 0, 0, 0, 0) 2 è l unica distribuzione invariante per P con supporto in C 2. Grazie al Teorema 1 o equivalentemente al Corollario 1 abbiamo che le distribuzioni invarianti per P sono tutte e sole della forma αλ 1 + (1 α)λ 2 = ( 2α 16, 5α 16 (1 α),, 2 (1 α) 2., 0, 6α 16 3α), 0, 16 α [0, 1]. 5. Convergenza all equilibrio Def. Una matrice stocastica P si dice regolare se esiste r 1 tale che (P r ) x,y > 0 per ogni x, y I. Banalmente, una matrice stocastica regolare è irriducibile. Teorema di convergenza all equilibrio. Sia I finito e sia P matrice regolare. Allora esiste θ (0, 1) tale che per ogni n 0 e per ogni x, y I vale (P n ) x,y π y θ n dove π è l unica distribuzione invariante rispetto a P (recall Prop. 3). In particolare, se (X n ) n 0 è CM(λ, P ) (con λ distribuzione iniziale arbitraria) allora per ogni n 0 e per ogni y I vale P (X n = y) π y θ n. Dim. La conclusione segue dalla prima parte avendo P (X n = y) π y = λ x [(P n ) x,y π y ] max (P n ) x,y π y λ x = max (P n ) x,y π y. x I x I x I x I

10 10 PROCESSI STOCASTICI: INTEGRAZIONI La dimostrazione della prima parte invece è data dalla dimostrazione del teo. 4.9 del file disponibile online al sito (cambia solo la conclusione, noi stimiamo i moduli delle entrate di matrice loro la cosiddetta variazione totale.)

PROCESSI STOCASTICI 1: INTEGRAZIONI

PROCESSI STOCASTICI 1: INTEGRAZIONI PROCESSI STOCASTICI 1: INTEGRAZIONI 1. Definizioni e risultati sparsi Def. Dato un insieme I, si chiama processo stocastico con spazio degli stati I una famiglia {X t } t T di variabili aleatorie a valori

Dettagli

Il Teorema Spettrale. 0.1 Applicazioni lineari simmetriche ed hermitiane

Il Teorema Spettrale. 0.1 Applicazioni lineari simmetriche ed hermitiane 0.1. APPLICAZIONI LINEARI SIMMETRICHE ED HERMITIANE 1 Il Teorema Spettrale In questa nota vogliamo esaminare la dimostrazione del Teorema Spettrale e studiare le sue conseguenze per quanto riguarda i prodotti

Dettagli

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n NOTE DI ALGEBRA LINEARE 2- MM 9 NOVEMBRE 2 Combinazioni lineari e generatori Sia K un campo e V uno spazio vettoriale su K Siano v,, v n vettori in V Definizione Un vettore v V si dice combinazione lineare

Dettagli

Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof. Fabio Perroni. 5. Rango

Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof. Fabio Perroni. 5. Rango Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof Fabio Perroni 5 Rango Definizione 1 Sia A M m,n (K) una matrice m n a coefficienti nel campo K Il rango

Dettagli

PROCESSI STOCASTICI 1: ESERCIZI

PROCESSI STOCASTICI 1: ESERCIZI PROCESSI STOCASTICI 1: ESERCIZI (1) ESERCIZIO: Date P e Q matrici stocastiche, dimostrare che la matrice prodotto P Q è una matrice stocastica. Dedurre che la potenza P n e il prodotto P 1 P 2 P n sono

Dettagli

Massimo limite e minimo limite di una funzione

Massimo limite e minimo limite di una funzione Massimo limite e minimo limite di una funzione Sia f : A R una funzione, e sia p DA). Per ogni r > 0, l insieme ) E f p r) = { fx) x A I r p) \ {p} } è non vuoto; inoltre E f p r ) E f p r ) se 0 < r r.

Dettagli

PROCESSI STOCASTICI 1: ESERCIZI

PROCESSI STOCASTICI 1: ESERCIZI PROCESSI STOCASTICI 1: ESERCIZI (1) ESERCIZIO: Date P e Q matrici stocastiche, dimostrare che la matrice prodotto P Q è una matrice stocastica. Dedurre che la potenza P n e il prodotto P 1 P 2 P n sono

Dettagli

Autovalori e autovettori di una matrice quadrata

Autovalori e autovettori di una matrice quadrata Autovalori e autovettori di una matrice quadrata Data la matrice A M n (K, vogliamo stabilire se esistono valori di λ K tali che il sistema AX = λx ammetta soluzioni non nulle. Questo risulta evidentemente

Dettagli

I teoremi della funzione inversa e della funzione implicita

I teoremi della funzione inversa e della funzione implicita I teoremi della funzione inversa e della funzione implicita Appunti per il corso di Analisi Matematica 4 G. Mauceri Indice 1 Il teorema della funzione inversa 1 Il teorema della funzione implicita 3 1

Dettagli

Note sulle Catene di Markov

Note sulle Catene di Markov Note sulle Catene di Markov ELAUT Prof. Giuseppe C. Calafiore Sommario Queste note contengono un estratto schematico ridotto di parte del materiale relativo alle Catene di Markov a tempo continuo e a tempo

Dettagli

Prodotto scalare e matrici < PX,PY >=< X,Y >

Prodotto scalare e matrici < PX,PY >=< X,Y > Prodotto scalare e matrici Matrici ortogonali Consideriamo in R n il prodotto scalare canonico < X,Y >= X T Y = x 1 y 1 + +x n y n. Ci domandiamo se esistono matrici P che conservino il prodotto scalare,

Dettagli

MATRICI E SISTEMI LINEARI

MATRICI E SISTEMI LINEARI MATRICI E SISTEMI LINEARI - PARTE I - Felice Iavernaro Dipartimento di Matematica Università di Bari 27 Febbraio 2006 Felice Iavernaro (Univ. Bari) Matrici e Sistemi lineari 27/02/2006 1 / 1 Definizione

Dettagli

Capitolo 5 Campi finiti

Capitolo 5 Campi finiti Capitolo 5 Campi finiti Definizione 5.1. Un campo finito K (cioè composto da un numero finito di elementi) si dice campo di Galois. Il numero dei suoi elementi si dice ordine e si denota con K. Un campo

Dettagli

Le condizioni di Karush-Kuhn-Tucker

Le condizioni di Karush-Kuhn-Tucker Capitolo 9 Le condizioni di Karush-Kuhn-Tucker 9. Introduzione In questo capitolo deriveremo le condizioni necessarie di Karush-Kuhn-Tucker (KKT) per problemi vincolati in cui S è descritto da vincoli

Dettagli

Equivalentemente, le colonne di A sono linearmente indipendenti se e solo se

Equivalentemente, le colonne di A sono linearmente indipendenti se e solo se Lezioni di Algebra Lineare. Versione novembre 2008 VI. Il determinante Il determinante det A di una matrice A, reale e quadrata, è un numero reale associato ad A. Dunque det è una funzione dall insieme

Dettagli

Definizione 1. Una matrice n m a coefficienti in K é una tabella del tipo. ... K m, detto vettore riga i-esimo, ed a im

Definizione 1. Una matrice n m a coefficienti in K é una tabella del tipo. ... K m, detto vettore riga i-esimo, ed a im APPUNTI ed ESERCIZI su matrici, rango e metodo di eliminazione di Gauss Corso di Laurea in Chimica, Facoltà di Scienze MM.FF.NN., UNICAL (Dott.ssa Galati C.) Rende, 23 Aprile 2010 Matrici, rango e metodo

Dettagli

2. Fra tutti i rettangoli inscritti in una circonferenza, determinare quello di area massima.

2. Fra tutti i rettangoli inscritti in una circonferenza, determinare quello di area massima. 2. Fra tutti i rettangoli inscritti in una circonferenza, determinare quello di area massima. 3. Fra tutti i cilindri a base rotonda inscritti in una sfera, determinare quello di volume massimo. 4. Dimostrare

Dettagli

Alcuni complementi sulla misura di Lebesgue in R N

Alcuni complementi sulla misura di Lebesgue in R N Alcuni complementi sulla misura di Lebesgue in R N Notazioni m Misura di Lebesgue in R N m e Misura esterna di Lebesgue in R N ; m e (E) = inf m(v ) V aperti V E m i Misura interna di Lebesgue in R N ;

Dettagli

Parte 8. Prodotto scalare, teorema spettrale

Parte 8. Prodotto scalare, teorema spettrale Parte 8. Prodotto scalare, teorema spettrale A. Savo Appunti del Corso di Geometria 3-4 Indice delle sezioni Prodotto scalare in R n, Basi ortonormali, 4 3 Algoritmo di Gram-Schmidt, 7 4 Matrici ortogonali,

Dettagli

ELEMENTI DI LOGICA MATEMATICA LEZIONE VII

ELEMENTI DI LOGICA MATEMATICA LEZIONE VII ELEMENTI DI LOGICA MATEMATICA LEZIONE VII MAURO DI NASSO In questa lezione introdurremo i numeri naturali, che sono forse gli oggetti matematici più importanti della matematica. Poiché stiamo lavorando

Dettagli

Si noti che questa definizione dice esattamente che

Si noti che questa definizione dice esattamente che DISUGUAGLIANZA INTEGRALE DI JENSEN IN DIMENSIONE FINITA LIBOR VESELY integrazione. Prima disuguaglianza integrale di Jensen.. Motivazione. Siano un insieme convesso in uno spazio vettoriale, f : (, + ]

Dettagli

PROCESSI STOCASTICI A.A. 2010/2011. DIARIO DELLE LEZIONI

PROCESSI STOCASTICI A.A. 2010/2011. DIARIO DELLE LEZIONI PROCESSI STOCASTICI A.A. 2010/2011. DIARIO DELLE LEZIONI Martedì 19/10/2010 (14-16) Richiami di teoria della probabilità: spazio di probabilità, alcune consequenze della definizione di funzione di probabilità,

Dettagli

GEOMETRIA 1 seconda parte

GEOMETRIA 1 seconda parte GEOMETRIA 1 seconda parte Cristina Turrini C. di L. in Fisica - 2014/2015 Cristina Turrini (C. di L. in Fisica - 2014/2015) GEOMETRIA 1 1 / 40 index Spazi vettoriali 1 Spazi vettoriali 2 Sottospazi 3 Sistemi

Dettagli

Vale: I (J 1 + J 2 ) = IJ 1 + IJ 2. (Si prova verificando la doppia inclusione). Def. Due ideali I, J di A si dicono coprimi se I + J = (1).

Vale: I (J 1 + J 2 ) = IJ 1 + IJ 2. (Si prova verificando la doppia inclusione). Def. Due ideali I, J di A si dicono coprimi se I + J = (1). Operazioni con gli ideali Sia A un anello (commutativo, unitario). Se I e J sono due ideali di A, si definisce I + J come il pi`piccolo ideale che contiene sia I, sia J. Si verifica che vale: I + J = {a

Dettagli

Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof. Fabio Perroni 2. MATRICI

Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof. Fabio Perroni 2. MATRICI Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof Fabio Perroni 2 MATRICI Siano m, n N \ {0}, sia K un campo Una matrice m n a coefficienti in K è una

Dettagli

Complemento ortogonale e proiezioni

Complemento ortogonale e proiezioni Complemento ortogonale e proiezioni Dicembre 9 Complemento ortogonale di un sottospazio Sie E un sottospazio di R n Definiamo il complemento ortogonale di E come l insieme dei vettori di R n ortogonali

Dettagli

Autovalori, Autovettori, Diagonalizzazione.

Autovalori, Autovettori, Diagonalizzazione. Autovalori Autovettori Diagonalizzazione Autovalori e Autovettori Definizione Sia V uno spazio vettoriale sul campo K = R o C e sia T : V V un endomorfismo Un vettore non nullo v V \ {O} si dice autovettore

Dettagli

Sviluppi e derivate delle funzioni elementari

Sviluppi e derivate delle funzioni elementari Sviluppi e derivate delle funzioni elementari In queste pagine dimostriamo gli sviluppi del prim ordine e le formule di derivazioni delle principali funzioni elementari. Utilizzeremo le uguaglianze lim

Dettagli

Catene di Markov. 8 ottobre 2009

Catene di Markov. 8 ottobre 2009 Catene di Markov 8 ottobre 2009 Definizione 1. Si dice catena di Markov (finita) un sistema dotato di un numero finito n di stati {1, 2,..., n} che soddisfi la seguente ipotesi: la probabilità che il sistema

Dettagli

LEZIONE 12. v = α 1 v α n v n =

LEZIONE 12. v = α 1 v α n v n = LEZIONE 12 12.1. Combinazioni lineari. Definizione 12.1.1. Sia V uno spazio vettoriale su k = R, C e v 1,..., v n V vettori fissati. Un vettore v V si dice combinazione lineare di v 1,..., v n se esistono

Dettagli

Appunti sul corso di Complementi di Matematica mod. Analisi prof. B.Bacchelli - a.a. 2010/2011.

Appunti sul corso di Complementi di Matematica mod. Analisi prof. B.Bacchelli - a.a. 2010/2011. Appunti sul corso di Complementi di Matematica mod. Analisi prof. B.Baccelli - a.a. 2010/2011. 06 - Derivate, differenziabilità, piano tangente, derivate di ordine superiore. Riferimenti: R.Adams, Calcolo

Dettagli

1. Funzioni implicite

1. Funzioni implicite 1. Funzioni implicite 1.1 Il caso scalare Sia X R 2 e sia f : X R. Una funzione y : (a, b) R si dice definita implicitamente dall equazione f(x, y) = 0 in (a, b) quando: 1. (x, y(x)) X x (a, b); 2. f(x,

Dettagli

Dimostrazione. Indichiamo con α e β (finiti o infiniti) gli estremi dell intervallo I. Poniamo

Dimostrazione. Indichiamo con α e β (finiti o infiniti) gli estremi dell intervallo I. Poniamo C.6 Funzioni continue Pag. 114 Dimostrazione del Corollario 4.25 Corollario 4.25 Sia f continua in un intervallo I. Supponiamo che f ammetta, per x tendente a ciascuno degli estremi dell intervallo, iti

Dettagli

Rango di una matrice e teorema di Rouché-Capelli

Rango di una matrice e teorema di Rouché-Capelli Rango di una matrice e teorema di Rouché-Capelli Sappiamo che a una matrice m n, A, è associata l applicazione lineare L A : R n R m, L A (X) = AX, X R n. Definizione 1. Lo spazio nullo di A, N (A), è

Dettagli

ANALISI 1 - Teoremi e dimostrazioni vari

ANALISI 1 - Teoremi e dimostrazioni vari ANALISI 1 - Teoremi e dimostrazioni vari Sommario Proprietà dell estremo superiore per R... 2 Definitivamente... 2 Successioni convergenti... 2 Successioni monotone... 2 Teorema di esistenza del limite

Dettagli

Capitolo IX DIAGONALIZZAZIONE DI MATRICI SIMMETRICHE

Capitolo IX DIAGONALIZZAZIONE DI MATRICI SIMMETRICHE Capitolo IX DIAGONALIZZAZIONE DI MATRICI SIMMETRICHE 1. Matrici ortogonali Ricordiamo che, nel Cap. VII, abbiamo studiato le matrici di cambio di base in un R spazio vettoriale. In tale occasione, abbiamo

Dettagli

Il teorema di dualità forte

Il teorema di dualità forte Complementi di Algoritmi e Strutture Dati Il teorema di dualità forte Docente: Nicolò Cesa-Bianchi versione 13 maggio 2018 Ricordiamo la formulazione del problema di programmazione lineare nella sua forma

Dettagli

Corso di Calcolo Numerico

Corso di Calcolo Numerico Corso di Laurea in Ingegneria Gestionale Sede di Fermo Corso di 8 - METODI ITERATIVI PER I SISTEMI LINEARI Norme Una norma in R n è una funzione. : R n R tale che x 0 x R n ; x = 0 x = 0; αx = α x ; x

Dettagli

CORSO DI GEOMETRIA DETERMINANTE A.A. 2018/2019 PROF. VALENTINA BEORCHIA

CORSO DI GEOMETRIA DETERMINANTE A.A. 2018/2019 PROF. VALENTINA BEORCHIA CORSO DI GEOMETRIA DETERMINANTE AA 2018/2019 PROF VALENTINA BEORCHIA INDICE 1 Definizione induttiva di determinante 1 2 Caratterizzazione delle matrici quadrate di rango massimo 5 3 Regole di Laplace 6

Dettagli

APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof. F.Podestà, a.a

APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof. F.Podestà, a.a APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof FPodestà, aa 003-004 Sia V uno spazio vettoriale e sia f : V V una applicazione lineare una tale applicazione da uno spazio vettoriale in se stesso è chiamata

Dettagli

La forma normale di Schur

La forma normale di Schur La forma normale di Schur Dario A Bini, Università di Pisa 30 ottobre 2013 Sommario Questo modulo didattico contiene risultati relativi alla forma normale di Schur, alle sue proprietà e alle sue applicazioni

Dettagli

Autovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti)

Autovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti) Autovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti) April 14, 2011 (alcune note non complete sugli argomenti trattati: eventuali completamenti saranno aggiunti)

Dettagli

i) la somma e il prodotto godano delle proprietà associativa, commutativa e distributiva;

i) la somma e il prodotto godano delle proprietà associativa, commutativa e distributiva; 1 Spazi vettoriali 11 Definizioni ed assiomi Definizione 11 Un campo è un insieme K dotato di una operazione somma K K K, (x, y) x + y e di una operazione prodotto K K K, (x, y) xy tali che i) la somma

Dettagli

Corso di Matematica Discreta. Anno accademico Appunti sulla diagonalizzazione.

Corso di Matematica Discreta. Anno accademico Appunti sulla diagonalizzazione. Corso di Matematica Discreta. Anno accademico 2008-2009 Appunti sulla diagonalizzazione. Autovalori e autovettori di un endomorfismo lineare. Sia T : V V una applicazione lineare da uno spazio vettoriale

Dettagli

10. Il gruppo Speciale Lineare SL(V )

10. Il gruppo Speciale Lineare SL(V ) 1 2 3 4 5 6 7 8 9 1 10. Il gruppo Speciale Lineare SL(V ) Siano F un campo e V uno spazio vettoriale di dimensione n su F. Indichiamo con GL(V ) l insieme delle applicazioni lineari biiettive di V in sé.

Dettagli

Lezioni di Algebra Lineare V. Autovalori e autovettori

Lezioni di Algebra Lineare V. Autovalori e autovettori Lezioni di Algebra Lineare V. Autovalori e autovettori Versione novembre 2008 Contenuto 1. Cambiamenti di base 2. Applicazioni lineari, matrici e cambiamenti di base 3. Autovalori e autovettori 2 1. Cambiamenti

Dettagli

Geometria UNO Il polinomio minimo

Geometria UNO Il polinomio minimo Geometria UNO Il polinomio minimo Corso di Laurea in Matematica Anno Accademico 2013/2014 Alberto Albano 5 marzo 2014 Queste note sono un riassunto delle lezioni di venerdì 8 marzo e martedì 11 marzo.

Dettagli

A.A CORSO DI ALGEBRA 1. PROFF. P. PIAZZA, E. SPINELLI. SOLUZIONE ESERCIZI FOGLIO 4.

A.A CORSO DI ALGEBRA 1. PROFF. P. PIAZZA, E. SPINELLI. SOLUZIONE ESERCIZI FOGLIO 4. A.A. 2015-2016. CORSO DI ALGEBRA 1. PROFF. P. PIAZZA, E. SPINELLI. SOLUZIONE ESERCIZI FOGLIO 4. Esercizio 4. 1. Data una coppia a, b N, consideriamo la loro fattorizzazione in primi. Esprimere in termini

Dettagli

LEZIONE 16 A = Verifichiamo se qualcuna fra le entrate a di A è suo autovalore. determinare per quale entrata a di A risulta rk(a ai 2 ) 1.

LEZIONE 16 A = Verifichiamo se qualcuna fra le entrate a di A è suo autovalore. determinare per quale entrata a di A risulta rk(a ai 2 ) 1. LEZIONE 16 16.1. Autovalori, autovettori ed autospazi di matrici. Introduciamo la seguente definizione. Definizione 16.1.1. Siano k = R, C e A k n,n. Un numero λ k si dice autovalore di A su k) se rka

Dettagli

Isometrie e cambiamenti di riferimento

Isometrie e cambiamenti di riferimento Isometrie e cambiamenti di riferimento Isometrie Le isometrie sono trasformazioni del piano o dello spazio che conservano angoli e distanze. Esempi sono le rotazioni del piano, le riflessioni in una retta

Dettagli

Programmazione Matematica / A.A Soluzioni di alcuni esercizi

Programmazione Matematica / A.A Soluzioni di alcuni esercizi Programmazione Matematica / A.A. 8-9 Soluzioni di alcuni esercizi Esercizi - I 3. Aggiungiamo al problema una variabile v, e richiediamo che v soddisfi v n a ij x j b i. j= Fissato x, il minimo v che soddisfa

Dettagli

LEZIONE 3. a + b + 2c + e = 1 b + d + g = 0 3b + f + 3g = 2. a b c d e f g

LEZIONE 3. a + b + 2c + e = 1 b + d + g = 0 3b + f + 3g = 2. a b c d e f g LEZIONE 3 3.. Matrici fortemente ridotte per righe. Nella precedente lezione abbiamo introdotto la nozione di soluzione di un sistema di equazioni lineari. In questa lezione ci poniamo il problema di descrivere

Dettagli

Spazi affini e combinazioni affini.

Spazi affini e combinazioni affini. Spazi affini e combinazioni affini. Morfismi affini. Giorgio Ottaviani Abstract Introduciamo il concetto di combinazione affine in uno spazio affine, e in base a questo, ne caratterizziamo i sottospazi.

Dettagli

Universita degli Studi di Roma Tor Vergata Facolta di Ingegneria: Elettronica. Corso di Geometria ed Algebra Docente F. Flamini

Universita degli Studi di Roma Tor Vergata Facolta di Ingegneria: Elettronica. Corso di Geometria ed Algebra Docente F. Flamini Universita degli Studi di Roma Tor Vergata Facolta di Ingegneria: Elettronica Corso di Geometria ed Algebra Docente F. Flamini Capitolo IV - 3: Teorema Spettrale degli operatori autoaggiunti e Teorema

Dettagli

UNIVERSITÀ di ROMA TOR VERGATA

UNIVERSITÀ di ROMA TOR VERGATA UNIVERSITÀ di ROMA TOR VERGATA Corso di PS-Probabilità P.Baldi Tutorato 9, 19 maggio 11 Corso di Laurea in Matematica Esercizio 1 a) Volendo modellizzare l evoluzione della disoccupazione in un certo ambito

Dettagli

La formula di Taylor per funzioni di più variabili

La formula di Taylor per funzioni di più variabili La formula di Taylor per funzioni di più variabili Il polinomio di Taylor Due variabili. Sia A R 2 un aperto, f : A R una funzione sufficientemente regolare, (x, y) un punto di A. Sia (h, k) un vettore

Dettagli

Spazi Vettoriali ed Applicazioni Lineari

Spazi Vettoriali ed Applicazioni Lineari Spazi Vettoriali ed Applicazioni Lineari 1. Sottospazi Definizione. Sia V uno spazio vettoriale sul corpo C. Un sottoinsieme non vuoto W di V è un sottospazio vettoriale di V se è chiuso rispetto alla

Dettagli

Elementi di Algebra Lineare Spazi Vettoriali

Elementi di Algebra Lineare Spazi Vettoriali Elementi di Algebra Lineare Spazi Vettoriali Antonio Lanteri e Cristina Turrini UNIMI - 2015/2016 Antonio Lanteri e Cristina Turrini (UNIMI - 2015/2016) Elementi di Algebra Lineare 1 / 37 index Spazi vettoriali

Dettagli

Note sulle funzioni convesse/concave

Note sulle funzioni convesse/concave Note sulle funzioni convesse/concave 4th December 2008 1 Definizioni e proprietà delle funzioni convesse/concave. Definizione 1.1 Un insieme A IR n è detto convesso se per ogni x 1 e x 2 punti di A, il

Dettagli

Il teorema di Lagrange e la formula di Taylor

Il teorema di Lagrange e la formula di Taylor Il teorema di Lagrange e la formula di Taylor Il teorema del valor medio di Lagrange, valido per funzioni reali di una variabile reale, si estende alle funzioni reali di più variabili. Come si vedrà, questo

Dettagli

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da NOTE INTEGRATIVE PER IL CORSO DI ANALISI MATEMATICA 2 ANNO ACCADEMICO 2012/13 NOTE SULLA CONTINUITÀ UNIFORME D.BARTOLUCCI, D.GUIDO Sia f(x) = x 3, x [ 1, 1]. Si ha 1. La continuità uniforme x 3 y 3 = x

Dettagli

1 Il Teorema della funzione implicita o del Dini

1 Il Teorema della funzione implicita o del Dini 1 Il Teorema della funzione implicita o del Dini Ricordiamo che dato un punto x R n, un aperto A R n che contiene x si dice intorno (aperto) di x. Teorema 1.1. (I Teorema del Dini) Sia f : A (aperto) R

Dettagli

0.1 Condizione sufficiente di diagonalizzabilità

0.1 Condizione sufficiente di diagonalizzabilità 0.1. CONDIZIONE SUFFICIENTE DI DIAGONALIZZABILITÀ 1 0.1 Condizione sufficiente di diagonalizzabilità È naturale porsi il problema di sapere se ogni matrice sia o meno diagonalizzabile. Abbiamo due potenziali

Dettagli

Teorema delle Funzioni Implicite

Teorema delle Funzioni Implicite Teorema delle Funzioni Implicite Sia F una funzione di due variabili definita in un opportuno dominio D di R 2. Consideriamo l equazione F (x, y) = 0, questa avrà come soluzioni coppie di valori (x, y)

Dettagli

Spazi vettoriali euclidei.

Spazi vettoriali euclidei. Spazi vettoriali euclidei Prodotto scalare, lunghezza e ortogonalità in R n Consideriamo lo spazio vettoriale R n = { =,,, n R}, n con la somma fra vettori e il prodotto di un vettore per uno scalare definiti

Dettagli

APPLICAZIONI. Im f = {b B a A tale che f (a) = b}.

APPLICAZIONI. Im f = {b B a A tale che f (a) = b}. APPLICAZIONI Diremo applicazione (o funzione) da un insieme A ad un insieme B una legge f che associa ad ogni elemento a A uno ed un solo elemento b B. Scriviamo f : A B e il corrispondente o immagine

Dettagli

Successioni ricorsive

Successioni ricorsive Successioni ricorsive Emanuele Paolini Analisi Matematica I, 015 016 In queste note prenderemo in considerazione le successioni a n definite per ricorrenza o ricorsivamente dalle condizioni: a1 = α, (1)

Dettagli

Massimo e minimo limite di successioni

Massimo e minimo limite di successioni Massimo e minimo limite di successioni 1 Premesse Definizione 1.1. Definiamo R esteso l insieme R = R { } {+ }. In R si estende l ordinamento tra numeri reali ponendo < a < +, a R. In base a tale definizione,

Dettagli

LEZIONE 12. Y = f(x) = f( x j,1 f(e j ) = x j,1 A j = AX = µ A (X),

LEZIONE 12. Y = f(x) = f( x j,1 f(e j ) = x j,1 A j = AX = µ A (X), LEZIONE 1 1.1. Matrice di un applicazione lineare. Verifichiamo ora che ogni applicazione lineare f: R n R m è della forma µ A per un unica A R m,n. Definizione 1.1.1. Per ogni j 1,..., n indichiamo con

Dettagli

A.A CORSO DI ALGEBRA 1. PROFF. P. PIAZZA, E. SPINELLI. SOLUZIONE ESERCIZI FOGLIO 5.

A.A CORSO DI ALGEBRA 1. PROFF. P. PIAZZA, E. SPINELLI. SOLUZIONE ESERCIZI FOGLIO 5. A.A. 2015-2016. CORSO DI ALGEBRA 1. PROFF. P. PIAZZA, E. SPINELLI. SOLUZIONE ESERCIZI FOGLIO 5. Esercizio 5.1. Determinare le ultime tre cifre di n = 13 1625. (Suggerimento. Sfruttare il Teorema di Eulero-Fermat)

Dettagli

LEZIONE 11. s V : V V V (v 1, v 2 ) v 1 + v 2 = s V (v 1, v 2 ), p V : k V V. per cui valgono:

LEZIONE 11. s V : V V V (v 1, v 2 ) v 1 + v 2 = s V (v 1, v 2 ), p V : k V V. per cui valgono: LEZIONE 11 11.1. Spazi vettoriali ed esempi. La nozione di spazio vettoriale generalizza quanto visto nelle lezioni precedenti: l insieme k m,n delle matrici m n a coefficienti in k = R, C, l insieme V

Dettagli

ESERCITAZIONE SUI PUNTI STAZIONARI DI FUNZIONI LIBERE E SULLE FUNZIONI OMOGENEE

ESERCITAZIONE SUI PUNTI STAZIONARI DI FUNZIONI LIBERE E SULLE FUNZIONI OMOGENEE ESERCITAZIONE SUI PUNTI STAZIONARI DI FUNZIONI LIBERE E SULLE FUNZIONI OMOGENEE 1 Funzioni libere I punti stazionari di una funzione libera di più variabili si ottengono risolvendo il sistema di equazioni

Dettagli

Capitolo VI SISTEMI LINEARI

Capitolo VI SISTEMI LINEARI Capitolo VI SISTEMI LINEARI 1 Concetti fondamentali 11 Definizione Un equazione in n incognite x 1,, x n a coefficienti in R si dice lineare se è della forma: a 1 x 1 + + a n x n = b con a i R e b R Una

Dettagli

Proposizione 2 Il polinomio minimo di t corrisponde all annullatore minimale di M V.

Proposizione 2 Il polinomio minimo di t corrisponde all annullatore minimale di M V. Fogli NON riletti. Grazie per ogni segnalazione di errori. L esempio qui sviluppato vuole mostrare in concreto il significato dei risultati trattati a lezione e qui velocemente riassunti. Si assume che

Dettagli

Geometria e Topologia I (U1-4) 2006-mag-10 61

Geometria e Topologia I (U1-4) 2006-mag-10 61 Geometria e Topologia I (U1-4) 2006-mag-10 61 (15.9) Teorema. Consideriamo il piano affine. Se A A 2 (K) è un punto e r una retta che non passa per A, allora esiste unica la retta per A che non interseca

Dettagli

8. Completamento di uno spazio di misura.

8. Completamento di uno spazio di misura. 8. Completamento di uno spazio di misura. 8.1. Spazi di misura. Spazi di misura completi. Definizione 8.1.1. (Spazio misurabile). Si chiama spazio misurabile ogni coppia ordinata (Ω, A), dove Ω è un insieme

Dettagli

Esercizi di Geometria 1 - Foglio 3bis

Esercizi di Geometria 1 - Foglio 3bis Esercizi di Geometria - Foglio 3bis Alessandro Rubin (alex.rubin@outlook.com) Si ringrazia Ricardo Tzantzoglou per il codice L A TEX condiviso dicembre 7 Esercizio. Sia f : V W un applicazione e G = {(v,

Dettagli

0.1 Spazi Euclidei in generale

0.1 Spazi Euclidei in generale 0.1. SPAZI EUCLIDEI IN GENERALE 1 0.1 Spazi Euclidei in generale Sia V uno spazio vettoriale definito su R. Diremo, estendendo una definizione data in precedenza, che V è uno spazio vettoriale euclideo

Dettagli

3. Successioni di insiemi.

3. Successioni di insiemi. 3. Successioni di insiemi. Per evitare incongruenze supponiamo, in questo capitolo, che tutti gli insiemi considerati siano sottoinsiemi di un dato insieme S (l insieme ambiente ). Quando occorrerà considerare

Dettagli

11. Misure con segno.

11. Misure con segno. 11. Misure con segno. 11.1. Misure con segno. Sia Ω un insieme non vuoto e sia A una σ-algebra in Ω. Definizione 11.1.1. (Misura con segno). Si chiama misura con segno su A ogni funzione ϕ : A R verificante

Dettagli

04 - Numeri Complessi

04 - Numeri Complessi Università degli Studi di Palermo Facoltà di Economia CdS Statistica per l Analisi dei Dati Appunti del corso di Matematica 04 - Numeri Complessi Anno Accademico 2013/2014 M. Tumminello, V. Lacagnina e

Dettagli

Topologia, continuità, limiti in R n

Topologia, continuità, limiti in R n Topologia, continuità, limiti in R n Ultimo aggiornamento: 18 febbraio 2017 1. Preliminari Prima di iniziare lo studio delle funzioni di più variabili, in generale funzioni di k variabili e a valori in

Dettagli

Note per le esercitazioni di Geometria 1 a.a. 2007/08 A. Lotta. Metodi per il calcolo del rango di una matrice

Note per le esercitazioni di Geometria 1 a.a. 2007/08 A. Lotta. Metodi per il calcolo del rango di una matrice Note per le esercitazioni di Geometria 1 a.a. 2007/08 A. Lotta Versione del 21/12/07 Metodi per il calcolo del rango di una matrice Sia A M m,n (K). Denotiamo con A (i) la riga i-ma di A, i {1,..., m}.

Dettagli

FONDAMENTI DI ALGEBRA LINEARE E GEOMETRIA INGEGNERIA CHIMICA E DEI MATERIALI 27 GIUGNO 2016

FONDAMENTI DI ALGEBRA LINEARE E GEOMETRIA INGEGNERIA CHIMICA E DEI MATERIALI 27 GIUGNO 2016 FONDAMENTI DI ALGEBRA LINEARE E GEOMETRIA INGEGNERIA CHIMICA E DEI MATERIALI 7 GIUGNO 06 MATTEO LONGO Ogni versione del compito contiene solo due tra i quattro esercizi 6-7-8-9. Esercizio. Considerare

Dettagli

4 Autovettori e autovalori

4 Autovettori e autovalori 4 Autovettori e autovalori 41 Cambiamenti di base Sia V uno spazio vettoriale tale che dim V n Si è visto in sezione 12 che uno spazio vettoriale ammette basi distinte, ma tutte con la medesima cardinalità

Dettagli

Esistenza ed unicità per equazioni differenziali

Esistenza ed unicità per equazioni differenziali Esistenza ed unicità per equazioni differenziali Per concludere queste lezioni sulle equazioni differenziali vogliamo dimostrare il teorema esistenza ed unicità per il problema di Cauchy. Faremo la dimostrazione

Dettagli

Capitolo IV SPAZI VETTORIALI EUCLIDEI

Capitolo IV SPAZI VETTORIALI EUCLIDEI Capitolo IV SPAZI VETTORIALI EUCLIDEI È ben noto che in VO 3 si possono considerare strutture più ricche di quella di spazio vettoriale; si pensi in particolare all operazioni di prodotto scalare di vettori.

Dettagli

Applicazioni lineari e diagonalizzazione

Applicazioni lineari e diagonalizzazione Applicazioni lineari e diagonalizzazione Autospazi Autovettori e indipendenza lineare Diagonalizzabilità e autovalori 2 2006 Politecnico di Torino 1 Esempio (1/6) Utilizzando un esempio già studiato, cerchiamo

Dettagli

Il Teorema di Mountain-Pass

Il Teorema di Mountain-Pass Capitolo 4 Il Teorema di Mountain-Pass Descriviamo ora un altro metodo per trovare soluzioni non nulle di alcuni tipi di problemi, per esempio { u = u p 1 u in u = 0 su (4.1) con p > 1, utilizzando dei

Dettagli

ESERCIZI SUI PUNTI DI NON DERIVABILITÀ TRATTI DA TEMI D ESAME

ESERCIZI SUI PUNTI DI NON DERIVABILITÀ TRATTI DA TEMI D ESAME ESERCIZI SUI PUNTI DI NON DERIVABILITÀ TRATTI DA TEMI D ESAME a cura di Michele Scaglia FUNZIONI DERIVABILI Sia f : domf R una funzione e sia 0 domf di accumulazione per domf Chiamiamo derivata prima di

Dettagli

AUTOVALORI, AUTOVETTORI, AUTOSPAZI

AUTOVALORI, AUTOVETTORI, AUTOSPAZI AUTOVALORI, AUTOVETTORI, AUTOSPAZI. Esercizi Esercizio. Sia f : R 3 R 3 l endomorfismo definito da f(x, y, z) = (x+y, y +z, x+z). Calcolare gli autovalori ed una base per ogni autospazio di f. Dire se

Dettagli

ESERCIZI sui VETTORI

ESERCIZI sui VETTORI ESERCIZI sui VETTORI 1. Calcolare la somma di v 1 (2, 3) e v 2 (1, 4). 2. Calcolare la somma di v 1 (1, 5, 4) e v 2 (6, 8, 2). 3. Calcolare il prodotto di α = 2 e v 1 (1, 4). 4. Calcolare il prodotto di

Dettagli

DATI DELLO STUDENTE: NomeeCognome:... NumerodiMatricola:... PROCESSI STOCASTICI 09/09/2015, ESAME SCRITTO

DATI DELLO STUDENTE: NomeeCognome:... NumerodiMatricola:... PROCESSI STOCASTICI 09/09/2015, ESAME SCRITTO DATI DELLO STUDENTE: NomeeCognome:... NumerodiMatricola:... PROCESSI STOCASTICI 09/09/20, ESAME SCRITTO L uso di testi, appunti, formulari e gadget elettronici non è autorizzato. Avete 2 ore di tempo a

Dettagli

4 Funzioni continue. Geometria I 27. Cfr: Sernesi vol II, cap I, 4 [1].

4 Funzioni continue. Geometria I 27. Cfr: Sernesi vol II, cap I, 4 [1]. Geometria I 27 4 Funzioni continue Cfr: Sernesi vol II, cap I, 4 [1]. Le funzioni continue tra spazi topologici si dicono anche mappe. Si può dimostrare, esattamente come in (2.10) e in (1.10), che vale

Dettagli

Il teorema di Ascoli-Arzelà

Il teorema di Ascoli-Arzelà Il teorema di Ascoli-Arzelà Alcuni risultati sugli spazi metrici Spazi metrici (e topologici) compatti Richiamiamo le definizioni di compattezza negli spazi metrici. Sia (X, d) una spazio metrico e sia

Dettagli

1 Volume di parallelepipedi e determinanti

1 Volume di parallelepipedi e determinanti 1 Volume di parallelepipedi e determinanti Dimostriamo la seguente relazione fondamentale tra volumi e determinanti. Lemma 1 Sia T una matrice reale (n n) e sia K 1 := [0, 1] n. Allora dove mis denota

Dettagli

Coseno, seno e π (8/12/2016)

Coseno, seno e π (8/12/2016) Università Roma Tre L. Chierchia 1 Coseno, seno e π (8/1/016 Qui daremo una presentazione analitica e autocontenuta della definizione e delle proprietà fondamentali del coseno, del seno e di π. Definizione

Dettagli

LEZIONE i i 3

LEZIONE i i 3 LEZIONE 5 51 Determinanti In questo lezione affronteremo da un punto di vista prettamente operativo la nozione di determinante, descrivendone le proprietà ed i metodi di calcolo, senza entrare nei dettagli

Dettagli

MATRICI ORTOGONALI. MATRICI SIMMETRICHE E FORME QUADRATICHE

MATRICI ORTOGONALI. MATRICI SIMMETRICHE E FORME QUADRATICHE DIAGONALIZZAZIONE 1 MATRICI ORTOGONALI. MATRICI SIMMETRICHE E FORME QUADRATICHE Matrici ortogonali e loro proprietà. Autovalori ed autospazi di matrici simmetriche reali. Diagonalizzazione mediante matrici

Dettagli

LEZIONE i 0 3 Le sottomatrici 2 2 di A sono. 1 2 i i 3. Invece (

LEZIONE i 0 3 Le sottomatrici 2 2 di A sono. 1 2 i i 3. Invece ( LEZIONE 6 6 Determinanti In questa lezione affronteremo da un punto di vista prettamente operativo la nozione di determinante, descrivendone le proprietà ed i metodi di calcolo, senza entrare nei dettagli

Dettagli