Catene di Markov. 8 ottobre 2009
|
|
|
- Lucia Simonetti
- 9 anni fa
- Visualizzazioni
Transcript
1 Catene di Markov 8 ottobre 2009 Definizione 1. Si dice catena di Markov (finita) un sistema dotato di un numero finito n di stati {1, 2,..., n} che soddisfi la seguente ipotesi: la probabilità che il sistema passi dallo stato i allo stato j al tempo k 1 è p ij (k). In altre parole, una catena di Markov è un sistema in cui la probabilità di uno stato i al tempo k è determinata univocamente dallo stato del sistema al tempo k 1 e non dalla storia dello stesso. Definizione 2. Data una catena di Markov e fissato un tempo k, la matrice p 11 (k) p 12 (k)... p 1n (k) p 21 (k) p 22 (k)... p 2n (k) P k =.. p n1 (k)... p nn (k) è detta matrice di transizione al tempo k. In letteratura talvolta si trova indicata come matrice di transizione la trasposta di P k. Notiamo che la riga i esima della matrice P k descrive la possibile evoluzione dello stato i al tempo k; pertanto la somma di tutti i valori che ivi compaiono deve essere 1. Forniamo la seguente definizione. Definizione 3. Una matrice P è detta stocastica se 0 p ij 1 per ogni 1 i, j n; n j=1 p ij = 1 Per quanto sopra osservato la matrice di transizione di una catena di Markov è stocastica. Sia ora s k = (s k 1, sk 2,..., sk n) un vettore tale che s i sia 1
2 la probabilità che al tempo i la catena di Markov sia nello stato i. È facile vedere che s k+1 = s k P k+1 = s k 1 P k P k+1 =... = s 0 P k+1 P k P 1. (1) In particolare, quando le matrici P t sono tutte uguali fra loro e pari a P si dice che la catena di Markov ha probabilità di transizione stazionarie ovvero che essa è omogenea. In questo caso la (1) diviene più semplicemente s k+1 = s 0 P k+1. (2) Innanzi tutto ci chiediamo se esista un vettore che sia fissato dalla (2). Lemma 1. Una matrice quadrata A ha i medesimi autovalori della sua trasposta A T. Dimostrazione. det(a λi) = det(a λi) T = det(a T λi). Teorema 1. La matrice P T k ha autovalore 1. Dimostrazione. Gli autovalori di P k e P T k coincidono. Consideriamo il vettore v = P k 1, ove per 1 si intende il vettore colonna in cui tutte le componenti sono 1. Considerata la stocasticità di P k abbiamo p 11 + p p 1n 1 p 21 + p p 2n v =. = 1.. p n1 + p n p nn 1 Pertanto 1 è autovettore di P k di autovalore 1. Osserviamo che se s è un autovettore per P T di autovalore 1 e abbiamo una catena di Markov omogenea, allora s = sp = sp k per ogni k N. Non è detto a priori che esista un autovettore s di autovalore 1 non negativo, nel senso che i : s i 0. 2
3 Richiamiamo che una distribuzione di probabilità s per un sistema ad n stati è un vettore non negativo di R n con la condizione aggiuntiva n s i = 1. i=1 Se P ammette almeno un autovettore non negativo v di autovalore 1, allora esiste anche una distribuzione di probabilità s = 1 n i=1 v i v tale che, per ogni k > 0, s k = sp k = s. Una tale distribuzione è detta stazionaria. Definizione 4. Siano V uno spazio vettoriale su R o su C e φ : V V una applicazione lineare continua. Indichiamo con ι : V V l applicazione identica. Si dice spettro di φ l insieme Spec(φ) = {λ : φ λι non è invertibile}. In particolare, se V ha dimensione finita, allora lo spettro di una applicazione lineare φ coincide con l insieme degli autovalori di una qualsiasi matrice A che rappresenta φ. Definizione 5. Il raggio spettrale di una applicazione lineare φ è il numero ρ(φ) = sup{ λ : λ Spec(φ)}. Il raggio spettrale di una matrice A è definito come il raggio spettrale di una qualsiasi applicazione lineare rappresentata da A. Esso si indicherà con il simbolo ρ(a). Teorema 2 (Perron Frobenius). Sia A una matrice n n con entrate non negative. Allora esiste un autovettore s non negativo di autovalore ρ(a). Si noti che il teorema asserisce anche che ρ(a) 0 è autovalore per A. Teorema 3. Per ogni matrice A = (a ij ) non negativa si ha min i n j=1 a ij ρ(a) max i n a ij. j=1 3
4 In particolare, ogni matrice stocastica P ha raggio spettrale ρ(p) = 1; pertanto, ogni matrice stocastica ammette almeno una distribuzione di probabilità stazionaria s. Supponiamo ora di avere una catena di Markov omogenea in cui lo stato finale del sistema (nel senso di v = lim k v 0 lim k P k ) non dipenda dalle condizioni iniziali v 0. Più formalmente abbiamo che devono esistere contemporaneamente: 1. P = lim k P k ; 2. un vettore di probabilità f tale che per ogni vettore di probabilità x, xp = f. Supposto che esista il limite, se come x scegliamo proprio un vettore stazionario s abbiamo per ogni k 0 s = sp k, da cui s = s lim k P k = sp = f. Pertanto il vettore f deve essere un autovettore non negativo s per P di autovalore 1. Inoltre, denotati con e 1, e 2,..., e n i vettori della base canonica di R n si ha e 1 P = e 2 P = = e n P = s; da questo segue che tutte le righe di P sono uguali e devono coincidere con s; in altre parole, la matrice P deve avere la forma P =... Per quanto visto sopra, è chiaro che se P ammette più di una distribuzione stazionaria, non è possibile che il limite P esista. Pertanto, nel seguito di queste note forniremo condizioni sufficienti affinché una catena di Markov ammetta un unica distribuzione stazionaria e mostreremo con quali ulteriori ipotesi si possa garantire che il sistema converga a tale distribuzione indipendentemente dalle condizioni iniziali. 4
5 Definizione 6. Un grafo orientato finito Γ = (V, E) è una coppia ordinata di insiemi, ove V = {1, 2,..., n} è un insieme finito, mentre E V V. Gli elementi di V sono detti vertici di Γ; quelli di E, spigoli. Definizione 7. Un percorso su Γ è una successione di vertici (v 1, v 2,..., v t ) tale che (v i, v i+1 ) E per ogni i < t. Un circuito in Γ è una successione del tipo (v 1, v 2,..., v t, v 1 ) in cui cioè l ultimo vertice coincide con il primo. Definizione 8. Ad ogni grafo con n vertici, è possibile associare una matrice quadrata n n, detta matrice di adiacenza. Tale matrice è la matrice D = (d ij ) ove { 1 se (i, j) E d ij = 0 altrimenti Chiaramente ad ogni grafo corrisponde una matrice di adiacenza; viceversa, data una matrice binaria D è sempre possibile costruire un grafo Γ che ha D come matrice di adiacenza. Data una catena di Markov omogenea con matrice di transizione P = (p ij ), è sempre possibile costruire una matrice binaria P = ( p ij ) ponendo { 1 se pij > 0 p ij = 0 altrimenti Chiamiamo Γ il grafo che ha P come matrice di incidenza. Osserviamo che due vertici in Γ, diciamo i e j, sono collegati da uno spigolo se, e solamente se, è possibile passare dallo stato i allo stato j nella catena di Markov. Inoltre, possiamo vedere che comunque dati altri due vertici k e l in Γ esiste un percorso che collega l con m, se, e solamente se, la probabilità di passare da l ad m dopo un tempo sufficientemente lungo (che sarà pari alla lunghezza k del percorso in oggetto) è maggiore di 0. In altre parole, esiste un percorso che collega l con m se, e solamente se, lo stato m è raggiungibile a partire dallo stato l. Osserviamo che questo è equivalente a dire che esiste un intero k, funzione di l e di m, tale che nella potenza P k della matrice P l entrata in posizione (l, m), diciamo p (k) lm, sia strettamente maggiore di 0. Definizione 9. Una catena di Markov è detta irriducibile se comunque fissati due stati i e j esiste un intero k = k(i, j) tale che dopo k unità di tempo sia possibile passare da i a j. In altre parole, una catena di Markov è irriducibile se comunque dati due vertici sul grafo ad essa associato esiste almeno un percorso orientato che li collega. 5
6 Teorema 4. Una catena di Markov irriducibile ammette un unica distribuzione di probabilità stazionaria; conseguentemente, l autospazio V 1 della matrice di transizione associata ha dimensione 1. Definizione 10. Una catena di Markov è detta primitiva se esiste un intero k tale che in k passaggi sia possibile passare da un qualsiasi stato i ad un qualsiasi stato j. In particolare, una catena di Markov è primitiva se, e solamente se, esiste una potenza k della sua matrice di transizione tale che ogni entrata in P k sia strettamente maggiore di 0. Ogni catena di Markov primitiva è chiaramente irriducibile, ma il viceversa non è vero. Ad esempio, la catena di Markov con matrice di transizione ( 0 ) è irriducibile, ma non primitiva. L autospazio di autovalore 1 è generato dal vettore s = (0.5, 0.5). Teorema 5 (Teorema ergodico per catene di Markov primitive). Sia P la matrice di transizione di una catena di Markov primitiva e denotiamo con s = (s 1, s 2,..., s n ) il suo vettore di stabilità. Allora, quando k abbiamo P k P... La velocità di convergenza a tale limite è geometrica. Il contenuto pratico del teorema è il seguente: dopo un tempo sufficientemente lungo lo stato di una catena di Markov primitiva non dipende dalle condizioni iniziali. Infatti, supponiamo di avere una catena di Markov primitiva con vettore di stabilità s = (s 1, s 2,..., s n ) e e consideriamo un vettore di probabilità iniziale arbitrario u 0 = (u 1, u 2,..., u n ). Chiaramente n i=1 u i = 1. Abbiamo, lim u k =u 0 lim k P k = ( ) u 1, u 2,..., u n k.. = = ( s 1 n i=1 u i, s 2 n i=1 u i,..., s n n i=1 u i) = s 6
7 Per concludere, notiamo che la matrice P di transizione è descritta da n 2 numeri reali, ma il comportamento asintotico del sistema dipende solamente dal vettore s che consta di sole n componenti. Definizione 11. Si dice ciclo un percorso su di un grafo orientato che connetta un vertice con se stesso. Definizione 12. Il periodo di uno stato i di una catena di Markov è il massimo comun divisore d(i) della lunghezza di tutti i cicli del grafo associato contenenti i. Se d(i) = 1, si dice che lo stato i è aperiodico. Studiamo ora più in dettaglio la struttura degli stati di una catena di Markov. Definizione 13. Si dice che due stati i e j comunicano in una catena di Markov se, e solamente se, esistono percorsi nel grafo associato sia da i verso j che da j verso i. Sia ora E = {i : j con i comunica con j} Osserviamo che la relazione di cominicare con è di equivalenza sull insieme E. Infatti, 1. dato uno stato a E esiste almeno un altro stato b E in comunicazione con a. Pertanto, esistono un percorso l 1 : a b e un percorso l 2 b a. Ne segue che il percorso l 2 l 1 collega a con se stesso a e dunque la relazione è riflessiva. 2. uno stato a comunica con uno stato b se e solamente se esistono due percorsi l 1 : a b e l 2 : b a; questo chiaramente implica che b comunica anche con a e dunque la relazione è simmetrica. 3. se lo stato a comunica con lo stato b e lo stato b comunica con lo stato c, allora esistono percorsi l 1 : a b, l 2 : b a e m 1 : b c, m 2 : c b. Allora, si ha m 1 l 1 : a c e l 2 m 2 : c a; pertanto a comunica con b; ne segue che la relazione è anche transiva. Le classi di equivalenza in E della sopramenzionata relazione sono dette classi comunicati di M. Osserviamo che nel caso di una catena di Markov irriducibile esiste un unica classe comunicante. Teorema 6. Il periodo degli elementi è costante su ogni classe comunicante. 7
8 Dimostrazione. Sia P la matrice di transizione e consideriamo due stati comunicanti i e j. Allora, esistono interi M e N tali che t (M) ij > 0 e t (N) ji > 0. Allora, per ogni intero positivo s tale che t (s) jj > 0 (sicuramente ne esistono, in quanto j è in comunicazione con se stesso; si consideri ad esempio il percorso che unisce j con i seguito dal percorso che unisce i con j) si ha t (M+s+N) ii t (M) ij t (s) jj t(n) ji > 0. Questo è conseguenza delle regole del prodotto righe per colonne e della non negatività degli elementi considerati. Osserviamo che se t (s) jj > 0, allora anche t (2s) jj > 0 e quindi t (M+2s+N) ii > 0. Ne segue che d(i) divide M + 2s + N (M + s + N) = s; dunque, d(i) divide ogni s tale che t (s) jj > 0. Ne segue d(i) d(j). Scambiando i ruoli di i e di j si ottiene La tesi segue. d(j) d(i). Ha dunque senso definire il periodo di una classe comunicante come il periodo di un suo qualsiasi elemento. È possibile ora caratterizzare le catene di Markov primitive in termini di periodicità. Teorema 7. Una catena di Markov irriducibile è primitiva se, e solamente se, è aperiodica. In termini di grafo associato, il teorema precedente asserisce che per verificare se una catena è primitiva si devono controllare le seguenti due condizioni: 1. che il grafo sia connesso, nel senso che è possibile passare da ogni vertice fissato i ad un qualsiasi altro vertice j; 2. che il massimo comun divisore della lunghezza dei cicli passanti per uno stato i fissato (e conseguentemente per tutti gli stati della catena, alla luce del Teorema 6) sia 1. Cerchiamo ora condizioni più deboli che pure garantiscano una qualche forma di ergodicità, ovvero l esistenza di un limite indipendente dalle condizioni iniziali che descriva la matrice di transizione P k per k. 8
9 Definizione 14. Sia M una catena di Markov; uno stato i per m è detto essenziale se, per ogni stato j raggiungibile da i esiste un percorso che da j riconduce ad i ed esiste almeno un j raggiungibile da i. In caso contrario lo stato i è detto non essenziale. In altre parole, uno stato è detto essenziale se esso comunica con ogni stato da esso raggiungibile mediante un percorso. In particolare, in una catena di Markov irriducibile ogni stato è essenziale. Data una catena non irriducibile è sempre possibile ripartire l insieme dei suoi stati essenziali in classi essenziali a due a due disgiunte. Osserviamo che ogni classe essenziale è, a priori, un sottoinsieme di una classe comunicante. Il seguente teorema mostra che, in generale, è possibile ignorare gli stati non essenziali quando si è interessati al comportamento asintotico di una catena di Markov. Teorema 8. Sia M una catena di Markov finita e supponiamo che Q sia la sottomatrice di M associata alle transizioni fra stati non essenziali. Allora, Q k 0 in modo geometrico al crescere di k. In generale, una catena di Markov finita ammette sempre almeno una classe essenziale; chiaramente, ristretta ad ogni singola classe essenziale una catena è irriducibile. Di particolare interesse è il caso in cui la catena ristretta risulta anche primitiva ed esiste una sola classe di questo tipo. Definizione 15. Una catena di Markov è detta regolare se i suoi stati essenziali costituiscono una singola classe comunicante aperiodica. Possiamo ora formulare un teorema di convergenza. Teorema 9 (Teorema ergodico per catene di Markov regolari). Una catena di Markov regolare ammette esattamente una distribuzione stazionaria v. Inoltre, se supponiamo che i primi i stati costituiscano una classe essenziale e che la matrice di transizione di probabilità sia P, si ottiene v 1... v i P k v 1... v i v 1... v i quando k e la convergenza è geometrica. 9
Note sulle Catene di Markov
Note sulle Catene di Markov ELAUT Prof. Giuseppe C. Calafiore Sommario Queste note contengono un estratto schematico ridotto di parte del materiale relativo alle Catene di Markov a tempo continuo e a tempo
Matrici delle differenze finite
Capitolo 8 Matrici delle differenze finite Si riportano in questo capitolo alcuni risultati e proprietà delle matrici delle differenze finite ovvero delle matrici che intervengono nel metodo delle differenze
Introduzione ai grafi
TFA A048 Anno Accademico 2012-13 Outline Cenni storici sui grafi Nozioni introduttive: cammini, connessione, alberi, cicli Cammini di costo minimo Origini storiche La nascita della teoria dei grafi risale
TEORIA STABILE DELLA POPOLAZIONE
TEORIA STABILE DELLA POPOLAZIONE [Luigi Salce, Vicenza, 10 Marzo 2011] GLI ATTREZZI Useremo un pò di teoria delle matrici del tipo di quella usata per i sottotriangoli, ma con in più un pò di teoria dei
APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof. F.Podestà, a.a
APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof FPodestà, aa 003-004 Sia V uno spazio vettoriale e sia f : V V una applicazione lineare una tale applicazione da uno spazio vettoriale in se stesso è chiamata
Teoria dei Grafi Elementi di base della Teoria dei Grafi
L. Pallottino, Sistemi Robotici Distribuiti - Versione del 4 Marzo 2015 42 Teoria dei Grafi Elementi di base della Teoria dei Grafi Definizione 1. Un grafo G = (V, E) è composto da un insieme finito di
Parte V: Rilassamento Lagrangiano
Parte V: Rilassamento Lagrangiano Tecnica Lagrangiana Consideriamo il seguente problema di Programmazione Lineare Intera: P 1 min c T x L I Ax > b Cx > d x > 0, intera in cui A = matrice m x n C = matrice
Geometria e Topologia I (U1-4) 2006-mag-10 61
Geometria e Topologia I (U1-4) 2006-mag-10 61 (15.9) Teorema. Consideriamo il piano affine. Se A A 2 (K) è un punto e r una retta che non passa per A, allora esiste unica la retta per A che non interseca
NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n
NOTE DI ALGEBRA LINEARE 2- MM 9 NOVEMBRE 2 Combinazioni lineari e generatori Sia K un campo e V uno spazio vettoriale su K Siano v,, v n vettori in V Definizione Un vettore v V si dice combinazione lineare
Note sull algoritmo di Gauss
Note sull algoritmo di Gauss 29 settembre 2009 Generalità Un sistema lineare di m equazioni in n incognite x,..., x n è un espressione del tipo: a x + a 2 x 2 + + a n x n = b a 2 x + a 22 x 2 + + a 2n
Autovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti)
Autovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti) April 14, 2011 (alcune note non complete sugli argomenti trattati: eventuali completamenti saranno aggiunti)
Introduzione soft alla matematica per l economia e la finanza. Marta Cardin, Paola Ferretti, Stefania Funari
Introduzione soft alla matematica per l economia e la finanza Marta Cardin, Paola Ferretti, Stefania Funari Capitolo Sistemi di equazioni lineari.8 Il Teorema di Cramer Si consideri un generico sistema
MATRICI E VETTORI APPROFONDIMENTO PER IL CORSO DI LABORATORIO DI INFORMATICA SARA POLTRONIERI
MATRICI E VETTORI APPROFONDIMENTO PER IL CORSO DI LABORATORIO DI INFORMATICA SARA POLTRONIERI LE MATRICI DEFINIZIONE: Una matrice è un insieme di numeri disposti su righe e colonne. 1 3 7 M = 2 5 1 M è
SOTTOSPAZI E OPERAZIONI IN SPAZI DIVERSI DA R n
SPAZI E SOTTOSPAZI 1 SOTTOSPAZI E OPERAZIONI IN SPAZI DIVERSI DA R n Spazi di matrici. Spazi di polinomi. Generatori, dipendenza e indipendenza lineare, basi e dimensione. Intersezione e somma di sottospazi,
Diagonalizzabilità di endomorfismi
Capitolo 16 Diagonalizzabilità di endomorfismi 16.1 Introduzione Nei capitoli precedenti abbiamo definito gli endomorfismi su uno spazio vettoriale E. Abbiamo visto che, dato un endomorfismo η di E, se
CONICHE. Esercizi Esercizio 1. Nel piano con riferimento cartesiano ortogonale Oxy sia data la conica C di equazione
CONICHE Esercizi Esercizio 1. Nel piano con riferimento cartesiano ortogonale Oy sia data la conica C di equazione 7 2 + 2 3y + 5y 2 + 32 3 = 0. Calcolare le equazioni di una rototraslazione che riduce
Algebra Lineare Autovalori
Algebra Lineare Autovalori Stefano Berrone Sandra Pieraccini Dipartimento di Matematica Politecnico di Torino, Corso Duca degli Abruzzi 24, 10129, Torino, Italy e-mail: [email protected] [email protected]
AUTOVALORI, AUTOVETTORI, AUTOSPAZI
AUTOVALORI, AUTOVETTORI, AUTOSPAZI. Esercizi Esercizio. Sia f : R 3 R 3 l endomorfismo definito da f(x, y, z) = (x+y, y +z, x+z). Calcolare gli autovalori ed una base per ogni autospazio di f. Dire se
Sottospazi vettoriali
Capitolo 6 Sottospazi vettoriali 6.1 Introduzione Riprendiamo un argomento già studiato ampiamente nel corso di Geometria, i sottospazi vettoriali di uno spazio vettoriale. Ci limiteremo a darne la definizione,
Metodi per la risoluzione di sistemi lineari
Metodi per la risoluzione di sistemi lineari Sistemi di equazioni lineari. Rango di matrici Come è noto (vedi [] sez.0.8), ad ogni matrice quadrata A è associato un numero reale det(a) detto determinante
NORMA DI UN VETTORE. Una NORMA VETTORIALE su R n è una funzione. : R n R +
NORMA DI UN VETTORE Una NORMA VETTORIALE su R n è una funzione. : R n R + {0}, che associa ad ogni vettore x R n di componenti x i, i = 1,..., n, uno scalare in modo che valgano le seguenti proprietà:
Matrici jordanizzabili
Capitolo 17 Matrici jordanizzabili 17.1 Introduzione Abbiamo visto che non tutte le matrici sono simili a matrici diagonali. Mostreremo in questo capitolo che alcune matrici sono simili a matrici di Jordan.
Esercizi con catene di Markov Pietro Caputo 12 dicembre 2006
Esercizi con catene di Markov Pietro Caputo dicembre 006 Esercizio. Si considerino i lanci di un dado (6 facce equiprobabili). Sia X n il minimo tra i risultati ottenuti nei lanci,,..., n. Si calcoli la
1 Successioni di funzioni
Analisi Matematica 2 Successioni di funzioni CORSO DI STUDI IN SMID CORSO DI ANALISI MATEMATICA 2 CAPITOLO 6 SERIE DI POTENZE Supponiamo di associare ad ogni n N (rispettivamente ad ogni n p, per qualche
Note per il corso di Geometria Corso di laurea in Ing. Edile/Architettura. 4 Sistemi lineari. Metodo di eliminazione di Gauss Jordan
Note per il corso di Geometria 2006-07 Corso di laurea in Ing. Edile/Architettura Sistemi lineari. Metodo di eliminazione di Gauss Jordan.1 Operazioni elementari Abbiamo visto che un sistema di m equazioni
LEZIONE 3. Typeset by AMS-TEX
LEZIONE 3 3 Risoluzione di sistemi Supponiamo che AX = B sia un sistema di equazioni lineari Ad esso associamo la sua matrice completa (A B Per la Proposizione 236 sappiamo di poter trasformare, con operazioni
LEZIONE 16 A = Verifichiamo se qualcuna fra le entrate a di A è suo autovalore. determinare per quale entrata a di A risulta rk(a ai 2 ) 1.
LEZIONE 16 16.1. Autovalori, autovettori ed autospazi di matrici. Introduciamo la seguente definizione. Definizione 16.1.1. Siano k = R, C e A k n,n. Un numero λ k si dice autovalore di A su k) se rka
Il Teorema Spettrale. 0.1 Applicazioni lineari simmetriche ed hermitiane
0.1. APPLICAZIONI LINEARI SIMMETRICHE ED HERMITIANE 1 Il Teorema Spettrale In questa nota vogliamo esaminare la dimostrazione del Teorema Spettrale e studiare le sue conseguenze per quanto riguarda i prodotti
Formulario sui Prodotti Hermitiani Marcello Mamino Pisa, 24 v 2010
Formulario sui Prodotti Hermitiani Marcello Mamino Pisa, 24 v 2010 In quetsa dispensa: V è uno spazio vettoriale di dimensione d sul campo complesso C generato dai vettori v 1,..., v d. Le variabili m,
Vettori e matrici. Lorenzo Pareschi. Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara
Vettori e matrici Lorenzo Pareschi Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara http://utentiunifeit/lorenzopareschi/ lorenzopareschi@unifeit Lorenzo Pareschi Univ Ferrara
= elemento che compare nella seconda riga e quinta colonna = -4 In generale una matrice A di m righe e n colonne si denota con
Definizione di matrice Una matrice (di numeri reali) è una tabella di m x n numeri disposti su m righe e n colonne. I numeri che compaiono nella tabella si dicono elementi della matrice. La loro individuazione
Similitudine (ortogonale) e congruenza (ortogonale) di matrici.
Lezione del 4 giugno. Il riferimento principale di questa lezione e costituito da parti di: 2 Forme bilineari, quadratiche e matrici simmetriche associate, 3 Congruenza di matrici simmetriche, 5 Forme
LEZIONE 2. ( ) a 1 x 1 + a 2 x a n x n = b, ove a j, b R sono fissati.
LEZIONE 2 2 Sistemi di equazioni lineari Definizione 2 Un equazione lineare nelle n incognite x, x 2,, x n a coefficienti reali, è un equazione della forma (2 a x + a 2 x 2 + + a n x n = b, ove a j, b
Luigi Piroddi
Automazione industriale dispense del corso (a.a. 2008/2009) 10. Reti di Petri: analisi strutturale Luigi Piroddi [email protected] Analisi strutturale Un alternativa all analisi esaustiva basata sul
CORSO DI ALGEBRA LINEARE Anno Accademico 2004/2005 Appunti su SISTEMI di EQUAZIONI LINEARI
CORSO DI ALGEBRA LINEARE Anno Accademico 2004/2005 Appunti su SISTEMI di EQUAZIONI LINEARI Lo studente ha forse già incontrato i sistemi di equazioni lineari alla scuola secondaria Con il termine equazione
Matrici simili. Matrici diagonalizzabili.
Matrici simili. Matrici diagonalizzabili. Definizione (Matrici simili) Due matrici quadrate A, B si dicono simili se esiste una matrice invertibile P tale che B = P A P. () interpretazione: cambio di base.
