Metodi Computazionali



Documenti analoghi
Un modello di Markov per la determinazione del rendimento atteso di un obbligazione rischiosa

Università di Roma Tor Vergata Corso di Teoria dei Fenomeni Aleatori, AA 2012/13. Catene di Markov

Markov Chains and Markov Chain Monte Carlo (MCMC)

PROCESSI STOCASTICI 1: ESERCIZI

Note sulle Catene di Markov

Catene di Markov. 8 ottobre 2009

UNIVERSITÀ di ROMA TOR VERGATA

Catene di Markov - Foglio 1

5. Catene di Markov a tempo discreto (CMTD)

RETI DI TELECOMUNICAZIONE

SISTEMI CASUALI DINAMICI (PROCESSI) ESEMPIO: I GUASTI (Ipotesi Markoviana) Frequenza dei guasti: N Guasti = N/T X X X X X X X

Tutorato XI Probabilità e Statistica a.a. 2014/2015

Processi stocastici. variabile casuale: funzione da uno spazio campione S a valori nello spazio E R X(t) : S E. spazio degli stati del processo

Processi di Markov. Processi di Markov

in punti consecutivi di osservazione 0,1,2,, n, è una catena di Markov a tempo discreto (Discrete Time Markov Chain DTMC) se, per ogni n N 0

ESERCIZI SULLE CATENE DI MARKOV. Docente titolare: Irene Crimaldi 18/11/2009 P =

Calcolo delle Probabilità 2017/18 Foglio di esercizi 8

Ingegneria del Software 9. Macchine a stati. Dipartimento di Informatica Università di Pisa A.A. 2014/15

La matematica di Google

RETI DI TELECOMUNICAZIONE

Esercizio 1. Una obbligazione può avere rating A, B, C o D e passare da un rating all altro secondo la matrice di transizione

Campionamento La statistica media campionaria e la sua distribuzione

PROCESSI STOCASTICI A.A. 2010/2011. DIARIO DELLE LEZIONI

Esercizi con catene di Markov Pietro Caputo 12 dicembre 2006

DATI DELLO STUDENTE: NomeeCognome:... NumerodiMatricola:... PROCESSI STOCASTICI 09/09/2015, ESAME SCRITTO

Optmization Methods for Machine Learning. Gradient method for multilayer perceptron

Indice generale. Prefazione

Computazione per l interazione naturale: fondamenti probabilistici (1)

Corso di Laurea Triennale in Matematica Calcolo delle Probabilità I (docenti G. Nappo, F. Spizzichino)

Finite Model Theory / Descriptive Complexity: bin

λ è detto intensità e rappresenta il numero di eventi che si

CP110 Probabilità: Esame del 15 settembre Testo e soluzione

Certificati dei problemi in NP

Catene di Markov. Richiami teorici

Esercizi - Fascicolo III

Corso di Laurea in Ingegneria Robotica e dell Automazione Probabilità e Processi Stocastici (455AA) A.A. 2018/19 - Esercitazione

Calcolo delle Probabilità e Statistica, Ing. Informatica e dell Automazione 15/9/2010

Processi stocastici A.A Corso di laurea Magistrale in Statistica Univ. degli Studi di Palermo

Universita degli Studi di Siena

Metodi Computazionali

Corso di Laurea in Ingegneria Robotica e dell Automazione Probabilità e Processi Stocastici (455AA) A.A. 2018/19 - Prova scritta

PROCESSI STOCASTICI 1: ESERCIZI

11.4 Chiusura transitiva

RETI DI TELECOMUNICAZIONE

Dio non gioca a dadi : Un introduzione al metodo Monte Carlo Orazio Muscato

UNIVERSITÀ di ROMA TOR VERGATA

Capitolo IV. I mercati finanziari

Capitolo 4 Reti Sequenziali. Reti Logiche T

Modelli Probabilistici per la Computazione Affettiva: Modelli a template e rappresentazioni complesse

Corso di Laurea in Ingegneria Robotica e dell Automazione Probabilità e Processi Stocastici (455AA) A.A. 2018/19 - Prova in itinere

Calcolo delle Probabilità e Statistica, Ing. Informatica e dell Automazione 22/2/2011

Programmare con MATLAB c Parte 5 Cicli: for e while

Qualche nota sui metodi di link analysis

Probabilità e Processi stocastici. Ingegneria Robotica e dell Automazione. Prova scritta del giorno 15/12/14

Esercizi di Calcolo delle Probabilità

STATISTICA ESERCITAZIONE 9

B =3 0 1=3 0 1=3

Esercitazione N. 1 (11 ottobre 2016)

Calcolo delle Probabilità

In mathematics, a prime number is a natural number that is divisible only by 1 and itself.

Vettori e matrici. Lorenzo Pareschi. Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara

VETTORI DI VARIABILI ALEATORIE

Graphs: Cycles. Tecniche di Programmazione A.A. 2012/2013

Calcolo delle Probabilità e Statistica, Ing. Informatica e dell Automazione, a.a. 2009/10 30/6/2010

Catene di Markov a tempo continuo. Richiami teorici

PROBABILITA E STATISTICA Docente: Bruno Gobbi

Statistica. Esercitazione 10. Alfonso Iodice D Enza iodicede@unicas.it. Università degli studi di Cassino. Statistica. A. Iodice. V.C.

Il ranking di pagine web

Probabilità e Statistica

III Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2018/19

ESERCIZIO 1 Si faccia riferimento all Allegato A - OPS 2016, problema ricorrente REGOLE E DEDUZIONI, pagina 2.

I Sessione I Prova Scritta o Recupero Esonero di Probabilità e Statistica a.a. 2012/ Giugno 2013

LA SACRA BIBBIA: OSSIA L'ANTICO E IL NUOVO TESTAMENTO VERSIONE RIVEDUTA BY GIOVANNI LUZZI

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI

Correzione di Esercizi 4 di Calcolo delle Probabilità e Statistica. Mercoledì 4 maggio 2016

Author: Raffaele Cogoni born in Assemini on 21/02/1954

Calcolo delle Probabilità e Statistica Matematica Fisciano, 10/1/2012

AUTOMA A STATI FINITI

Exam of DIGITAL ELECTRONICS July 8 th, 2010 Prof. Marco Sampietro

Il fenomeno del cuto nelle catene di Markov

Algoritmi e Complessità

P(X > 0) = P(X 1 = 1) + P(X 1 = 1, X 2 = 1, X 3 = 1) =

Variabili casuali ad una dimensione Testi degli esercizi. Variabili casuali ad una dimensione a.a. 2012/2013 1

ESERCIZI. Gli esercizi di maggiore difficoltà sono contrassegnati con un asterisco. 1. SPAZI DI PROBABILITA.

Informatica 3 V anno

Introduzione ai grafi. Introduzione ai grafi p. 1/2

2. Introduzione alla probabilità

LE VARIABILI CASUALI A 1, A 2.,..., A k., p 2.,..., p k. generati da una specifica prova sono necessari ed incompatibili:

Tecniche Computazionali Avanzate

P (CjB m )P (B m ja) = p:

CATENE DI MARKOV. Esempio 1 Consideriamo la catena di Markov avente spazio degli stati S = {1, 2, 3, 4} e matrice di transizione 1/2 1/2 0 0

P(X > 0) = P(X 1 = 1) + P(X 1 = 1, X 2 = 1, X 3 = 1) =

Probabilità e Statistica

Teoria delle Probabilità e Applicazioni programma 2004/05

. iii) Cosa si può dire di esatto (non approssimato) su P X 1

LA SACRA BIBBIA: OSSIA L'ANTICO E IL NUOVO TESTAMENTO VERSIONE RIVEDUTA BY GIOVANNI LUZZI

College Algebra. Logarithms: Denitions and Domains. Dr. Nguyen November 9, Department of Mathematics UK

SIMULAZIONE DI SISTEMI CASUALI 2 parte. Processi stocastici e teoria delle code. Processi stocastici

Transcript:

Metodi Computazionali Enza Messina A.A. 29/ Ragionamento probabilistico nel tempo Il compito di prendere una decisione dipende da: Informazioni parziali Informazioni rumorose Incertezza sui cambiamenti dell ambiente nel corso del tempo

Metodi Computazionali - Processi stocastici e processi Markoviani - Tecniche per la generazione di numeri casuali. generazione di realizzazioni di variabili discrete. generazione di realizzazioni di variabili continue - Tecniche di simulazione o Costruzione e validazione di modelli di simulazione o Metodi Monte Carlo o Tecniche di riduzione della varianza o Analisi dei risultati - Metodi per la stima dei parametri Ragionamento probabilistico nel tempo Per descrivere un mondo mutevole si usano: una serie di variabili casuali descritte da uno stato in ogni istante temporale Le relazioni fra variabili casuali in istanti temporali diversi descrivono l evoluzione dello stato!

Tempo e Incertezza Modelli statici: Il valore delle variabili non cambia nel tempo Modelli dinamici Il valore delle variabili cambia nel tempo Lo stato corrente dipende dalla storia Il processo di cambiamento e descritto da una serie di fotografie (time slice) ognuna delle quali contiene un insieme di variabili casuali Metodi Computazionali Processi stocastici e processi Markoviani Tecniche per la generazione di numeri casuali generazione di realizzazioni di variabili discrete generazione di realizzazioni di variabili continue Tecniche di simulazione Costruzione e validazione di modelli di simulazione Metodi Monte Carlo Tecniche di riduzione della varianza Analisi dei risultati Metodi per la stima dei parametri

Processo Stocastico Un processo stocastico { X ( t), t T} è: un insieme di variabili casuali, (per ogni t, X(t) e una variabile casuale) una variabile casuale che evolve nel tempo L insieme T degli indici e lo spazio X degli stati possono essere continui o discreti. Processi stocastici a tempo continuo Processi stocastici a tempo discreto Processi stocastici a stati continui Processi stocastici a stati discreti { X ( t), t > } { X ( t), t =,,... } {, n =,,... } X n E. Messina Metodi Computazionali 7 Processo Stocastico X(t) = Valore di una caratteristica del sistema al tempo t, ovvero valore di una variabile casuale che descrive lo stato del sistema al tempo t X(t) X(t) X(t) numero di visitatori di una pagina web al tempo t numero di visitatori di una pagina web fino al tempo t numero di prodotti venduti fino al tempo t X(t) valore di un portafoglio di titoli al tempo t E. Messina Metodi Computazionali 8

Esempio Random Walk discrete-time, discrete-state Xt X t = t=,2,3,... + t where t = {,} and p( t = ) = p( t = + ) =,5 3 2 - -2-3 -4-5 -6-7 -8 2 3 4 5 6 7 8 9 2 3 4 5 6 9 Esempio Changing p>,5 we obtain a random walk with drift 2 p=,8 8 6 4 2 2 3 4 5 6 7 8 9 2 3 4 5 6 7 8 Another way to generalize this process is to let (discrete time continuous state stochastic process) t assume continuous values t N(,) 5 4 3 2 E. Messina - -2 2 3 4 5 6 7 8 9 2 3 4 5 6 7 8 Metodi Computazionali

Esempio The first order autoregressive process given by the equation Xt = axt i + b + t where a and b are constant, with -<a< and t N(,) a=,5 b= 4,5 4 3,5 3 2,5 2,5,5 -,5-2 3 4 5 6 7 8 9 2 3 4 5 6 7 8 E. Messina Metodi Computazionali Esempio Supponiamo di essere nell ambito di un gioco d azzardo. Con probabilità p vinco $ e con probabilità -p perdo $; L obiettivo è quello di incrementare il proprio capitale fino a 4$. Possiamo definire X t come il valore del mio capitale (somma in mio possesso) dopo aver giocato t volte. Quindi, X, X,,X t possono essere visti come variabili casuali. Se X = 2 X = 3 con prob. p X = con prob. -p E. Messina Metodi Computazionali 2

Proprietà dei Processi Markoviani Una importante proprietà dei processi stocastici è la Proprietà Markoviana Tale proprietà assicura che la distribuzione di probabilità per tutti i possibili valori futuri del processo dipende solo dal loro valore corrente non dai valori passati o da altre informazioni correnti P( X t+ = i t+ X t = i t, X t- = i t-,, X = i, X = i ) = P( X t+ = i t+ X t = i t ) I processi stocastici che soddisfano questa proprietà sono detti Processi di Markov E. Messina Metodi Computazionali 3 Catene di Markov Un processo stocastico a tempi discreti è una catena di Markov se, per t =, 2, 3, e per tutti gli stati, si ha che: P( X t+ = j X t = i, X t- = i t-,, X = i, X = i ) = P( X t+ = j X t = i ) Se P(X = i) = q i q = [q q i q n ] distribuzione probabilità iniziale

Catene di Markov Se la probabilità di un certo evento è indipendente dal tempo t la catena di Markov si definisce stazionaria e si ha che: P( X t+ = j X t = i) = p ij p ij = probabilità che al tempo t+ il sistema sarà nello stato j, essendo nello stato i al tempo t. Attenzione: non confondere stazionario con statico!!!!! Matrice delle probabilità p ij rappresenta la probabilità di raggiungere uno stato j partendo da uno stato i della catena. p i, j = ij n j= p ij P = p p 2. p n p 2 p 22. p 2n p n p n2. p nn MATRICE DI TRANSIZIONE (a un passo)

Rappresentazione grafica Una matrice P delle probabilità di transizione è rappresentabile graficamente da un grafo. Ogni nodo rappresenta uno stato e l arco (i,j) rappresenta la probabilità di transizione p ij. p ij p jk i j k p ii Esempio Supponiamo che un industria produca due tipi di Cola. Una persona che, all acquisto precedente, ha comprato Cola, per il 9% di possibilità comprerà ancora Cola. Chi ha comprato invece Cola2, per l 8% di possibilità comprerà ancora Cola2. Matrice di transizione: P = Cola Cola2 Cola.9.2 Cola2..8

Esercizi. Definire la matrice di transizione dell esempio del gioco d azzardo 2. Si consideri un sistema si stoccaggio nel quale la sequenza di eventi lungo ogni periodo e la seguente: - si osserva il livello i di magazzino all inizio del periodo; - se i <=, vengono ordinate (4-i) unità, mentre se i>=2 non viene emesso nessun ordine. Le consegne degli ordini sono immediate. - la domanda d segue la seguente distribuzione di probabilità: con probabilità /3 d= con probabilità /3 d= con probabilità /3 d=2 - si osserva quindi il livello di magazzino all inizio del prossimo periodo. Determinare la matrice di transizione che caratterizza tale sistema di stoccaggio. Esercizi. In un urna sono contenute due palline, inizialmente bianche. Ad ogni estrazione si procede come segue: - se la pallina è bianca si lancia una moneta: se esce testa la dipingo di rosso altrimenti la dipingo di nero. - se la pallina estratta è rossa la dipingo di nero - se la pallina estratta è nera la dipingo di rosso Determinare la matrice di transizione che descrive questo gioco.

Probabilità di transizione a n-passi Domanda: Se una catena di Markov è in uno stato i al tempo m, qual è la probabilità che dopo n passi sarà in uno stato j? P( X m+n = j X m = i) = P( X n = j X = i) =P ij (n) Si avrà che: Risposta P ij (2) = p ik p kj n k= P ij (n) = ij-simo elemento di P n prodotto scalare riga i colonna j Esempio (2). Se una persona usualmente compra Cola2, qual è la probabilità che compri Cola dopo due acquisti? P( X 2 = X = 2) =P 2 (2).9. P 2 = =.2.8.9.2..8.83.34.7.66

Esempio (3). Se una persona usualmente compra Cola, qual è la probabilità che compri ancora Cola dopo tre acquisti? P( X = X = ) =P (3).9. P 3 = =.2.8.83.34.7.66.78.438.29.562 Equazioni Chapman-Kolmogorov La probabilità di transizione a n-passi P n ij { X = j X = i} n, i, = P + j n k k può essere calcolata tramite le equazioni di Chapman-Kolmogorov P n+ m ij = k = P n ik P m kj n, m, i, j P ( n + m) = P( n) P( m)

Equazioni Chapman-Kolmogorov { X = j X i} n+ m Pij = P n+ m = = { X = j, X = k X i} P = n+ m n = k = { X = j X = k, X = i} P{ X = k X i} P = n+ m n n = k = k = m n P kj Pik Probabilità di transizione La probabilità di essere in un certo stato j al tempo n, non conoscendo lo stato di una catena di Markov al tempo, è: dove: q i P ij (n) = q (colonna j di P n ) i q i = probabilità che la catena sia nello stato i al tempo.

Esempio (). Supponiamo che il 6% delle persone beva Cola e il 4% beva Cola2. Dopo tre acquisti, qual è la percentuale delle persone che berranno Cola? p = q (colonna di P 3 ).78 p =.6.4 =.6438.438 Classificazione degli stati Uno stato j è raggiungibile da uno stato i se esiste un cammino che da i arriva a j : n Pij > per qualche n Due stati i e j si dice che comunicano se j è raggiungibile da i e viceversa. Ogni stato comunica con se stesso per definizione e vale anche la proprietà transitiva. Una catena di Markov è detta irriducibile se tutti i suoi stati sono comunicanti fra loro

Classificazione degli stati Un insieme di stati S in una catena di Markov è un insieme chiuso se nessuno stato fuori S è raggiungibile dagli stati in S. Uno stato i si definisce stato assorbente se p ii =. Classificazione degli stati Uno stato i si definisce stato transiente se esiste uno stato j raggiungibile da i, ma i non è raggiungibile da j. n= n P ii < Uno stato che non è transiente viene definito stato ricorrente. n= n P ii =

Classificazione degli stati La ricorrenza è una proprietà di classe: se lo stato i è ricorrente e lo stato j comunica con i allora lo stato j è ricorrente Anche essere transiente è una proprietà di classe. Tutti gli stati di una catena di Markov finita (n. stati finito) irriducibile sono ricorrenti Classificazione degli stati Uno stato i è periodico di periodo k> se k è il più piccolo numero tale che tutti i cammini che dallo stato i ritornano ad i hanno una lunghezza che è un multiplo di k. Se uno stato non è periodico si definisce aperiodico. Se tutti gli stati in una catena sono ricorrenti, aperiodici e comunicano l uno con l altro, la catena si definisce ergodica.

Esempio (catena ergodica) Una catena ergodica è, per esempio, la seguente: P =.3.7.5.5.25.75.7.25.3 2 3.75.5.5 Esercizi Quali stati sono transienti e quali ricorrenti? /2 /2

Esercizi (catena ergodica) Quali di queste matrici sono associabili a catene ergodiche? /3 2/3 /2 /2 /4 3/4 /2 /2 /2 /2 2/3 /3 /4 3/4 /4 /2 /4 2/3 /3 2/3 /3 Distribuzione d equilibrio (steady state) Sia P una matrice delle probabilità per una catena ergodica di n stati, vale che: lim P ij (n) = j n + = [ 2 3. n ] Dove: vettore distribuzione d equilibrio = P

Esempio (Steady State) P=.9..2.8 n P (n) P 2 (n) P 2 (n) P 22 (n).9..2.8 2.83.7.34.66 3.78.22.44.56 5.72.28.56.44.68.32.65.35 2 3.67.67.33.33.67.67.33.33 STEADY STATE 4.67.33.67.33 Esempio (Steady State) P=.9..2.8 { + =.9. 2 + =.. 8 + =

Esercizi. Una macchina è utilizzata per produrre strumenti di precisione. Se la macchina è in buone condizioni oggi allora lo sarà anche domani con una probabilità del 9%. Se la macchina non è in buone condizioni oggi allora sarà mal funzionante anche domani con una probabilità dell 8%. Quando la macchina è in buone condizioni produce pezzi al giorno. Quando la macchina è mal funzionante produce 6 pezzi al giorno. In media quanti pezzi al giorno verrano prodotti? Transitorio Il comportamento di una catena di Markov prima di raggiungere la distribuzione d equilibrio è chiamato transitorio. TRANSITORIO

Passaggio Intermedio Numero di transizioni attese prima di raggiungere lo stato j essendo nello stato i in una catena ergodica: m ij = p ij ()+ p ik (+m kj ) k j m ij = + p ik m kj m ii = i Esempio (passaggio intermedio) Calcolo di quante bottiglie, in media, berrà un compratore di Cola prima di cambiare a Cola2: m 2 = + p m 2 = +.9 m 2 m 2 = Viceversa, per un compratore di Cola2 si avrà: m 2 = + p 22 m 2 = +.8 m 2 m 2 = 5

Catene assorbenti () Le catene assorbenti sono catene di Markov nelle quali alcuni stati sono assorbenti, mentre tutti gli altri sono stati transienti. Definizione: Uno stato i si definisce stato assorbente se p ii = Catene assorbenti (2) Possibili domande:. Qual è il numero di passi che intercorrono prima che, da uno stato transiente, venga raggiunto uno stato assorbente? 2. Se una catena parte da uno stato transiente, qual è la probabilità che termini in uno stato assorbente?

Matrice di transizione La matrice di transizione per una catena assorbente può essere scritta come: P = Q R I Q matrice che rappresenta le relazioni tra gli stati transienti. R matrice che rappresenta le transizioni da stati transienti a stati assorbenti. Matrice fondamentale. Se siamo in uno stato transiente i, il numero di periodi che si trascorreranno in uno stato transiente j prima dell assorbimento è: ij-simo elemento della matrice (I-Q) -

Esempio In una fabbrica le tre tipologie d impiegati sono: junior, senior e partner. Ci sono inoltre due stati assorbenti che riguardano due modalità per lasciare la fabbrica: come non-partner o come partner. La matrice delle probabilità è la seguente: Junior Senior Partner Lascia NP Lascia P Junior.8 Q Senior.5.7 Partner.2.95 Lascia NP.5. R I Lascia P.5 Esempio () Quanto tempo passa un dipendente Junior nella fabbrica? (I-Q) - = 5 2.5 3.3 3.3 2 tempo che passa come Junior : m = 5 tempo che passa come Senior : m 2 = 2.5 tempo che passa come Partner : m 3 = TOT. 7.5 anni

Probabilità d assorbimento 2. Se siamo in uno stato transiente i, la probabilità di arrivare in uno stato assorbente j è: ij-simo elemento della matrice (I-Q) - R Esempio (2) Qual è la probabilità che un dipendente Junior lasci la fabbrica come Partner? (I-Q) - R =.5.5.3.7 RISPOSTA m 2 =.5

Esempio: The Drunkard s walk Un uomo cammina lungo Park Avenue, dove abita. Per raggiungere il bar deve passare vicino a 3 lampioni. Ogni volta che arriva ad un lampione si appoggia e poi riprende il cammino proseguendo in avanti o tornardo indietro con uguale probabilità. Se arriva a casa o al bar si ferma. Home 2 3 Bar Home 2 3 Bar /2 Q /2 /2 /2 /2 R I /2 Esempio: The Drunkard s walk 2 3 Home Bar 2 3 Home Bar /2 Q /2 /2 /2 /2 R I /2

Esempio: The Drunkard s walk Quante volte passa per lo stesso lampione? -/2 -/2 -/2 -/2 (I-Q)= (I-Q) - = 3/2 /2 2 /2 3/2 Se parte dallo stato 2 il numero atteso di volte che passa per i lampioni 2 e 3 prima di venire assorbito sono, 2 e. Esempio: The Drunkard s walk /2 R = (I-Q) - R = /2 3/4 /4 /2 /2 /4 3/4 Se parte dallo stato 2 la probabilità di tornare a casa è 3/4 e quella di finire al bar è /4.

Courtsey of Michael Littman Example: Academic Life.6 A. Assistant Prof.: 2.2.2.2 B. Associate Prof.: 6.6.2 T. Tenured Prof.: 9.7 S. Out on the.2 Street: D. Dead:.8.3. What is the expected lifetime income of an academic? Solving for Total Reward L(i) is expected total reward received starting in state i. How could we compute L(A)? Would it help to compute L(B), L(T), L(S), and L(D) also?

Solving the Academic Life The expected income at state D is L(T)=9+.7x9+.7 2 x9+ L(T)=9+.7xL(T) L(T)=3.7 T. Tenured Prof.: 9.3 D. Dead: Working Backwards 287.5 A. Assistant Prof.: 2.6.2 5.2.2.2 325 B. Associate Prof.: 6.6 S. Out on the Street: D. Dead:.2.7 T. Tenured Prof.: 9.3 3.8. Another question: What is the life expectancy of professors?

Stepping Stone Model Let A be a nxn array of squares Each square is initially any one of k different colors For each step, a square is chosen at random This square chooses one of its 8 neighbors at random and assumes its color (boundary conditions ) This is an example of absorbing Markov Chain: with probability all the squares will eventually all be the same color Credit Rating: Typical Transition Matrix (-Year) Initial Rating Year-End Rating AAA AA A BBB BB B CCC D AAA 9.8 8.33.68.6.2 AA.7 9.65 7.79.64.6.4.2 A.9 2.27 9.5 5.52.74.26..6 BBB.2.33 5.95 86.93 5.3.7.2.8 BB.3.4.67 7.73 8.53 8.84..6 B..24.43 6.48 83.46 4.7 5.2 CCC.22.22.3 2.38.24 64.86 9.79

Example of Rating Transition Matrix* * Moody s Investors Service, July 997. Moody s Rating Migration and Credit Quality Correlation, 92-996 Google s Search Engine Assumption: A link from page A to page B is a recommendation of page B by the author of A (we say B is successor of A) Quality of a page is related to its in-degree Recursion: Quality of a page is related to its in-degree, and to the quality of pages linking to it PageRank [Brin and Page 98]

Definition of PageRank Consider the following infinite random walk (surf): Initially the surfer is at a random page At each step, the surfer proceeds to a randomly chosen web page with probability p to a randomly chosen successor of the current page with probability -p The PageRank of a page d is the fraction of steps the surfer spends at d in the limit. Random Web Surfer What s the probability of a page being visited?

Markov Chains Theorem: Under certain conditions: There exists a unique stationary distribution q with q i > for all i Let N(i,t) be the number of times the Markov chain visits state i in t steps. Then, lim t N( i, t) t = i PageRank PageRank = the probability for this Markov chain, i.e. PageRank( u) = p / n + ( p) where n is the total number of nodes in the graph p is the probability of making a random jump. Query-independent Summarizes the web opinion of the page importance ( v, u) E PageRank( v) / outdegree( v)

PageRank A B D PageRank of D is (-p)* ( /4 th the PageRank of A + /3 rd the PageRank of B ) +p/n Kth-Order Markov Chain What we have discussed so far is the first-order Markov Chain. More generally, in kth-order Markov Chain, each state transition depends on previous k states. What s the size of transition probability matrix? X X2 X3 X4

Add-ins Excel Per la risoluzione delle operazioni relative alle catene di Markov sono presenti in rete add-ins free di Excel: Sito per il download: http://www.stanford.edu/~savage/software.htm