Un applicazione delle catene di Markov: l algoritmo del PageRank. Maurizio Cescon

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Un applicazione delle catene di Markov: l algoritmo del PageRank. Maurizio Cescon"

Transcript

1 Un applicazione delle catene di Markov: l algoritmo del PageRank Maurizio Cescon 25 settembre 2013

2 Indice 1 Catene di Markov Definizione e concetti basilari Teorema Ergodico Stati ergodici Matrici primitive Teorema di Perron-Frobenius L algoritmo del PageRank Pagine web e catene di Markov La matrice del PageRank Power Method Un po di analisi del PageRank A Algoritmo di Kosaraju 23 B Algoritmo per la periodicità 25 2

3 Capitolo 1 Catene di Markov In questo capitolo sono esposte delle nozioni di base riguardanti le catene di Markov. Quanto di seguito scritto non è esaustivo e si limita a riportare definizioni e proprietà utili per questo elaborato, senza entrare troppo nei dettagli matematici. Inoltre parecchi risultati sono generalizzabili, ma abbiamo preferito mantenere una trattazione più ristretta dato l ambito abbastanza specifico d utilizzo. La linea guida è stata quella di ricondurre i fenomeni probabilistici allo studio matriciale. 1.1 Definizione e concetti basilari Definizione 1. Siano (Ω, F, P ) uno spazio di probabiltà, (R, B R ) la σ-algebra dei boreliani e T R. Si definisce processo stocastico di parametro t una famiglia di variabili aleatorie (X t : t T ) definite in Ω e a valori in R, indicizzate dal parametro t. I valori che possono assumere le variabili aleatorie si chiamano stati e costituiscono lo spazio degli stati S R che può essere un insieme finito, infinito numerabile o infinito con cardinalità del continuo. L insieme T, detto spazio dei tempi, può essere un insieme infinito numerabile (processo a tempo discreto) oppure infinito con cardinalità del continuo (processo a tempo continuo). Ciò che ci interessa sono i processi nei quali lo spazio degli stati è finito, quello dei tempi è discreto con T = N e valgono le ipotesi di Markovianità ed omogeneità. Definizione 2. Un processo stocastico (X n : n N) a tempo discreto e con spazio degli stati finito si dice Markoviano se n N, j, i, i n 1,..., i 1, i 0 S vale che P (X n+1 = j X n = i, X n 1 = i n 1,..., X 1 = i 1, X 0 = i 0 ) = P (X n+1 = j X n = i). 3

4 Maurizio Cescon CAPITOLO 1. CATENE DI MARKOV Un tale processo si dice inoltre omogeneo se le probabilità di transizione sono stazionarie, cioè n N vale che P (X n+1 = j X n = i) = P (X 1 = j X 0 = i) = p ij. Quanto appena definito viene comunemente chiamato catena di Markov omogenea a stati finiti. D ora in avanti, senza ulteriori specificazioni, supporremo d essere sempre in queste ipotesi con S = N < N. Tali richieste sono fondamentali per assicurare alla catena d essere definita e descritta in modo univoco a partire dalla matrice delle probabilità di transizione e dalla distribuzione di probabilità iniziale: 1. P = ( p ij )i,j S con p ij R + e j S p ij = 1 i S, 2. π 0 (i) = P (X 0 = i) i S. Come ad esempio dimostrato in [1], questo è possibile poiché i due elementi specificano tutte le probabilità delle sezioni finito dimensionali del processo e quindi consentono il calcolo delle probabilità di qualsiasi evento descritto in termini di valori futuri e condizionato in termini di valori presenti-passati. Molto utile è l equazione di Chapman-Kolmogorov che collega le probabilità di transizione stazionarie a più passi p n ij = P (X n = j X 0 = i) con n 1 numero di passi: n, m 1 : p n+m ij = k S p n ik p m kj i, j S P n+m = P n P m. Sfruttando quest equazione, si può calcolare π n (i) cioè la probabilità di trovarsi in uno stato i al passo n 1 come π n (i) = k S π n 1 (k) p ki = k S π 0 (k) p n ki π n = π n 1 P = π 0 P n. Queste considerazioni permettono di associare a ciascuna catena di Markov: 1. un sistema di equazioni lineari { π0 noto π n+1 = π n P = π 0 P n+1 n N, (1.1) che descrive in termini probabilistici l evoluzione del processo; 2. un grafo G = (V, E), avente V = N nodi pari alla quantità di stati ed E = M archi congiungenti nodi aventi una probabilità strettamente positiva di passare da uno all altro in un passo. 4

5 Maurizio Cescon 1.1. DEFINIZIONE E CONCETTI BASILARI Figura 1.1: esempio di grafo. Ad esempio se N = 3 con 1/3 1/3 1/3 P = 1/2 1/2 0, π 0 = (1/3, 1/3, 1/3), 0 1/2 1/2 si può disegnare il grafo di figura 1.1 e dire che l evoluzione del sistema, cioè π n (i) i S, è regolata da (1.1). Rispetto alla caratterizzazione grafica, vale la seguente proprietà. Proposizione 1. Sia P la matrice delle probabilità di transizione di una catena di Markov. Esiste un cammino tra due stati i e j di lunghezza n se e solo se p n ij > 0. Dimostrazione. La dimostrazione può essere fatta per induzione sulla lunghezza del cammino. n = 1: il problema è banale. n = 2: dall equazione di Chapman-Kolmogorov p 2 ij = k S p ik p kj, quindi p 2 ij 0 se e solo se per almeno un k S ci sono p ik e p kj enrambi diversi da zero. Ma questo vale se e solo se esiste un cammino di lunghezza 2 da i a j. 5

6 Maurizio Cescon CAPITOLO 1. CATENE DI MARKOV n > 2: se supponiamo vera l affermazione per il caso n, allora p n+1 ij = k S p n ik p kj 0 se e solo se per almeno un k S ci sono p n ik e p kj enrambi diversi da zero. Per ipotesi induttiva questo è equivalente ad avere un cammino da i a k di lunghezza n e uno da k a j di lunghezza 1, cioè un cammino da i a j di lunghezza n

7 Capitolo 2 Teorema Ergodico Questo capitolo è finalizzato alla descrizione dell andamento di una catena di Markov a partire dal sistema (1.1). In particolare l interesse è legato al comportamento al limite della catena o equivalentemente a quello di π n per n tendente ad infinito. Questo è regolato dal noto teorema ergodico per catene di Markov omogenee e a stati finiti. Nella letteratura dei processi stocastici ci sono diverse tipologie dimostrative del teorema. Alcune si basano su concetti astratti di analisi matematica, altre si appoggiano alla teoria delle matrici. In questo lavoro abbiamo seguito la seconda strada, enunciando il teorema come sottocaso del teorema di Perron-Frobenius per matrici primitive. Volendo proporre un approccio operativo, abbiamo anche suggerito algoritmi atti a dimostrare le ipotesi del teorema. 2.1 Stati ergodici Definizione 3. Uno stato j si dice raggiungibile da un altro stato i (i j)se n 1 : p n ij > 0. Diciamo che due stati comunicano (brevemente i j) se i j e j i. In accordo con la proposizione 1, ciò equivale a dire che se p n ij > 0 per qualche n allora esiste un cammino di lunghezza n che collega gli stati i e j. E immediato verificare che la relazione comunicano è di equivalenza. Pertanto gli stati di una catena di Markov possono essere divisi in classi di equivalenza. Definizione 4. Una catena di Markov si dice irriducibile se tutti gli stati comunicano tra loro. La matrice delle probabilità di transizione P associata ad una catena di Markov irriducibile si dice irriducibile. 7

8 Maurizio Cescon CAPITOLO 2. TEOREMA ERGODICO Dal punto di vista operativo, questa definizione non fornisce un criterio implementabile computazionalmente capace di discernere tra catene irriducibili e non. Grazie alla matrice delle probabilità di trasizione, la definizione può essere così riformulata. Teorema 1. Una catena di Markov è irriducibile se e solo se (I +P) N 1 > 0. Dimostrazione. Poiché si considerano catene a stati finiti, se due stati comunicano esiste almeno un cammino di lunghezza inferiore a N 1 dal primo stato al secondo e viceversa. Allora (I + P) N 1 = I + (N 1)P + ( ) N 1 2 P ( N 1 N 2) P N 1 > 0 se e solo se per ogni coppia di stati i, j (i j) almeno una delle matrici P, P 2..., P N 1 ha un valore strettamente positivo in posizione (i, j). E questo per la proposizione 1 accade se e solo se c è un cammino da i a j per ogni coppia di stati di lunghezza inferiore a N 1. Tranne per casi in cui N risulti piccolo, un criterio per l irriducibilità che preveda la moltiplicazione di (I + P) per se stessa N 1 volte non è una strada percorribile (si pensi ad N di qualche milione). Questo controllo si può fare in modo più efficiente traslando il problema nella teoria dei grafi. A tale scopo si veda l appendice A, in cui è proposto l algoritmo di Kosaraju che risolve il problema in tempo O(N + M). Accanto alla definizione di irriducibilità, c è anche l importante concetto di periodicità. Definizione 5. Uno stato i S si dice periodico di periodo δ(i) 2, se δ(i) è il massimo comun divisore tra tutti gli n tali che p n ii > 0. Se δ(i) = 1 lo stato è detto aperiodico. Proposizione 2. Se i j allora δ(i) = δ(j). Dimostrazione. Sia i j. Allora i j se e solo se n, m 1 : p n ij > 0, p m ji > 0. Vale: p n+m jj = k S p m jk p n kj p m ji p n ij > 0 e questo implica che δ(i) è definito. Analogamente per δ(j). Per dimostrare l uguaglianza basta far vedere che δ(i) δ(j) e δ(j) δ(i). δ(i) δ(j): dimostriamo che δ(i) è un divisore di qualsiasi generico k tale che p k jj > 0. Dalle equazioni di Chapman-Kolmogorov p n+m+k ii p n+k ij p m ji p n ij p k jj p m ji > 0 δ(i) n + m + k, p n+m ii p n ij p m ji > 0 δ(i) n + m. Ma allora δ(i) k. δ(j) δ(i): in modo analogo. 8

9 Maurizio Cescon 2.2. MATRICI PRIMITIVE Come nel caso dell irriducibilità, anche la proprietà di aperiodicità è una proprietà di classe e permette di definire una tipologia molto importante di stati. Definizione 6. Gli stati di una catena di Markov a stati finiti che sia omogenea irriducibile e aperiodica si dicono ergodici. Il teorema ergodico, come già accennato, caratterizza il comportamento al limite di una catena di Markov i cui stati siano ergodici. E con ciò si intende che fornisce una probabilità di visita di ciascuno stato fissa ed indipendente dalle condizioni iniziali. Questa probabilità si definisce distribuzione limite. Definizione 7. Una distribuzione di probabilità π con π(j) 0 j S e j S π(j) = 1 si dice distribuzione limite per una catena di Markov omogenea se lim n pn ij = π(j), i S. Accanto alla definizione di distribuzione limite, ce n è una più debole e più facile da verificare. Definizione 8. Una distribuzione di probabilità π si dice distribuzione invariante per una catena di Markov omogenea se j S π(j) = i S π(i) p ij π = πp. Dal teorema 4 si deduce che ogni distribuzione limite per una catena di Markov è unica ed invariante. Il viceversa in generale non è vero, cioè esistono distribuzioni invarianti ed uniche per catene ( che non sono limite. Ad esempio si consideri la matrice stocastica 1 P = 0 1 ) 1 0. Essa ha due autovalori distinti λ 1 = 1, λ 2 = 1 con corrispondenti autovettori v 1 = (1/2, 1/2), v 2 = (1/2, 1/2). π = (1/2, 1/2) è una distribuzione invariante. Però non esistono distribuzioni limite perché lim n p n ij dipende dallo stato i. 2.2 Matrici primitive Nell introduzione abbiamo scritto che il teorema ergodico si può dedurre da quello di Perron-Frobenius per matrici primitive. Vediamo, quindi, come legare l ergodicità a tale ipotesi. 1 Matrice stocastica: una matrice delle probabilità di transizione di una catena di Markov. 9

10 Maurizio Cescon CAPITOLO 2. TEOREMA ERGODICO Definizione 9. Una matrice delle probabilità di transizione P si dice positiva se p ij > 0 i, j S. Altrimenti si dice non negativa. Definizione 10. Una matrice delle probabilità di transizione P non negativa si dice primitiva se è irriducibile ed ha solamente un autovalore di modulo massimo. Questo secondo tipo di matrici è lungi dall essere un tipo facilmente riconoscibile senza dei criteri adatti a stabilire quando questa ipotesi è verificata o meno. Come per altri casi il calcolo degli autovalori e la successiva verifica che ce n è uno massimale, non è una buona soluzione. Pertanto si ricorre a teoremi come il seguente. Teorema 2. Data una matrice delle probabilità di transizione P non negativa, vale che P è primitiva se e solo se P m > 0 per qualche m 1. Dimostrazione. Si può trovare la dimostrazione di questo fatto in [3]. Corollario 1. Ogni matrice positiva è primitiva. Proposizione 3. Se P 0 e P k > 0 allora P m > 0 per ogni m k. Dimostrazione. In generale vale P m = P m k P k. Poiché l insieme delle matrici stocastiche è un semigruppo P m k è ancora stocastica. Pertanto la somma dei suoi valori lungo ogni riga è pari a uno e questo implica che nessuna riga ha coefficienti tutti nulli. Ne segue che P m = P m k P k ha ogni componente maggiore di zero, visto che P k > 0. Va sottolineato che al di là della riformulazione della primitività col teorema 2, è utile determinare degli upper bound al valore m del teorema. Proposizione 4. Data una matrice delle probabilità di transizione P irriducibile, se le componenti sulla diagonale principale sono maggiori di zero allora P N 1 > 0. Dimostrazione. Siano γ = min{p 11,..., p NN } e B = P diag(p 11,..., p NN ). Allora B è non negativa, irriducibile (poiché P lo è) e vale P γi+b γ (I+ (1/γ)B). Per il teorema 1 segue che P N 1 γ N 1 (I + (1/γ)B) N 1 > 0. Teorema 3 (Wielandt). Data una matrice delle probabilità di transizione P non negativa, vale che P è primitiva se e solo se P N 2 2N+2 > 0. Dimostrazione. La dimostrazione originale si trova in [8] ed è piuttosto semplice richiedendo come prerequisiti il solo teorema di Cayley-Hamilton. Altrimenti si può guardare [3], in cui il tutto è contestualizzato nella teoria dei grafi. 10

11 Maurizio Cescon 2.3. TEOREMA DI PERRON-FROBENIUS Gli ultimi due teoremi sono potenti strumenti per affermare qualcosa di più sulle matrici primitive. In particolare quello di Wielandt (che considera il caso generale) produce un upper bound che per matrici irriducibili con tutti elementi nulli sulla diagonale, è il migliore possibile. La seguente matrice P = /2 1/ lo dimostra. Come per il caso dell irriducibilità, è auspicabile verificare questa proprietà senza ricorrere a N 2 2N + 2 moltiplicazioni di P per se stessa (si pensi sempre a N di qualche milione). A tale scopo è utile la seguente equivalenza che trasla il problema nella teoria dei grafi. Corollario 2. Data una matrice delle probabilità di transizione P, vale che P è primitiva se e solo se gli stati della catena sono ergodici. Dimostrazione. Se P è primitiva allora esiste k tale che P k > 0 k m. Ne segue P k, P k+1 > 0 da cui il loro massimo comune divisore è 1. Concludiamo δ(i) = 1 i S e la catena è ergodica. Se gli stati sono ergodici allora per ogni coppia di stati (i, j) (comprese le coppie (i, i)) esiste un indice n ij tale che p n ij ij > 0. Se n è il prodotto di tutti questi indici allora P n > 0. Quanto dimostrato evidenzia la stretta connessione tra l ergodicità di una catena di Markov e la primitività di P. A partire da questo corollario, un modo molto comune per verificare l ergodicità consiste nel ricorrere all algoritmo descritto nell appendice B. Tale algoritmo determina la periodicità di una catena di Markov irriducibile usando il grafo della catena ed operando in tempo O(N + M). 2.3 Teorema di Perron-Frobenius Teorema 4 (Perron-Frobenius). Sia A = (a ij ) una matrice N N reale. Se A è primitiva allora valgono: 1. ρ(a) > 0 2 ; 2. ρ(a) è un autovalore di A; 2 ρ(a) = max{ λ : λ σ(a)}. 11

12 Maurizio Cescon CAPITOLO 2. TEOREMA ERGODICO 3. ci sono v vettore riga, w vettore colonna in R N con v i, w i > 0 e tali che va = ρ(a)v, Aw = ρ(a)w; 4. ρ(a) è un autovalore semplice di A. In particolare gli autospazi destro e sinistro 3 associati a ρ(a) hanno dimensione uno; 5. λ < ρ(a) per ogni autovalore λ ρ(a) di A; 6. vale il seguente limite: lim n (A/ρ(A)) n = w v/v w; 7. vale la seguente stima: min N j=1 a ij ρ(a) max N j=1 a ij; 8. esistono unici due vettori v e w che soddisfano i punti sopra e tali che N i=1 v i = N i=1 w i = 1; Dimostrazione. Per la dimostrazione si può consultare [3]. Supponendo A P si può applicare questo teorema per dimostrare l esistenza della distribuzione limite per tutte le catene di Markov descritte da una P primitiva. Si ottiene: 1. ρ(a) = 1 è un autovalore semplice di P e tutti gli altri autovalori λ soddisfano λ < 1; 2. esistono e sono uniche due distribuzioni di probabilità π ed e tali che π = πp, e = Pe. L autovettore destro ha componenti e i = 1/N; 3. il limite lim n P n =: P è ben definito 4 e vale P = lim P n = e π π(1)... π(n) n 1/N = π(1)... π(n) Pertanto lim n p n ij = π(j) i S e P è una matrice stocastica positiva di rango uno. Dai punti del teorema si evince che P n è ben definita per ogni n e ammette come limite una matrice stocastica. Di fatto il sistema { π0 noto n+1 (n ) π n+1 = π n P = π 0 P π 0 P = π, ha un unico punto di equilibrio stabile che viene raggiunto indipendentemente dai valori iniziali. Questo prova il teorema seguente. 3 autospazi destro e sinistro: gli autovalori di una matrice e della sua trasposta coincidono. 4 definito: l insieme delle matrici stocastiche è un semigruppo quindi la moltiplicazione di due matrici stocastiche è ancora una matrice stocastica. 12

13 Maurizio Cescon 2.3. TEOREMA DI PERRON-FROBENIUS Teorema 5 (Ergodico). Data una catena di Markov omogenea, a stati finiti ed ergodici esiste un unica distribuzione di probabilità π tale che πp = π e lim n p n ij = π(j), i S. Se, per esempio, si riconsidera il caso con P = ( ) esso non ha una distribuzione limite poiché ammette due autovalori massimali (anche se il vettore (1/2, 1/2) è un punto di equilibrio stabile per il sistema). Sempre questo caso, costituisce un contro esempio all impossibilità d avere distribuzioni limite con la sola richiesta per P dell irriducibilità. 13

14 Capitolo 3 L algoritmo del PageRank Il capito illustra l applicazione dei concetti trattati al caso del PageRank. Il PageRank è un algoritmo che fa uso delle catene di Markov per ordinare le pagine web ed è alla base del funzionamento di Google. Data la natura commerciale di quest ultimo, quanto riportato potrebbe differire dall effettiva implementazione dell algoritmo. Ad ogni modo le idee basilari nonché i risultati teorici rimangono validi. Accanto alla teoria abbiamo riportato il power method (necessario per calcolare i ranking) e un po di analisi dell algoritmo. 3.1 Pagine web e catene di Markov Fin dalla nascita del mondo virtuale, si è sentita l esigenza di mezzi che favorissero ricerche rapide ed efficaci. Di strumenti capaci di filtrare ed ordinare le pagine web rispetto alle query degli utenti. I motori di ricerca sono nati per rispondere a queste necessità. Nel corso degli anni ne sono stati lanciati parecchi, a volte riscuotendo successo a volte mancando le richieste del mercato. Uno dei più diffusi è senza dubbio Google, il cui successo è stato decretato dalle ottime capacità d ordinamento. Il suo funzionamento, essendo un prodotto commerciale, non è di dominio pubblico. Ad ogni modo si sa che è basato sull analisi di tutte le pagine web mediante i cosiddetti Googlebot al fine di ricavare informazioni su quest ultime e classificarle. L analisi avviene ad intervalli prestabiliti in modo da tenere conto dell evoluzione del web. La classificazione è invece una miscela di molteplici elementi di cui l algoritmo del PageRank (proposto da Larry Page e Sergey Brin in [10]) ne costituisce l ossatura. Cerchiamo di fare chiarezza. In modo semplicistico, si può dire che una ricerca conta di due azioni: l estrazione di tutte le pagine relative ad una specifica query e l ordinamento per importanza di quest ultime. Il Pagerank contribuisce pesantemente alla seconda. Diciamo contribuisce e 14

15 Maurizio Cescon 3.1. PAGINE WEB E CATENE DI MARKOV non determina poiché ci sono tanti fattori che influenzano l ordine. A titolo informativo si può dare un occhiata alla Guida introduttiva di Google all ottimizzazione per motori di ricerca (SEO). Ad ogni modo i risultati di questo algoritmo, che nel seguito chiameremo ranking 1 delle pagine web, sono fondamentali. Il PageRank sfrutta la teoria delle catene di Markov e pertanto fa uso di una matrice stocastica P di dimensione N N (dove N è il numero totale di pagine web) detta hyperlink matrix e così composta: { 1/k se c è un collegamento dalla pagina i alla pagina j p ij = 0 altrimenti, con k numero totale di link uscenti dalla pagina i. In questa modellazione dove P assume il ruolo di matrice delle probabilità di transizione, la navigazione di un utente diventa un cammino casuale avente le pagine web come stati. Assumendo, almeno inizialmente, che P sia primitiva deve esistere una distribuzione limite con componenti strettamente positive. Secondo quanto dimostrato, i coefficienti (π(1),..., π(n)) rappresentano le porzioni di tempo a regime che un cammino casuale spende nello stato j. Chiaramente più il valore π(i) è alto, più la pagina i è importante. Quello che fa l algoritmo del PageRank è di assegnare un coefficiente ad ogni pagina web i proporzionale alla probabilità π(i). Può essere utile alla comprensione un esempio pratico. Consideriamo tre pagine web 1, 2, 3 così collegate: 1 1, 1 2, , 2 2, 3 2, 3 3. Allora la matrice delle probabilità di transizione risulta: 1/3 1/3 1/3 P = 1/2 1/ /2 1/2 La distribuzione limite è data dall equazione π = πp con vincolo π(1)+π(2)+ π(3) = 1 da cui si ottiene: π = (3/9, 4/9, 2/9). Il ranking massimo è dato dalla pagina 2, la quale ha un collegamento entrante sia da 1 che 3. La pagina 1 è più importante della 3 poiché ha un 1 Usualmente quando si parla di ranking si fa riferimento all ordinamento delle pagine rispetto a tutti i fattori, non solo ai risultati del PageRank. 15

16 Maurizio Cescon CAPITOLO 3. L ALGORITMO DEL PAGERANK collegamento entrante dalla pagina con ranking più alto. In sostanza, l idea è che i link da siti importanti (dove per sito importante si intende uno linkato da molti altri) siano più influenti di quelli da siti meno noti e che ogni pagina ripartisca equamente il proprio peso tra il numero dei suoi link uscenti. 3.2 La matrice del PageRank Ovviamante nella precedente sezione, il ragionamento era soggetto all ipotesi di P primitiva. Ma non c era nessuna conseguenza implicita che la forzasse ad esserlo quindi in generale bisogna imporlo. A tal scopo, il PageRank lavora su una matrice leggermente modificata e primitiva 2 : p p 1N A = α..... p N1... p NN + 1 α N , (3.1) con 0 < α < 1, detto valore di modifica. Un tipico valore per α è 0.85; la sua proposta è dovuta ai costruttori di Google e deriva da alcuni studi di cui approfondiremo qualcosina nelle sezioni successive. Va precisato che quello esposto sopra non è l unico modo per rendere una matrice primitiva. Ci sono parecchie strategie per farlo, ma i costruttori di Google hanno adottato questa. Essendo A primitiva l ipotesi di esistenza ed unicità della distribuzione limite è garantita. Il significato di (3.1) può essere parafrasato come: c è una probabilità fissa (1 α)/n di passare da una pagina web i ad un altra j, a cui si somma una probabilità, (proporzionale ad α) di fare questo passaggio. La prima serve per rendere la matrice primitiva, la seconda (che può essere nulla in assenza di collegamenti) tiene conto degli effettivi collegamenti esistenti. Il ranking di ciascuna pagina va dunque calcolato mediante l equazione: π(1) p p N1 π(1). = α α N 1. (3.2) π(n) p 1N... p NN π(n) 1 N π(i) = 1 i=1 Siccome la sostanza del PageRank si riduce a risolvere il problema (3.2) o equivalentemente un sistema lineare omogeneo π(i A) = 0, il tutto sembrerebbe piuttosto facile. Se lo è dal punto di vista teorico, non lo è sicuramente 2 primitiva: di fatto A è positiva. 16

17 Maurizio Cescon 3.3. POWER METHOD computazionalmente parlando vista l enorme dimensione di P. Questa peculiarità limita addirittura la scelta degli algoritmi, tant è che spesso si definisce (3.2) the world s largest matrix computation. Metodi diretti (perfino quelli messi a punto per matrici sparse) non riescono a sopperire a questo problema. Ad oggi il cosiddetto Power Method o sue modifiche sembrano le uniche soluzioni percorribili con tempi computazionali di qualche giorno e capaci di fronteggiare la rapidità di crescita del web. In [13] e [14] sono proposte varianti risolutive, come il metodo di Gauss Seidel oppure migliorie al Power Method consistenti in un estrapolazione quadratica, in metodi adattivi (per controllare la convergenza delle singole componenti) e in partizioni di P usando aggregazioni esatte. Questi raffinamenti hanno anche il pregio di non competere tra loro, ma di combinarsi migliorando il risultato finale. Ma non ci sono metodi sostanzialmente diversi. Vediamo quindi più da vicino come è formalizzato il Power Method nella sua versione base. 3.3 Power Method Il Power Method è un algoritmo per trovare autovalori piuttosto semplice nel funzionamento perché non esegue nessuna decomposizione della matrice. Quindi può essere usato quando quest ultima è molto grande e sparsa. Di contro trova solo un autovalore e un corrispondente autovettore di modulo massimo. In particolare esso parte con un vettore b 0 (che potrebbe essere una approssimazione dell autovettore dominante o un valore random) e usa ricorsivamente la seguente formula: Vale il seguente teorema. b k+1 = Ab k Ab k. Teorema 6. Data una matrice A quadrata N N che abbia un autovalore dominante 3 e dato un vettore di partenza b 0 con componenti non nulle lungo la direzione dell autovettore dominante, esiste una sottosuccessione di b k convergente a questo autovettore. Dimostrazione. Se A è diagonalizzabile siano λ 1,..., λ N gli N autovalori (con eventuali molteplicità) tali che λ 1 > λ 2 λ N e v 1,..., v N i corrispondenti autovettori. Dalle ipotesi, b 0 può essere scritto come b 0 = 3 dominante: in modulo strettamente maggiore di tutti gli altri. 17

18 Maurizio Cescon CAPITOLO 3. L ALGORITMO DEL PAGERANK c 1 v 1 + +c n v N con c 1 0 perché ha componenti non nulle lungo v 1. Allora: b k = Ab k 1 Ab k 1 = Ak b 0 A k b 0 = = c 1λ k 1v 1 + c 2 λ k 2v 2 + c N λ k N v N c 1 λ k 1v 1 + c 2 λ k 2v 2 + c N λ k N v N = ( λ1 ) k c 1 = λ 1 c 1 Per l espressione sopra vale che j > 1: c 1A k v 1 + c 2 A k v 2 + c N A k v N c 1 A k v 1 + c 2 A k v 2 + c N A k v N = ( v1 + c 2 c 1 ( λ2 λ 1 ) kv c N c1 ( λn λ1 ) kvn v 1 + c 2 c 1 ( λ2 λ 1 ) kv c N c1 ( λn λ1 ) kvn c j c 1 (λ j λ 1 ) kvj (k ) 0, poiché λ j / λ 1 < 1. Se A non è diagonalizzabile si considera la sua forma canonica di Jordan A := V JV 1, dove nella prima colonna di V c è l autovettore v 1 corrispondente all autovalore dominante λ 1. Dall unicità dell autovalore dominante, ne deriva che il primo blocco di Jordan è composto dal valore λ 1. Poiché il vettore b 0 può essere scritto come combinazione lineare delle colonne di V b 0 = c 1 v c N v N con c 1 0, si ha: b k = Ab k 1 Ab k 1 = (V JV 1 ) k b 0 V JV 1 ) k b 0 = (V J k V 1 )b 0 (V J k V 1 )b 0 = = V J k V 1 (c 1 v 1 + c 2 v 2 + c N v N ) V J k V 1 (c 1 v 1 + c 2 v 2 + c N v N ) = = V J k (c 1 e 1 + c 2 e 2 + c N e N ) V J k (c 1 e 1 + e 2 v 2 + e N v N ) = ( ) ( λ1 ) k c 1 v1 + 1 c = 1 V ( 1 λ 1 J) k (c 2 e c N e N ) λ 1 c 1 v c 1 V ( 1. λ 1 J) k (c 2 e c N e N ) ). Per l espressione sopra vale che (con M blocchi di Jordan): 1 1 ( 1 J) k ( 1 λ = 1 J 2 ) k (k ) 0 λ 1... ( 1 λ 1 J M ) k... 0 poiché l autovalore di ( 1 λ 1 J j ) k è in modulo più piccolo di 1 j > 1. Ne segue: 1 V ( 1 ) k(c2 J j e 2 + c N e N ) (k ) 0. c 1 λ 1 18

19 Maurizio Cescon 3.4. UN PO DI ANALISI DEL PAGERANK Sai per il caso di A diagonalizzabile che per quello non diagonalizzabile, si perviene all approsimazione v 1 b k = e ıφk c 1 c 1 v 1 + r k, dove e ıφ = λ 1 / λ 1 e r k 0 quando k. La successione b k è limitata e quindi contiene una sottosuccessione convergente. Per via della presenza del termine e ıφk, non si può concludere che b k converga all autovettore voluto (si pensi al caso complesso). Nel caso di matrici stocastiche, l autovalore dominante è 1 perciò b k converge a v 1 / v 1. Per quanto riguarda la velocità di convergenza, essa è geometrica e dipendente dal rapporto λ 2 / λ 1 ; risulta quindi lenta se il primo e secondo autovalore sono molto vicini in modulo. Dal punto di vista computazionale, il carico maggiore risiede nelle moltiplicazioni matrice-vettore. Per una trattazione più approfondita degli aspetti di questo metodo, si può ad esempio consultare [13]. Esso analizza i suoi punti di forza (di carattere sopratutto numerico) consistenti nella limitata quantità di memoria (solo un vettore), nell eseguire operazioni con matrici sparse, nell accuratezza (niente sottrazioni) e nella semplicità. Si sofferma anche sui suoi difetti coincidenti praticamente con la bassa velocità di convergenza. 3.4 Un po di analisi del PageRank E parecchio difficile fare un analisi del PageRank che tenga conto di tutte le caratteristiche del problema e di quelle legate alla sua implementazione attraverso il Power Method. I motivi sono la grossa quantità di aspetti da considerare e la dimensione commerciale di Google (per cui i risultati non sono tutti pubblici). Il taglio di questa sezione sarà, quindi, più di una chiacchierata che un esposizione a tutto tondo. Rimandiamo ad esempio a [13] o [14] per maggiori dettagli su ciò che è riportato. L articolo [11], propone dei teoremi aventi grosse conseguenze sulla velocità di convergenza: Teorema 7. Sia P una matrice stocastica N N e sia α un numero reale tale che: 0 α 1. Sia E = ev T la matrice N N di rango unitario, dove e è il vettore con tutte le componenti uguali a uno e v è un vettore che rappresenta una distribuzione di probabilità. Allora definita A = ( αp + (1 α)e ) T, si ha che λ 2 α. Dimostrazione. Vedi [11]. 19

20 Maurizio Cescon CAPITOLO 3. L ALGORITMO DEL PAGERANK Teorema 8. Se P ha almeno due sottoinsiemi irriducibili e chiusi di stati 4, allora il secondo autovalore di A è dato da λ 2 = α. Dimostrazione. Se α = 0 allora A = E T. Poiché E ha rango 1 segue λ 2 = 0. Sia quindi 0 < α 1. Come prima cosa si ha che ogni autovettore y di P T che sia ortogonale ad e, è un autovettore di A. Infatti per definizione vale P T y = γ y, da cui: A y = α P T y + (1 α)e T y = α P T y + (1 α)ve T y = α P T y = αγ y, con λ = αγ. Lo scopo è costruire un vettore soddisfacente alle precedenti richieste. Come riportato ad esempio in [1], la molteplicità geometrica dell autovalore 1 di una catena di Markov a stati finiti (cioè il numero di distribuzioni invarianti) è pari al numero di classi di stati chiuse ed irriducibili. Quindi, nelle ipotesi del teorema, P ha almeno due autovettori linearmente indipendenti y 1, y 2 corrispondenti all autovalore 1. Siano c 1 = y T e, c 2 = y T e. Se c 1 = 0 allora y = y 1, se c 2 = 0 allora y = y 2 altrimenti y = y 1 /c 1 y 2 /c 2. In ogni caso esiste un autovettore y per P T corrispondente all autovalore 1 e tale che y T e = 0. Pertanto y è un autovettore di A con corrispondente autovalore α cioè A ha un autovettore con autovalore λ = α λ 2. Per il teorema 7 si ottiene l uguaglianza λ 2 = α. Apparentemente sembrerebbe che i due teoremi considerino una matrice diversa rispetto a quella vista precedentemente. Di fatto è solo una sua generalizzazione. Il vettore v del PageRank non è quello con valori 1/N (con N numero totale di pagine) ma quello sopra con v > 0 distribuzione di probabilità. I motivi sono più che altro di natura algoritmica e commerciale: così si permette ad uno stato d avere una ranking alto a prescindere dai suoi collegamenti. Le conseguenze più forti sono nel secondo teorema: esso fornisce una valore esatto per il modulo del secondo autovalore di A. E, però, applicabile a patto di aggiungere ipotesi alla matrice P; sperimentalmente si è visto che P realizza sempre la richiesta d avere due sottoinsiemi irriducibili, fatto poi non così sorprendente vista la grandezza della rete. La velocità di convergenza del Power Method diventa quindi λ 2 /λ 1 = α da cui la formula per l errore è data da (dimostrata in [15]): π k π 1 α k π 0 π 1. Il tutto è perciò condizionato dal solo α. Va da sé che la sua scelta è estremamente delicata: più il suo valore è vicino a zero più alta è la velocità di 4 stati: cioè due classi di equivalenza rispetto alla relazione comunicano. 20

21 Maurizio Cescon 3.4. UN PO DI ANALISI DEL PAGERANK convergenza; ma più è basso, più alta è la distorsione del Web, dato che la matrice A dipende meno da P. Inoltre per α 1 subentrano anche problemi con la sensibilità. Nella direzione di questo ultimo aspetto, c è anche l articolo [12]. Esso tratta della stabilità-sensibilità dell algoritmo proponendo il seguente teorema: Teorema 9. Sia P una matrice stocastica N N i cui elementi diagonali sono nulli (p ii = 0 i) e sia α un numero reale tale che: 0 α < 1. Sia E = ev T la matrice N N di rango unitario, dove e è il vettore con tutte le componenti uguali a 1 e v è un vettore che rappresenta una distribuzione di probabilità. Allora definita A = ( αp + (1 α)e ) T, il problema Ax = x ha numero di condizionamento pari a (1 + α)/(1 α). Dimostrazione. Vedi [12]. Per capire il risultato basta pensare di perturbare leggermente la matrice A, il che potrebbe rappresentare un cambiamento dei link nel web (aggiunta o rimozione di collegamenti) o una modifica di α. Siano dunque Ā = A + ɛb (con ɛb matrice dell errore), x e x vettori delle distribuzioni stazionarie corrispondenti rispettivamente ad A e Ā. Ricordando che per sistemi di equazioni lineari vale che: x x 1 kɛ B, (con k numero di condizionamento del problema), l articolo [12] approda alla seguente formula: x x α 1 α ɛ B. Parafrasando il risultato, abbiamo che per valori di α prossimi a 1, il Page- Rank non è stabile ed un piccolo cambiamento nella struttura di A potrebbe causare un grosso cambiamento nei valori di x. Nuovamente si giunge alla conclusione che la scelta di α deve essere ragionata affinché l algoritmo sia stabile. Un altro aspetto degno di nota del PageRank è quello dell aggiornamento. Siccome il calcolo di π è oneroso, il team di Google effettua il suo aggiornamento ogni due settimane circa. Inoltre la quasi inutilità delle precedenti computazioni 5 (cioè il precedente ranking non è utile come punto di partenza per una nuova computazione), ne impone ogni volta una più o meno da zero. Anche se esistono tecniche capaci di usare il vecchio ranking e i cambiamenti 5 inutilità delle precedenti computazioni: si fa riferimento agli algoritmi standard per aggiornare catene di Markov. 21

22 Maurizio Cescon CAPITOLO 3. L ALGORITMO DEL PAGERANK strutturali per aggiornare π (senza eseguire una nuova computazione), questi metodi funzionano se gli aggiornamenti sono i link, non i nodi. L aggiunta di nodi allarga π complicando il problema. Ad oggi questo ambito è ancora in pieno sviluppo. Le tecniche di aggregazione o l accelerazione adattiva del Power Method sono i risultati più promettenti. 22

23 Appendice A Algoritmo di Kosaraju Grazie alla proposizione 1, una catena di Markov descritta da una matrice P è irriducibile se e solo se per ogni coppia di stati esiste un cammino di lunghezza finita che li congiunge. Questo è equivalente a richiedere che il grafo relativo alla catena abbia un unica componente fortemente connessa. Pertanto un algoritmo capace di risolvere efficientemente il problema di determinare le componenti fortemente connesse di un grafo, è un algoritmo capace di asserire l irriducibilità di P. In letteratura ci sono almeno tre algoritmi notevoli per questo problema: l algoritmo di Kosaraju, quello di Tarjan e quello di Gabow. Le differenze sono per lo più di natura computazionale. Kosaraju propose per primo il suo algoritmo che usa pesantemente il teorema seguente. Teorema 10. Le componenti fortemente connesse di un grafo G sono le stesse del grafo G ottenuto invertendo 1 la direzione di tutti gli archi di G. Lo pseudo codice dell algoritmo è il seguente. Sia G il grafo diretto e U uno stack vuoto. While(U non contiene tutti i nodi){ Scegli un nodo arbitrario v non in U. Esegui una depth-first search partendo da v. Ogni volta che la depth-first search finisce in un nodo w non espandibile, inserisci w in U.} Rovescia le direzioni di tutti gli archi di G. While(U è non vuoto){ Togli il primo nodo v da U. Esegui una depth-first search partendo da v. L insieme dei nodi visitati darà la componente 1 invertendo: essenzialmente considerando la trasposta della matrice descrivente il grafo. 23

24 Maurizio Cescon APPENDICE A. ALGORITMO DI KOSARAJU fortemente connessa a cui appartiene v. Memorizzala e rimuovi tutti i nodi della componente da U.} Rimandiamo ad esempio a [7] per la correttezza dell algoritmo, per esempi chiarificatori e per considerazioni sulla complessità pari a O(N + M), con N numero di nodi e M numero di archi di G. 24

25 Appendice B Algoritmo per la periodicità L algoritmo per determinare la periodicità di una catena, prevede di considerarne una irriducibile. Sotto questa ipotesi, vale il teorema seguente. Teorema 11. Una catena di Markov irriducibile con grafo G = (V, E) ha periodo d 1 se e solo se l insieme dei nodi V può essere partizionato in d classi C 0, C 1,..., C d 1 tali che: se i C k e (i, j) E allora j C (k+1) mod d e d è il più grande intero con questa proprietà. Quindi il periodo di una catena determina una partizione dei nodi in d classi attraverso le quali la catena transita in ordine fisso e ciclico. Inoltre valgono due fatti importanti: il periodo d divide la lunghezza di ciascun ciclo nel grafo; il periodo d divide la differenza tra le lunghezze di due diversi cammini tra una medesima coppia di nodi. L algoritmo per risolvere il problema della periodicità, prevede la costruzione di un albero di supporto T per G partendo da un generico nodo v ed eseguendo una breadth-first search (il grafo è fortemente connesso). Ad ogni nodo viene poi assegnata una etichetta in accordo con: level(v) = 0, e = (i, j) T level(j) = level(i) + 1. In base a ciò, si può definire un valore per ogni arco e = (i, j) E come val(e) = level(i) level(j) + 1 e quanto detto sopra impone a d di dividere quest ultimo valore e E. Quindi d deve dividere il massimo comun divisore dei {val(e) > 0 : e / T }. La dimostrazione della correttezza dell algoritmo (che si può trovare in [9] oppure in [4]) stabilisce l uguaglianza tra questi ultimi valori. Lo pseudo codice dell algoritmo consiste in: Sia G=(V,E) il grafo della catena, v un nodo generico di V. 25

26 Maurizio CesconAPPENDICE B. ALGORITMO PER LA PERIODICITÀ Costruisci un albero di supporto T per G eseguendo una breadth-first search partendo da v. Etichettta ciascun nodo in accordo con: level(v)=0, per ogni e=(i,j) di T level(j)=level(i)+1. d=massimocomundivisore {val(e)>0: con e non in T}. Sempre in [9] oppure in [4], si può trovare la dimostrazione della complessità di questo algoritmo pari a O(N + M), con N numero di nodi e M numero di archi di G. 26

27 Bibliografia [1] A. N. Shiryaev, Probability. Springer, (1996). [2] Wai-Ki Ching, Michaele K. Ng, Markov Chains, Model Algorithms and Applications. Springer, (2006). [3] R. Horn, C. R. Johson, Matrix Analysis. Cambridge University Press, (1990). [4] E. Denardo, Periods of Connected Networks and Powers of Nonnegative Matrices. Math. Oper. Res. (1977). [5] Perron-Frobenius theorem, Wikipedia. wiki/oskar_perron. [6] Power Method, Wikipedia. method. [7] Kosaraju s algorithm, Wikipedia. Kosaraju_algorithm. [8] H. Schneider, Wielandt s proof of the Exponent Inequality for Primitive Nonnegative Matrices. wielproof2.pdf. [9] J. Jarvis, D. Shier, Graph-Theoretic of Finite Markov Chains. http: // [10] L. Page, S. Brin, The Anatomy of a large-scale Hypertextual Web Search Engine. [11] S. D. Kamvar, T. H. Haveliwala, The second Eingenvalue of the Google Matrix. [12] S. D. Kamvar, T. H. Haveliwala, The Condition Number of the PageRank Problem. 27

28 Maurizio Cescon BIBLIOGRAFIA [13] I. Ipsen, Analysis and Computation of Google s Pagerank. ncsu.edu/~ipsen/ps/slides_pisa.pdf [14] A. Langville, C. Meyer, A Survey of Eingvector Methods for Web Information. surveyevwebirreprint.pdf [15] Bianchini, Gori, Scarselli, PageRank and Web Communities. nautilus.dii.unisi.it/pubblicazioni/files/journal/googleacmtran.ps.gz. 28

Le catene di Markov come metodologia utilizzata dai motori di ricerca per classificare le pagine web su internet.

Le catene di Markov come metodologia utilizzata dai motori di ricerca per classificare le pagine web su internet. Università degli Studi di Palermo Facoltà di Economia Dipartimento di Scienze Statistiche e Matematiche S. Vianelli Dottorato di Ricerca in Statistica e Finanza Quantitativa - XXI Ciclo Sergio Salvino

Dettagli

LEZIONE 23. Esempio 23.1.3. Si consideri la matrice (si veda l Esempio 22.2.5) A = 1 2 2 3 3 0

LEZIONE 23. Esempio 23.1.3. Si consideri la matrice (si veda l Esempio 22.2.5) A = 1 2 2 3 3 0 LEZIONE 23 231 Diagonalizzazione di matrici Abbiamo visto nella precedente lezione che, in generale, non è immediato che, data una matrice A k n,n con k = R, C, esista sempre una base costituita da suoi

Dettagli

Metodi Computazionali

Metodi Computazionali Metodi Computazionali Elisabetta Fersini fersini@disco.unimib.it A.A. 2009/2010 Catene di Markov Applicazioni: Fisica dinamica dei sistemi Web simulazione del comportamento utente Biologia evoluzione delle

Dettagli

Luigi Piroddi piroddi@elet.polimi.it

Luigi Piroddi piroddi@elet.polimi.it Automazione industriale dispense del corso 10. Reti di Petri: analisi strutturale Luigi Piroddi piroddi@elet.polimi.it Analisi strutturale Un alternativa all analisi esaustiva basata sul grafo di raggiungibilità,

Dettagli

Dimensione di uno Spazio vettoriale

Dimensione di uno Spazio vettoriale Capitolo 4 Dimensione di uno Spazio vettoriale 4.1 Introduzione Dedichiamo questo capitolo ad un concetto fondamentale in algebra lineare: la dimensione di uno spazio vettoriale. Daremo una definizione

Dettagli

u 1 u k che rappresenta formalmente la somma degli infiniti numeri (14.1), ordinati al crescere del loro indice. I numeri u k

u 1 u k che rappresenta formalmente la somma degli infiniti numeri (14.1), ordinati al crescere del loro indice. I numeri u k Capitolo 4 Serie numeriche 4. Serie convergenti, divergenti, indeterminate Data una successione di numeri reali si chiama serie ad essa relativa il simbolo u +... + u +... u, u 2,..., u,..., (4.) oppure

Dettagli

Matematica generale CTF

Matematica generale CTF Successioni numeriche 19 agosto 2015 Definizione di successione Monotonìa e limitatezza Forme indeterminate Successioni infinitesime Comportamento asintotico Criterio del rapporto per le successioni Definizione

Dettagli

1 Serie di Taylor di una funzione

1 Serie di Taylor di una funzione Analisi Matematica 2 CORSO DI STUDI IN SMID CORSO DI ANALISI MATEMATICA 2 CAPITOLO 7 SERIE E POLINOMI DI TAYLOR Serie di Taylor di una funzione. Definizione di serie di Taylor Sia f(x) una funzione definita

Dettagli

LE SUCCESSIONI 1. COS E UNA SUCCESSIONE

LE SUCCESSIONI 1. COS E UNA SUCCESSIONE LE SUCCESSIONI 1. COS E UNA SUCCESSIONE La sequenza costituisce un esempio di SUCCESSIONE. Ecco un altro esempio di successione: Una successione è dunque una sequenza infinita di numeri reali (ma potrebbe

Dettagli

1 Applicazioni Lineari tra Spazi Vettoriali

1 Applicazioni Lineari tra Spazi Vettoriali 1 Applicazioni Lineari tra Spazi Vettoriali Definizione 1 (Applicazioni lineari) Si chiama applicazione lineare una applicazione tra uno spazio vettoriale ed uno spazio vettoriale sul campo tale che "!$%!

Dettagli

MATEMATICA DEL DISCRETO elementi di teoria dei grafi. anno acc. 2009/2010

MATEMATICA DEL DISCRETO elementi di teoria dei grafi. anno acc. 2009/2010 elementi di teoria dei grafi anno acc. 2009/2010 Grafi semplici Un grafo semplice G è una coppia ordinata (V(G), L(G)), ove V(G) è un insieme finito e non vuoto di elementi detti vertici o nodi di G, mentre

Dettagli

2.1 Definizione di applicazione lineare. Siano V e W due spazi vettoriali su R. Un applicazione

2.1 Definizione di applicazione lineare. Siano V e W due spazi vettoriali su R. Un applicazione Capitolo 2 MATRICI Fra tutte le applicazioni su uno spazio vettoriale interessa esaminare quelle che mantengono la struttura di spazio vettoriale e che, per questo, vengono dette lineari La loro importanza

Dettagli

Autovalori e Autovettori

Autovalori e Autovettori Daniela Lera Università degli Studi di Cagliari Dipartimento di Matematica e Informatica A.A. 2008-2009 Autovalori e Autovettori Definizione Siano A C nxn, λ C, e x C n, x 0, tali che Ax = λx. (1) Allora

Dettagli

Ottimizzazione Multi Obiettivo

Ottimizzazione Multi Obiettivo Ottimizzazione Multi Obiettivo 1 Ottimizzazione Multi Obiettivo I problemi affrontati fino ad ora erano caratterizzati da una unica (e ben definita) funzione obiettivo. I problemi di ottimizzazione reali

Dettagli

1. PRIME PROPRIETÀ 2

1. PRIME PROPRIETÀ 2 RELAZIONI 1. Prime proprietà Il significato comune del concetto di relazione è facilmente intuibile: due elementi sono in relazione se c è un legame tra loro descritto da una certa proprietà; ad esempio,

Dettagli

x 1 + x 2 3x 4 = 0 x1 + x 2 + x 3 = 0 x 1 + x 2 3x 4 = 0.

x 1 + x 2 3x 4 = 0 x1 + x 2 + x 3 = 0 x 1 + x 2 3x 4 = 0. Problema. Sia W il sottospazio dello spazio vettoriale R 4 dato da tutte le soluzioni dell equazione x + x 2 + x = 0. (a. Sia U R 4 il sottospazio dato da tutte le soluzioni dell equazione Si determini

Dettagli

Parte 2. Determinante e matrice inversa

Parte 2. Determinante e matrice inversa Parte. Determinante e matrice inversa A. Savo Appunti del Corso di Geometria 013-14 Indice delle sezioni 1 Determinante di una matrice, 1 Teorema di Cramer (caso particolare), 3 3 Determinante di una matrice

Dettagli

Parte 3. Rango e teorema di Rouché-Capelli

Parte 3. Rango e teorema di Rouché-Capelli Parte 3. Rango e teorema di Rouché-Capelli A. Savo Appunti del Corso di Geometria 203-4 Indice delle sezioni Rango di una matrice, 2 Teorema degli orlati, 3 3 Calcolo con l algoritmo di Gauss, 6 4 Matrici

Dettagli

Metodi basati sugli autovettori per il Web Information Retrieval

Metodi basati sugli autovettori per il Web Information Retrieval Metodi basati sugli autovettori per il Web Information Retrieval HITS, PageRank e il metodo delle potenze LSI e SVD LSI è diventato famoso per la sua abilità nel permettere di manipolare i termini (all

Dettagli

Corso di Matematica per la Chimica

Corso di Matematica per la Chimica Dott.ssa Maria Carmela De Bonis a.a. 203-4 I sistemi lineari Generalità sui sistemi lineari Molti problemi dell ingegneria, della fisica, della chimica, dell informatica e dell economia, si modellizzano

Dettagli

Ottimizazione vincolata

Ottimizazione vincolata Ottimizazione vincolata Ricordiamo alcuni risultati provati nella scheda sulla Teoria di Dini per una funzione F : R N+M R M di classe C 1 con (x 0, y 0 ) F 1 (a), a = (a 1,, a M ), punto in cui vale l

Dettagli

Slide Cerbara parte1 5. Le distribuzioni teoriche

Slide Cerbara parte1 5. Le distribuzioni teoriche Slide Cerbara parte1 5 Le distribuzioni teoriche I fenomeni biologici, demografici, sociali ed economici, che sono il principale oggetto della statistica, non sono retti da leggi matematiche. Però dalle

Dettagli

Diagonalizzazione di matrici e applicazioni lineari

Diagonalizzazione di matrici e applicazioni lineari CAPITOLO 9 Diagonalizzazione di matrici e applicazioni lineari Esercizio 9.1. Verificare che v = (1, 0, 0, 1) è autovettore dell applicazione lineare T così definita T(x 1,x 2,x 3,x 4 ) = (2x 1 2x 3, x

Dettagli

Lezione 9: Cambio di base

Lezione 9: Cambio di base Lezione 9: Cambio di base In questa lezione vogliamo affrontare uno degli argomenti piu ostici per lo studente e cioè il cambio di base all interno di uno spazio vettoriale, inoltre cercheremo di capire

Dettagli

Consideriamo due polinomi

Consideriamo due polinomi Capitolo 3 Il luogo delle radici Consideriamo due polinomi N(z) = (z z 1 )(z z 2 )... (z z m ) D(z) = (z p 1 )(z p 2 )... (z p n ) della variabile complessa z con m < n. Nelle problematiche connesse al

Dettagli

La Programmazione Lineare

La Programmazione Lineare 4 La Programmazione Lineare 4.1 INTERPRETAZIONE GEOMETRICA DI UN PROBLEMA DI PROGRAMMAZIONE LINEARE Esercizio 4.1.1 Fornire una rappresentazione geometrica e risolvere graficamente i seguenti problemi

Dettagli

Introduzione al MATLAB c Parte 2

Introduzione al MATLAB c Parte 2 Introduzione al MATLAB c Parte 2 Lucia Gastaldi Dipartimento di Matematica, http://dm.ing.unibs.it/gastaldi/ 18 gennaio 2008 Outline 1 M-file di tipo Script e Function Script Function 2 Costrutti di programmazione

Dettagli

APPUNTI DI MATEMATICA LE FRAZIONI ALGEBRICHE ALESSANDRO BOCCONI

APPUNTI DI MATEMATICA LE FRAZIONI ALGEBRICHE ALESSANDRO BOCCONI APPUNTI DI MATEMATICA LE FRAZIONI ALGEBRICHE ALESSANDRO BOCCONI Indice 1 Le frazioni algebriche 1.1 Il minimo comune multiplo e il Massimo Comun Divisore fra polinomi........ 1. Le frazioni algebriche....................................

Dettagli

Proof. Dimostrazione per assurdo. Consideriamo l insieme complementare di P nell insieme

Proof. Dimostrazione per assurdo. Consideriamo l insieme complementare di P nell insieme G Pareschi Principio di induzione Il Principio di Induzione (che dovreste anche avere incontrato nel Corso di Analisi I) consente di dimostrare Proposizioni il cui enunciato è in funzione di un numero

Dettagli

risulta (x) = 1 se x < 0.

risulta (x) = 1 se x < 0. Questo file si pone come obiettivo quello di mostrarvi come lo studio di una funzione reale di una variabile reale, nella cui espressione compare un qualche valore assoluto, possa essere svolto senza necessariamente

Dettagli

Prova parziale di Geometria e Topologia I - 5 mag 2008 (U1-03, 13:30 16:30) 1/8. Cognome:... Nome:... Matricola:...

Prova parziale di Geometria e Topologia I - 5 mag 2008 (U1-03, 13:30 16:30) 1/8. Cognome:... Nome:... Matricola:... Prova parziale di Geometria e Topologia I - 5 mag 2008 (U1-03, 13:30 16:30) 1/8 Cognome:................ Nome:................ Matricola:................ (Dare una dimostrazione esauriente di tutte le

Dettagli

LE FUNZIONI A DUE VARIABILI

LE FUNZIONI A DUE VARIABILI Capitolo I LE FUNZIONI A DUE VARIABILI In questo primo capitolo introduciamo alcune definizioni di base delle funzioni reali a due variabili reali. Nel seguito R denoterà l insieme dei numeri reali mentre

Dettagli

1 Giochi a due, con informazione perfetta e somma zero

1 Giochi a due, con informazione perfetta e somma zero 1 Giochi a due, con informazione perfetta e somma zero Nel gioco del Nim, se semplificato all estremo, ci sono due giocatori I, II e una pila di 6 pedine identiche In ogni turno di gioco I rimuove una

Dettagli

Sono casi particolari di MCF : SPT (cammini minimi) non vi sono vincoli di capacità superiore (solo x ij > 0) (i, j) A : c ij, costo di percorrenza

Sono casi particolari di MCF : SPT (cammini minimi) non vi sono vincoli di capacità superiore (solo x ij > 0) (i, j) A : c ij, costo di percorrenza Il problema di flusso di costo minimo (MCF) Dati : grafo orientato G = ( N, A ) i N, deficit del nodo i : b i (i, j) A u ij, capacità superiore (max quantità di flusso che può transitare) c ij, costo di

Dettagli

Forze come grandezze vettoriali

Forze come grandezze vettoriali Forze come grandezze vettoriali L. Paolucci 23 novembre 2010 Sommario Esercizi e problemi risolti. Per la classe prima. Anno Scolastico 2010/11 Parte 1 / versione 2 Si ricordi che la risultante di due

Dettagli

Capitolo 4: Ottimizzazione non lineare non vincolata parte II. E. Amaldi DEIB, Politecnico di Milano

Capitolo 4: Ottimizzazione non lineare non vincolata parte II. E. Amaldi DEIB, Politecnico di Milano Capitolo 4: Ottimizzazione non lineare non vincolata parte II E. Amaldi DEIB, Politecnico di Milano 4.3 Algoritmi iterativi e convergenza Programma non lineare (PNL): min f(x) s.v. g i (x) 0 1 i m x S

Dettagli

Rette e curve, piani e superfici

Rette e curve, piani e superfici Rette e curve piani e superfici ) dicembre 2 Scopo di questo articolo è solo quello di proporre uno schema riepilogativo che metta in luce le caratteristiche essenziali delle equazioni di rette e curve

Dettagli

19. Inclusioni tra spazi L p.

19. Inclusioni tra spazi L p. 19. Inclusioni tra spazi L p. Nel n. 15.1 abbiamo provato (Teorema 15.1.1) che, se la misura µ è finita, allora tra i corispondenti spazi L p (µ) si hanno le seguenti inclusioni: ( ) p, r ]0, + [ : p

Dettagli

4 3 4 = 4 x 10 2 + 3 x 10 1 + 4 x 10 0 aaa 10 2 10 1 10 0

4 3 4 = 4 x 10 2 + 3 x 10 1 + 4 x 10 0 aaa 10 2 10 1 10 0 Rappresentazione dei numeri I numeri che siamo abituati ad utilizzare sono espressi utilizzando il sistema di numerazione decimale, che si chiama così perché utilizza 0 cifre (0,,2,3,4,5,6,7,8,9). Si dice

Dettagli

Esercizi su lineare indipendenza e generatori

Esercizi su lineare indipendenza e generatori Esercizi su lineare indipendenza e generatori Per tutto il seguito, se non specificato esplicitamente K indicherà un campo e V uno spazio vettoriale su K Cose da ricordare Definizione Dei vettori v,,v

Dettagli

Le equazioni. Diapositive riassemblate e rielaborate da prof. Antonio Manca da materiali offerti dalla rete.

Le equazioni. Diapositive riassemblate e rielaborate da prof. Antonio Manca da materiali offerti dalla rete. Le equazioni Diapositive riassemblate e rielaborate da prof. Antonio Manca da materiali offerti dalla rete. Definizione e caratteristiche Chiamiamo equazione l uguaglianza tra due espressioni algebriche,

Dettagli

ESERCIZI DI ALGEBRA LINEARE E GEOMETRIA

ESERCIZI DI ALGEBRA LINEARE E GEOMETRIA ESERCIZI DI ALGEBRA LINEARE E GEOMETRIA Francesco Bottacin Padova, 24 febbraio 2012 Capitolo 1 Algebra Lineare 1.1 Spazi e sottospazi vettoriali Esercizio 1.1. Sia U il sottospazio di R 4 generato dai

Dettagli

RICHIAMI SULLE MATRICI. Una matrice di m righe e n colonne è rappresentata come

RICHIAMI SULLE MATRICI. Una matrice di m righe e n colonne è rappresentata come RICHIAMI SULLE MATRICI Una matrice di m righe e n colonne è rappresentata come A = a 11 a 12... a 1n a 21 a 22... a 2n............ a m1 a m2... a mn dove m ed n sono le dimensioni di A. La matrice A può

Dettagli

5. La teoria astratta della misura.

5. La teoria astratta della misura. 5. La teoria astratta della misura. 5.1. σ-algebre. 5.1.1. σ-algebre e loro proprietà. Sia Ω un insieme non vuoto. Indichiamo con P(Ω la famiglia di tutti i sottoinsiemi di Ω. Inoltre, per ogni insieme

Dettagli

Capitolo 25: Lo scambio nel mercato delle assicurazioni

Capitolo 25: Lo scambio nel mercato delle assicurazioni Capitolo 25: Lo scambio nel mercato delle assicurazioni 25.1: Introduzione In questo capitolo la teoria economica discussa nei capitoli 23 e 24 viene applicata all analisi dello scambio del rischio nel

Dettagli

I sistemi di numerazione

I sistemi di numerazione I sistemi di numerazione 01-INFORMAZIONE E SUA RAPPRESENTAZIONE Sia dato un insieme finito di caratteri distinti, che chiameremo alfabeto. Utilizzando anche ripetutamente caratteri di un alfabeto, si possono

Dettagli

Lezioni di Matematica 1 - I modulo

Lezioni di Matematica 1 - I modulo Lezioni di Matematica 1 - I modulo Luciano Battaia 16 ottobre 2008 Luciano Battaia - http://www.batmath.it Matematica 1 - I modulo. Lezione del 16/10/2008 1 / 13 L introduzione dei numeri reali si può

Dettagli

4. Operazioni elementari per righe e colonne

4. Operazioni elementari per righe e colonne 4. Operazioni elementari per righe e colonne Sia K un campo, e sia A una matrice m n a elementi in K. Una operazione elementare per righe sulla matrice A è una operazione di uno dei seguenti tre tipi:

Dettagli

CRITERI DI CONVERGENZA PER LE SERIE. lim a n = 0. (1) s n+1 = s n + a n+1. (2) CRITERI PER LE SERIE A TERMINI NON NEGATIVI

CRITERI DI CONVERGENZA PER LE SERIE. lim a n = 0. (1) s n+1 = s n + a n+1. (2) CRITERI PER LE SERIE A TERMINI NON NEGATIVI Il criterio più semplice è il seguente. CRITERI DI CONVERGENZA PER LE SERIE Teorema(condizione necessaria per la convergenza). Sia a 0, a 1, a 2,... una successione di numeri reali. Se la serie a k è convergente,

Dettagli

Iniziamo con un esercizio sul massimo comun divisore: Esercizio 1. Sia d = G.C.D.(a, b), allora:

Iniziamo con un esercizio sul massimo comun divisore: Esercizio 1. Sia d = G.C.D.(a, b), allora: Iniziamo con un esercizio sul massimo comun divisore: Esercizio 1. Sia d = G.C.D.(a, b), allora: G.C.D.( a d, b d ) = 1 Sono state introdotte a lezione due definizioni importanti che ricordiamo: Definizione

Dettagli

CAPITOLO 16 SUCCESSIONI E SERIE DI FUNZIONI

CAPITOLO 16 SUCCESSIONI E SERIE DI FUNZIONI CAPITOLO 16 SUCCESSIONI E SERIE DI FUNZIONI Abbiamo studiato successioni e serie numeriche, ora vogliamo studiare successioni e serie di funzioni. Dato un insieme A R, chiamiamo successione di funzioni

Dettagli

3 CENNI DI TEORIA DELLA COMPLESSITA COMPUTAZIONALE. E. Amaldi Fondamenti di R.O. Politecnico di Milano 1

3 CENNI DI TEORIA DELLA COMPLESSITA COMPUTAZIONALE. E. Amaldi Fondamenti di R.O. Politecnico di Milano 1 3 CENNI DI TEORIA DELLA COMPLESSITA COMPUTAZIONALE E. Amaldi Fondamenti di R.O. Politecnico di Milano 1 Scopo: Stimare l onere computazionale per risolvere problemi di ottimizzazione e di altra natura

Dettagli

Capitolo 13: L offerta dell impresa e il surplus del produttore

Capitolo 13: L offerta dell impresa e il surplus del produttore Capitolo 13: L offerta dell impresa e il surplus del produttore 13.1: Introduzione L analisi dei due capitoli precedenti ha fornito tutti i concetti necessari per affrontare l argomento di questo capitolo:

Dettagli

La distribuzione Normale. La distribuzione Normale

La distribuzione Normale. La distribuzione Normale La Distribuzione Normale o Gaussiana è la distribuzione più importante ed utilizzata in tutta la statistica La curva delle frequenze della distribuzione Normale ha una forma caratteristica, simile ad una

Dettagli

1. Distribuzioni campionarie

1. Distribuzioni campionarie Università degli Studi di Basilicata Facoltà di Economia Corso di Laurea in Economia Aziendale - a.a. 2012/2013 lezioni di statistica del 3 e 6 giugno 2013 - di Massimo Cristallo - 1. Distribuzioni campionarie

Dettagli

Metodi e Modelli per l Ottimizzazione Combinatoria Il problema del flusso di costo minimo

Metodi e Modelli per l Ottimizzazione Combinatoria Il problema del flusso di costo minimo Metodi e Modelli per l Ottimizzazione Combinatoria Il problema del flusso di costo minimo L. De Giovanni G. Zambelli 1 Problema del flusso a costo minimo Il problema del flusso a costo minimo é definito

Dettagli

Come visto precedentemente l equazione integro differenziale rappresentativa dell equilibrio elettrico di un circuito RLC è la seguente: 1 = (1)

Come visto precedentemente l equazione integro differenziale rappresentativa dell equilibrio elettrico di un circuito RLC è la seguente: 1 = (1) Transitori Analisi nel dominio del tempo Ricordiamo che si definisce transitorio il periodo di tempo che intercorre nel passaggio, di un sistema, da uno stato energetico ad un altro, non è comunque sempre

Dettagli

9 Metodi diretti per la risoluzione di sistemi lineari: fattorizzazione P A = LU

9 Metodi diretti per la risoluzione di sistemi lineari: fattorizzazione P A = LU 9 Metodi diretti per la risoluzione di sistemi lineari: fattorizzazione P A LU 9.1 Il metodo di Gauss Come si è visto nella sezione 3.3, per la risoluzione di un sistema lineare si può considerare al posto

Dettagli

Parte 6. Applicazioni lineari

Parte 6. Applicazioni lineari Parte 6 Applicazioni lineari A Savo Appunti del Corso di Geometria 203-4 Indice delle sezioni Applicazioni fra insiemi, 2 Applicazioni lineari tra spazi vettoriali, 2 3 Applicazioni lineari da R n a R

Dettagli

3.1 Successioni. R Definizione (Successione numerica) E Esempio 3.1 CAPITOLO 3

3.1 Successioni. R Definizione (Successione numerica) E Esempio 3.1 CAPITOLO 3 CAPITOLO 3 Successioni e serie 3. Successioni Un caso particolare di applicazione da un insieme numerico ad un altro insieme numerico è quello delle successioni, che risultano essere definite nell insieme

Dettagli

Teoria delle code. Sistemi stazionari: M/M/1 M/M/1/K M/M/S

Teoria delle code. Sistemi stazionari: M/M/1 M/M/1/K M/M/S Teoria delle code Sistemi stazionari: M/M/1 M/M/1/K M/M/S Fabio Giammarinaro 04/03/2008 Sommario INTRODUZIONE... 3 Formule generali di e... 3 Leggi di Little... 3 Cosa cerchiamo... 3 Legame tra N e le

Dettagli

Il principio di induzione e i numeri naturali.

Il principio di induzione e i numeri naturali. Il principio di induzione e i numeri naturali. Il principio di induzione è un potente strumento di dimostrazione, al quale si ricorre ogni volta che si debba dimostrare una proprietà in un numero infinito

Dettagli

Massimi e minimi vincolati di funzioni in due variabili

Massimi e minimi vincolati di funzioni in due variabili Massimi e minimi vincolati di funzioni in due variabili I risultati principali della teoria dell ottimizzazione, il Teorema di Fermat in due variabili e il Test dell hessiana, si applicano esclusivamente

Dettagli

15 febbraio 2010 - Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a. 2009-2010 COGNOME... NOME... N. MATRICOLA...

15 febbraio 2010 - Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a. 2009-2010 COGNOME... NOME... N. MATRICOLA... 15 febbraio 010 - Soluzione esame di geometria - 1 crediti Ingegneria gestionale - a.a. 009-010 COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura

Dettagli

Per lo svolgimento del corso risulta particolarmente utile considerare l insieme

Per lo svolgimento del corso risulta particolarmente utile considerare l insieme 1. L insieme R. Per lo svolgimento del corso risulta particolarmente utile considerare l insieme R = R {, + }, detto anche retta reale estesa, che si ottiene aggiungendo all insieme dei numeri reali R

Dettagli

Controlli Automatici T. Trasformata di Laplace e Funzione di trasferimento. Parte 3 Aggiornamento: Settembre 2010. Prof. L.

Controlli Automatici T. Trasformata di Laplace e Funzione di trasferimento. Parte 3 Aggiornamento: Settembre 2010. Prof. L. Parte 3 Aggiornamento: Settembre 2010 Parte 3, 1 Trasformata di Laplace e Funzione di trasferimento Prof. Lorenzo Marconi DEIS-Università di Bologna Tel. 051 2093788 Email: lmarconi@deis.unibo.it URL:

Dettagli

ELEMENTI DI ALGEBRA LINEARE E GEOMETRIA Corso di Laurea Ingegneria Edile-Architettura

ELEMENTI DI ALGEBRA LINEARE E GEOMETRIA Corso di Laurea Ingegneria Edile-Architettura Cognome Nome Matricola ELEMENTI DI ALGEBRA LINEARE E GEOMETRIA Corso di Laurea Ingegneria Edile-Architettura (Primo appello/ii prova parziale 15/6/15 - Chiarellotto-Urbinati) Per la II prova: solo esercizi

Dettagli

Più processori uguale più velocità?

Più processori uguale più velocità? Più processori uguale più velocità? e un processore impiega per eseguire un programma un tempo T, un sistema formato da P processori dello stesso tipo esegue lo stesso programma in un tempo TP T / P? In

Dettagli

Siamo così arrivati all aritmetica modulare, ma anche a individuare alcuni aspetti di come funziona l aritmetica del calcolatore come vedremo.

Siamo così arrivati all aritmetica modulare, ma anche a individuare alcuni aspetti di come funziona l aritmetica del calcolatore come vedremo. DALLE PESATE ALL ARITMETICA FINITA IN BASE 2 Si è trovato, partendo da un problema concreto, che con la base 2, utilizzando alcune potenze della base, operando con solo addizioni, posso ottenere tutti

Dettagli

Sommario. Definizione di informatica. Definizione di un calcolatore come esecutore. Gli algoritmi.

Sommario. Definizione di informatica. Definizione di un calcolatore come esecutore. Gli algoritmi. Algoritmi 1 Sommario Definizione di informatica. Definizione di un calcolatore come esecutore. Gli algoritmi. 2 Informatica Nome Informatica=informazione+automatica. Definizione Scienza che si occupa dell

Dettagli

1. Sia dato un poliedro. Dire quali delle seguenti affermazioni sono corrette.

1. Sia dato un poliedro. Dire quali delle seguenti affermazioni sono corrette. . Sia dato un poliedro. (a) Un vettore x R n è un vertice di P se soddisfa alla seguenti condizioni: x P e comunque presi due punti distinti x, x 2 P tali che x x e x x 2 si ha x = ( β)x + βx 2 con β [0,

Dettagli

Politecnico di Milano. Facoltà di Ingegneria Industriale. Corso di Analisi e Geometria 2. Sezione D-G. (Docente: Federico Lastaria).

Politecnico di Milano. Facoltà di Ingegneria Industriale. Corso di Analisi e Geometria 2. Sezione D-G. (Docente: Federico Lastaria). Politecnico di Milano. Facoltà di Ingegneria Industriale. Corso di Analisi e Geometria 2. Sezione D-G. (Docente: Federico Lastaria). Aprile 20 Indice Serie numeriche. Serie convergenti, divergenti, indeterminate.....................

Dettagli

APPLICAZIONI LINEARI

APPLICAZIONI LINEARI APPLICAZIONI LINEARI 1. Esercizi Esercizio 1. Date le seguenti applicazioni lineari (1) f : R 2 R 3 definita da f(x, y) = (x 2y, x + y, x + y); (2) g : R 3 R 2 definita da g(x, y, z) = (x + y, x y); (3)

Dettagli

L espressione torna invece sempre vera (quindi la soluzione originale) se cambiamo contemporaneamente il verso: 1 < 0.

L espressione torna invece sempre vera (quindi la soluzione originale) se cambiamo contemporaneamente il verso: 1 < 0. EQUAZIONI E DISEQUAZIONI Le uguaglianze fra espressioni numeriche si chiamano equazioni. Cercare le soluzioni dell equazione vuol dire cercare quelle combinazioni delle lettere che vi compaiono che la

Dettagli

x u v(p(x, fx) q(u, v)), e poi

x u v(p(x, fx) q(u, v)), e poi 0.1. Skolemizzazione. Ogni enunciato F (o insieme di enunciati Γ) è equisoddisfacibile ad un enunciato universale (o insieme di enunciati universali) in un linguaggio estensione del linguaggio di F (di

Dettagli

VC-dimension: Esempio

VC-dimension: Esempio VC-dimension: Esempio Quale è la VC-dimension di. y b = 0 f() = 1 f() = 1 iperpiano 20? VC-dimension: Esempio Quale è la VC-dimension di? banale. Vediamo cosa succede con 2 punti: 21 VC-dimension: Esempio

Dettagli

Fondamenti dei linguaggi di programmazione

Fondamenti dei linguaggi di programmazione Fondamenti dei linguaggi di programmazione Aniello Murano Università degli Studi di Napoli Federico II 1 Riassunto delle lezioni precedenti Prima Lezione: Introduzione e motivazioni del corso; Sintassi

Dettagli

Capitolo 25: Lo scambio nel mercato delle assicurazioni

Capitolo 25: Lo scambio nel mercato delle assicurazioni Capitolo 25: Lo scambio nel mercato delle assicurazioni 25.1: Introduzione In questo capitolo la teoria economica discussa nei capitoli 23 e 24 viene applicata all analisi dello scambio del rischio nel

Dettagli

Capitolo 2. Operazione di limite

Capitolo 2. Operazione di limite Capitolo 2 Operazione di ite In questo capitolo vogliamo occuparci dell operazione di ite, strumento indispensabile per scoprire molte proprietà delle funzioni. D ora in avanti riguarderemo i domini A

Dettagli

SUCCESSIONI NUMERICHE

SUCCESSIONI NUMERICHE SUCCESSIONI NUMERICHE Una funzione reale di una variabile reale f di dominio A è una legge che ad ogni x A associa un numero reale che denotiamo con f(x). Se A = N, la f è detta successione di numeri reali.

Dettagli

Algebra Lineare e Geometria

Algebra Lineare e Geometria Algebra Lineare e Geometria Corso di Laurea in Ingegneria Elettronica A.A. 2013-2014 Prova d esame del 16/06/2014. 1) a) Determinare la matrice associata all applicazione lineare T : R 3 R 4 definita da

Dettagli

Applicazioni lineari

Applicazioni lineari Applicazioni lineari Esempi di applicazioni lineari Definizione. Se V e W sono spazi vettoriali, una applicazione lineare è una funzione f: V W tale che, per ogni v, w V e per ogni a, b R si abbia f(av

Dettagli

Una ricetta per il calcolo dell asintoto obliquo. Se f(x) è asintotica a mx+q allora abbiamo f(x) mx q = o(1), da cui (dividendo per x) + o(1), m =

Una ricetta per il calcolo dell asintoto obliquo. Se f(x) è asintotica a mx+q allora abbiamo f(x) mx q = o(1), da cui (dividendo per x) + o(1), m = Una ricetta per il calcolo dell asintoto obliquo Se f() è asintotica a m+q allora abbiamo f() m q = o(1), da cui (dividendo per ) m = f() q + 1 f() o(1) = + o(1), mentre q = f() m = o(1). Dunque si ha

Dettagli

Corso di Calcolo Numerico

Corso di Calcolo Numerico Corso di Calcolo Numerico Dottssa MC De Bonis Università degli Studi della Basilicata, Potenza Facoltà di Ingegneria Corso di Laurea in Ingegneria Meccanica Corso di Calcolo Numerico - Dottssa MC De Bonis

Dettagli

FUNZIONI ELEMENTARI - ESERCIZI SVOLTI

FUNZIONI ELEMENTARI - ESERCIZI SVOLTI FUNZIONI ELEMENTARI - ESERCIZI SVOLTI 1) Determinare il dominio delle seguenti funzioni di variabile reale: (a) f(x) = x 4 (c) f(x) = 4 x x + (b) f(x) = log( x + x) (d) f(x) = 1 4 x 5 x + 6 ) Data la funzione

Dettagli

Esercizi per il corso di Algoritmi e Strutture Dati

Esercizi per il corso di Algoritmi e Strutture Dati 1 Esercizi per il corso di Algoritmi e Strutture Dati Esercizi sulla Tecnica Divide et Impera N.B. Tutti gli algoritmi vanno scritti in pseudocodice (non in Java, né in C++, etc. ). Di tutti gli algoritmi

Dettagli

LEZIONE 16. Proposizione 16.1.2. Siano V e W spazi vettoriali su k = R, C. Se f: V W

LEZIONE 16. Proposizione 16.1.2. Siano V e W spazi vettoriali su k = R, C. Se f: V W LEZIONE 16 16.1. Applicazioni lineari iniettive e suriettive. Ricordo le seguenti due definizioni valide per applicazioni di qualsiasi tipo ϕ: X Y fra due insiemi. L applicazione ϕ si dice iniettiva se

Dettagli

Serie numeriche. 1 Definizioni e proprietà elementari

Serie numeriche. 1 Definizioni e proprietà elementari Serie numeriche Definizioni e proprietà elementari Sia { } una successione, definita per ogni numero naturale n n. Per ogni n n, consideriamo la somma s n degli elementi della successione di posto d s

Dettagli

Equilibrio bayesiano perfetto. Giochi di segnalazione

Equilibrio bayesiano perfetto. Giochi di segnalazione Equilibrio bayesiano perfetto. Giochi di segnalazione Appunti a cura di Stefano Moretti, Silvia VILLA e Fioravante PATRONE versione del 26 maggio 2006 Indice 1 Equilibrio bayesiano perfetto 2 2 Giochi

Dettagli

4 Dispense di Matematica per il biennio dell Istituto I.S.I.S. Gaetano Filangieri di Frattamaggiore EQUAZIONI FRATTE E SISTEMI DI EQUAZIONI

4 Dispense di Matematica per il biennio dell Istituto I.S.I.S. Gaetano Filangieri di Frattamaggiore EQUAZIONI FRATTE E SISTEMI DI EQUAZIONI 119 4 Dispense di Matematica per il biennio dell Istituto I.S.I.S. Gaetano Filangieri di Frattamaggiore EQUAZIONI FRATTE E SISTEMI DI EQUAZIONI Indice degli Argomenti: TEMA N. 1 : INSIEMI NUMERICI E CALCOLO

Dettagli

Osservazioni sulla continuità per le funzioni reali di variabile reale

Osservazioni sulla continuità per le funzioni reali di variabile reale Corso di Matematica, I modulo, Università di Udine, Osservazioni sulla continuità Osservazioni sulla continuità per le funzioni reali di variabile reale Come è noto una funzione è continua in un punto

Dettagli

Documentazione esterna al software matematico sviluppato con MatLab

Documentazione esterna al software matematico sviluppato con MatLab Documentazione esterna al software matematico sviluppato con MatLab Algoritmi Metodo di Gauss-Seidel con sovrarilassamento Metodo delle Secanti Metodo di Newton Studente Amelio Francesco 556/00699 Anno

Dettagli

Complemento al corso di Fondamenti di Informatica I corsi di laurea in ingegneria, settore dell informazione Università la Sapienza Consorzio Nettuno

Complemento al corso di Fondamenti di Informatica I corsi di laurea in ingegneria, settore dell informazione Università la Sapienza Consorzio Nettuno Rappresentazione di numeri Complemento al corso di Fondamenti di Informatica I corsi di laurea in ingegneria, settore dell informazione Università la Sapienza Consorzio Nettuno Un numero e un entità teorica,

Dettagli

Correttezza. Corso di Laurea Ingegneria Informatica Fondamenti di Informatica 1. Dispensa 10. A. Miola Novembre 2007

Correttezza. Corso di Laurea Ingegneria Informatica Fondamenti di Informatica 1. Dispensa 10. A. Miola Novembre 2007 Corso di Laurea Ingegneria Informatica Fondamenti di Informatica 1 Dispensa 10 Correttezza A. Miola Novembre 2007 http://www.dia.uniroma3.it/~java/fondinf1/ Correttezza 1 Contenuti Introduzione alla correttezza

Dettagli

b i 1,1,1 1,1,1 0,1,2 0,3,4

b i 1,1,1 1,1,1 0,1,2 0,3,4 V o Appello // RICERCA OPERATIVA - Corso A (a.a. 9/) Nome Cognome: Corso di Laurea: L C6 LS LM Matricola: ) Si consideri il problema di flusso di costo minimo in figura. Si verifichi se il flusso ammissibile

Dettagli

ESERCIZI APPLICAZIONI LINEARI

ESERCIZI APPLICAZIONI LINEARI ESERCIZI APPLICAZIONI LINEARI PAOLO FACCIN 1. Esercizi sulle applicazioni lineari 1.1. Definizioni sulle applicazioni lineari. Siano V, e W spazi vettoriali, con rispettive basi B V := (v 1 v n) e B W

Dettagli

Il calcolo letterale per risolvere problemi e per dimostrare

Il calcolo letterale per risolvere problemi e per dimostrare Il calcolo letterale per risolvere problemi e per dimostrare (si prevedono circa 25 ore di lavoro in classe) Nome e cognome dei componenti del gruppo che svolge le attività di gruppo di questa lezione

Dettagli

Esponenziali elogaritmi

Esponenziali elogaritmi Esponenziali elogaritmi Potenze ad esponente reale Ricordiamo che per un qualsiasi numero razionale m n prendere n>0) si pone a m n = n a m (in cui si può sempre a patto che a sia un numero reale positivo.

Dettagli

Metodi Frequenziali per il Progetto di Controllori MIMO: Controllori Decentralizzati

Metodi Frequenziali per il Progetto di Controllori MIMO: Controllori Decentralizzati Metodi Frequenziali per il Progetto di Controllori MIMO: Controllori Decentralizzati Ingegneria dell'automazione Corso di Sistemi di Controllo Multivariabile - Prof. F. Amato Versione 2.2 Ottobre 2012

Dettagli

La misura degli angoli

La misura degli angoli La misura degli angoli In questa dispensa introduciamo la misura degli angoli, sia in gradi che in radianti, e le formule di conversione. Per quanto riguarda l introduzione del radiante, per facilitarne

Dettagli