Un applicazione delle catene di Markov: l algoritmo del PageRank. Maurizio Cescon
|
|
- Battista Bianchini
- 8 anni fa
- Visualizzazioni
Transcript
1 Un applicazione delle catene di Markov: l algoritmo del PageRank Maurizio Cescon 25 settembre 2013
2 Indice 1 Catene di Markov Definizione e concetti basilari Teorema Ergodico Stati ergodici Matrici primitive Teorema di Perron-Frobenius L algoritmo del PageRank Pagine web e catene di Markov La matrice del PageRank Power Method Un po di analisi del PageRank A Algoritmo di Kosaraju 23 B Algoritmo per la periodicità 25 2
3 Capitolo 1 Catene di Markov In questo capitolo sono esposte delle nozioni di base riguardanti le catene di Markov. Quanto di seguito scritto non è esaustivo e si limita a riportare definizioni e proprietà utili per questo elaborato, senza entrare troppo nei dettagli matematici. Inoltre parecchi risultati sono generalizzabili, ma abbiamo preferito mantenere una trattazione più ristretta dato l ambito abbastanza specifico d utilizzo. La linea guida è stata quella di ricondurre i fenomeni probabilistici allo studio matriciale. 1.1 Definizione e concetti basilari Definizione 1. Siano (Ω, F, P ) uno spazio di probabiltà, (R, B R ) la σ-algebra dei boreliani e T R. Si definisce processo stocastico di parametro t una famiglia di variabili aleatorie (X t : t T ) definite in Ω e a valori in R, indicizzate dal parametro t. I valori che possono assumere le variabili aleatorie si chiamano stati e costituiscono lo spazio degli stati S R che può essere un insieme finito, infinito numerabile o infinito con cardinalità del continuo. L insieme T, detto spazio dei tempi, può essere un insieme infinito numerabile (processo a tempo discreto) oppure infinito con cardinalità del continuo (processo a tempo continuo). Ciò che ci interessa sono i processi nei quali lo spazio degli stati è finito, quello dei tempi è discreto con T = N e valgono le ipotesi di Markovianità ed omogeneità. Definizione 2. Un processo stocastico (X n : n N) a tempo discreto e con spazio degli stati finito si dice Markoviano se n N, j, i, i n 1,..., i 1, i 0 S vale che P (X n+1 = j X n = i, X n 1 = i n 1,..., X 1 = i 1, X 0 = i 0 ) = P (X n+1 = j X n = i). 3
4 Maurizio Cescon CAPITOLO 1. CATENE DI MARKOV Un tale processo si dice inoltre omogeneo se le probabilità di transizione sono stazionarie, cioè n N vale che P (X n+1 = j X n = i) = P (X 1 = j X 0 = i) = p ij. Quanto appena definito viene comunemente chiamato catena di Markov omogenea a stati finiti. D ora in avanti, senza ulteriori specificazioni, supporremo d essere sempre in queste ipotesi con S = N < N. Tali richieste sono fondamentali per assicurare alla catena d essere definita e descritta in modo univoco a partire dalla matrice delle probabilità di transizione e dalla distribuzione di probabilità iniziale: 1. P = ( p ij )i,j S con p ij R + e j S p ij = 1 i S, 2. π 0 (i) = P (X 0 = i) i S. Come ad esempio dimostrato in [1], questo è possibile poiché i due elementi specificano tutte le probabilità delle sezioni finito dimensionali del processo e quindi consentono il calcolo delle probabilità di qualsiasi evento descritto in termini di valori futuri e condizionato in termini di valori presenti-passati. Molto utile è l equazione di Chapman-Kolmogorov che collega le probabilità di transizione stazionarie a più passi p n ij = P (X n = j X 0 = i) con n 1 numero di passi: n, m 1 : p n+m ij = k S p n ik p m kj i, j S P n+m = P n P m. Sfruttando quest equazione, si può calcolare π n (i) cioè la probabilità di trovarsi in uno stato i al passo n 1 come π n (i) = k S π n 1 (k) p ki = k S π 0 (k) p n ki π n = π n 1 P = π 0 P n. Queste considerazioni permettono di associare a ciascuna catena di Markov: 1. un sistema di equazioni lineari { π0 noto π n+1 = π n P = π 0 P n+1 n N, (1.1) che descrive in termini probabilistici l evoluzione del processo; 2. un grafo G = (V, E), avente V = N nodi pari alla quantità di stati ed E = M archi congiungenti nodi aventi una probabilità strettamente positiva di passare da uno all altro in un passo. 4
5 Maurizio Cescon 1.1. DEFINIZIONE E CONCETTI BASILARI Figura 1.1: esempio di grafo. Ad esempio se N = 3 con 1/3 1/3 1/3 P = 1/2 1/2 0, π 0 = (1/3, 1/3, 1/3), 0 1/2 1/2 si può disegnare il grafo di figura 1.1 e dire che l evoluzione del sistema, cioè π n (i) i S, è regolata da (1.1). Rispetto alla caratterizzazione grafica, vale la seguente proprietà. Proposizione 1. Sia P la matrice delle probabilità di transizione di una catena di Markov. Esiste un cammino tra due stati i e j di lunghezza n se e solo se p n ij > 0. Dimostrazione. La dimostrazione può essere fatta per induzione sulla lunghezza del cammino. n = 1: il problema è banale. n = 2: dall equazione di Chapman-Kolmogorov p 2 ij = k S p ik p kj, quindi p 2 ij 0 se e solo se per almeno un k S ci sono p ik e p kj enrambi diversi da zero. Ma questo vale se e solo se esiste un cammino di lunghezza 2 da i a j. 5
6 Maurizio Cescon CAPITOLO 1. CATENE DI MARKOV n > 2: se supponiamo vera l affermazione per il caso n, allora p n+1 ij = k S p n ik p kj 0 se e solo se per almeno un k S ci sono p n ik e p kj enrambi diversi da zero. Per ipotesi induttiva questo è equivalente ad avere un cammino da i a k di lunghezza n e uno da k a j di lunghezza 1, cioè un cammino da i a j di lunghezza n
7 Capitolo 2 Teorema Ergodico Questo capitolo è finalizzato alla descrizione dell andamento di una catena di Markov a partire dal sistema (1.1). In particolare l interesse è legato al comportamento al limite della catena o equivalentemente a quello di π n per n tendente ad infinito. Questo è regolato dal noto teorema ergodico per catene di Markov omogenee e a stati finiti. Nella letteratura dei processi stocastici ci sono diverse tipologie dimostrative del teorema. Alcune si basano su concetti astratti di analisi matematica, altre si appoggiano alla teoria delle matrici. In questo lavoro abbiamo seguito la seconda strada, enunciando il teorema come sottocaso del teorema di Perron-Frobenius per matrici primitive. Volendo proporre un approccio operativo, abbiamo anche suggerito algoritmi atti a dimostrare le ipotesi del teorema. 2.1 Stati ergodici Definizione 3. Uno stato j si dice raggiungibile da un altro stato i (i j)se n 1 : p n ij > 0. Diciamo che due stati comunicano (brevemente i j) se i j e j i. In accordo con la proposizione 1, ciò equivale a dire che se p n ij > 0 per qualche n allora esiste un cammino di lunghezza n che collega gli stati i e j. E immediato verificare che la relazione comunicano è di equivalenza. Pertanto gli stati di una catena di Markov possono essere divisi in classi di equivalenza. Definizione 4. Una catena di Markov si dice irriducibile se tutti gli stati comunicano tra loro. La matrice delle probabilità di transizione P associata ad una catena di Markov irriducibile si dice irriducibile. 7
8 Maurizio Cescon CAPITOLO 2. TEOREMA ERGODICO Dal punto di vista operativo, questa definizione non fornisce un criterio implementabile computazionalmente capace di discernere tra catene irriducibili e non. Grazie alla matrice delle probabilità di trasizione, la definizione può essere così riformulata. Teorema 1. Una catena di Markov è irriducibile se e solo se (I +P) N 1 > 0. Dimostrazione. Poiché si considerano catene a stati finiti, se due stati comunicano esiste almeno un cammino di lunghezza inferiore a N 1 dal primo stato al secondo e viceversa. Allora (I + P) N 1 = I + (N 1)P + ( ) N 1 2 P ( N 1 N 2) P N 1 > 0 se e solo se per ogni coppia di stati i, j (i j) almeno una delle matrici P, P 2..., P N 1 ha un valore strettamente positivo in posizione (i, j). E questo per la proposizione 1 accade se e solo se c è un cammino da i a j per ogni coppia di stati di lunghezza inferiore a N 1. Tranne per casi in cui N risulti piccolo, un criterio per l irriducibilità che preveda la moltiplicazione di (I + P) per se stessa N 1 volte non è una strada percorribile (si pensi ad N di qualche milione). Questo controllo si può fare in modo più efficiente traslando il problema nella teoria dei grafi. A tale scopo si veda l appendice A, in cui è proposto l algoritmo di Kosaraju che risolve il problema in tempo O(N + M). Accanto alla definizione di irriducibilità, c è anche l importante concetto di periodicità. Definizione 5. Uno stato i S si dice periodico di periodo δ(i) 2, se δ(i) è il massimo comun divisore tra tutti gli n tali che p n ii > 0. Se δ(i) = 1 lo stato è detto aperiodico. Proposizione 2. Se i j allora δ(i) = δ(j). Dimostrazione. Sia i j. Allora i j se e solo se n, m 1 : p n ij > 0, p m ji > 0. Vale: p n+m jj = k S p m jk p n kj p m ji p n ij > 0 e questo implica che δ(i) è definito. Analogamente per δ(j). Per dimostrare l uguaglianza basta far vedere che δ(i) δ(j) e δ(j) δ(i). δ(i) δ(j): dimostriamo che δ(i) è un divisore di qualsiasi generico k tale che p k jj > 0. Dalle equazioni di Chapman-Kolmogorov p n+m+k ii p n+k ij p m ji p n ij p k jj p m ji > 0 δ(i) n + m + k, p n+m ii p n ij p m ji > 0 δ(i) n + m. Ma allora δ(i) k. δ(j) δ(i): in modo analogo. 8
9 Maurizio Cescon 2.2. MATRICI PRIMITIVE Come nel caso dell irriducibilità, anche la proprietà di aperiodicità è una proprietà di classe e permette di definire una tipologia molto importante di stati. Definizione 6. Gli stati di una catena di Markov a stati finiti che sia omogenea irriducibile e aperiodica si dicono ergodici. Il teorema ergodico, come già accennato, caratterizza il comportamento al limite di una catena di Markov i cui stati siano ergodici. E con ciò si intende che fornisce una probabilità di visita di ciascuno stato fissa ed indipendente dalle condizioni iniziali. Questa probabilità si definisce distribuzione limite. Definizione 7. Una distribuzione di probabilità π con π(j) 0 j S e j S π(j) = 1 si dice distribuzione limite per una catena di Markov omogenea se lim n pn ij = π(j), i S. Accanto alla definizione di distribuzione limite, ce n è una più debole e più facile da verificare. Definizione 8. Una distribuzione di probabilità π si dice distribuzione invariante per una catena di Markov omogenea se j S π(j) = i S π(i) p ij π = πp. Dal teorema 4 si deduce che ogni distribuzione limite per una catena di Markov è unica ed invariante. Il viceversa in generale non è vero, cioè esistono distribuzioni invarianti ed uniche per catene ( che non sono limite. Ad esempio si consideri la matrice stocastica 1 P = 0 1 ) 1 0. Essa ha due autovalori distinti λ 1 = 1, λ 2 = 1 con corrispondenti autovettori v 1 = (1/2, 1/2), v 2 = (1/2, 1/2). π = (1/2, 1/2) è una distribuzione invariante. Però non esistono distribuzioni limite perché lim n p n ij dipende dallo stato i. 2.2 Matrici primitive Nell introduzione abbiamo scritto che il teorema ergodico si può dedurre da quello di Perron-Frobenius per matrici primitive. Vediamo, quindi, come legare l ergodicità a tale ipotesi. 1 Matrice stocastica: una matrice delle probabilità di transizione di una catena di Markov. 9
10 Maurizio Cescon CAPITOLO 2. TEOREMA ERGODICO Definizione 9. Una matrice delle probabilità di transizione P si dice positiva se p ij > 0 i, j S. Altrimenti si dice non negativa. Definizione 10. Una matrice delle probabilità di transizione P non negativa si dice primitiva se è irriducibile ed ha solamente un autovalore di modulo massimo. Questo secondo tipo di matrici è lungi dall essere un tipo facilmente riconoscibile senza dei criteri adatti a stabilire quando questa ipotesi è verificata o meno. Come per altri casi il calcolo degli autovalori e la successiva verifica che ce n è uno massimale, non è una buona soluzione. Pertanto si ricorre a teoremi come il seguente. Teorema 2. Data una matrice delle probabilità di transizione P non negativa, vale che P è primitiva se e solo se P m > 0 per qualche m 1. Dimostrazione. Si può trovare la dimostrazione di questo fatto in [3]. Corollario 1. Ogni matrice positiva è primitiva. Proposizione 3. Se P 0 e P k > 0 allora P m > 0 per ogni m k. Dimostrazione. In generale vale P m = P m k P k. Poiché l insieme delle matrici stocastiche è un semigruppo P m k è ancora stocastica. Pertanto la somma dei suoi valori lungo ogni riga è pari a uno e questo implica che nessuna riga ha coefficienti tutti nulli. Ne segue che P m = P m k P k ha ogni componente maggiore di zero, visto che P k > 0. Va sottolineato che al di là della riformulazione della primitività col teorema 2, è utile determinare degli upper bound al valore m del teorema. Proposizione 4. Data una matrice delle probabilità di transizione P irriducibile, se le componenti sulla diagonale principale sono maggiori di zero allora P N 1 > 0. Dimostrazione. Siano γ = min{p 11,..., p NN } e B = P diag(p 11,..., p NN ). Allora B è non negativa, irriducibile (poiché P lo è) e vale P γi+b γ (I+ (1/γ)B). Per il teorema 1 segue che P N 1 γ N 1 (I + (1/γ)B) N 1 > 0. Teorema 3 (Wielandt). Data una matrice delle probabilità di transizione P non negativa, vale che P è primitiva se e solo se P N 2 2N+2 > 0. Dimostrazione. La dimostrazione originale si trova in [8] ed è piuttosto semplice richiedendo come prerequisiti il solo teorema di Cayley-Hamilton. Altrimenti si può guardare [3], in cui il tutto è contestualizzato nella teoria dei grafi. 10
11 Maurizio Cescon 2.3. TEOREMA DI PERRON-FROBENIUS Gli ultimi due teoremi sono potenti strumenti per affermare qualcosa di più sulle matrici primitive. In particolare quello di Wielandt (che considera il caso generale) produce un upper bound che per matrici irriducibili con tutti elementi nulli sulla diagonale, è il migliore possibile. La seguente matrice P = /2 1/ lo dimostra. Come per il caso dell irriducibilità, è auspicabile verificare questa proprietà senza ricorrere a N 2 2N + 2 moltiplicazioni di P per se stessa (si pensi sempre a N di qualche milione). A tale scopo è utile la seguente equivalenza che trasla il problema nella teoria dei grafi. Corollario 2. Data una matrice delle probabilità di transizione P, vale che P è primitiva se e solo se gli stati della catena sono ergodici. Dimostrazione. Se P è primitiva allora esiste k tale che P k > 0 k m. Ne segue P k, P k+1 > 0 da cui il loro massimo comune divisore è 1. Concludiamo δ(i) = 1 i S e la catena è ergodica. Se gli stati sono ergodici allora per ogni coppia di stati (i, j) (comprese le coppie (i, i)) esiste un indice n ij tale che p n ij ij > 0. Se n è il prodotto di tutti questi indici allora P n > 0. Quanto dimostrato evidenzia la stretta connessione tra l ergodicità di una catena di Markov e la primitività di P. A partire da questo corollario, un modo molto comune per verificare l ergodicità consiste nel ricorrere all algoritmo descritto nell appendice B. Tale algoritmo determina la periodicità di una catena di Markov irriducibile usando il grafo della catena ed operando in tempo O(N + M). 2.3 Teorema di Perron-Frobenius Teorema 4 (Perron-Frobenius). Sia A = (a ij ) una matrice N N reale. Se A è primitiva allora valgono: 1. ρ(a) > 0 2 ; 2. ρ(a) è un autovalore di A; 2 ρ(a) = max{ λ : λ σ(a)}. 11
12 Maurizio Cescon CAPITOLO 2. TEOREMA ERGODICO 3. ci sono v vettore riga, w vettore colonna in R N con v i, w i > 0 e tali che va = ρ(a)v, Aw = ρ(a)w; 4. ρ(a) è un autovalore semplice di A. In particolare gli autospazi destro e sinistro 3 associati a ρ(a) hanno dimensione uno; 5. λ < ρ(a) per ogni autovalore λ ρ(a) di A; 6. vale il seguente limite: lim n (A/ρ(A)) n = w v/v w; 7. vale la seguente stima: min N j=1 a ij ρ(a) max N j=1 a ij; 8. esistono unici due vettori v e w che soddisfano i punti sopra e tali che N i=1 v i = N i=1 w i = 1; Dimostrazione. Per la dimostrazione si può consultare [3]. Supponendo A P si può applicare questo teorema per dimostrare l esistenza della distribuzione limite per tutte le catene di Markov descritte da una P primitiva. Si ottiene: 1. ρ(a) = 1 è un autovalore semplice di P e tutti gli altri autovalori λ soddisfano λ < 1; 2. esistono e sono uniche due distribuzioni di probabilità π ed e tali che π = πp, e = Pe. L autovettore destro ha componenti e i = 1/N; 3. il limite lim n P n =: P è ben definito 4 e vale P = lim P n = e π π(1)... π(n) n 1/N = π(1)... π(n) Pertanto lim n p n ij = π(j) i S e P è una matrice stocastica positiva di rango uno. Dai punti del teorema si evince che P n è ben definita per ogni n e ammette come limite una matrice stocastica. Di fatto il sistema { π0 noto n+1 (n ) π n+1 = π n P = π 0 P π 0 P = π, ha un unico punto di equilibrio stabile che viene raggiunto indipendentemente dai valori iniziali. Questo prova il teorema seguente. 3 autospazi destro e sinistro: gli autovalori di una matrice e della sua trasposta coincidono. 4 definito: l insieme delle matrici stocastiche è un semigruppo quindi la moltiplicazione di due matrici stocastiche è ancora una matrice stocastica. 12
13 Maurizio Cescon 2.3. TEOREMA DI PERRON-FROBENIUS Teorema 5 (Ergodico). Data una catena di Markov omogenea, a stati finiti ed ergodici esiste un unica distribuzione di probabilità π tale che πp = π e lim n p n ij = π(j), i S. Se, per esempio, si riconsidera il caso con P = ( ) esso non ha una distribuzione limite poiché ammette due autovalori massimali (anche se il vettore (1/2, 1/2) è un punto di equilibrio stabile per il sistema). Sempre questo caso, costituisce un contro esempio all impossibilità d avere distribuzioni limite con la sola richiesta per P dell irriducibilità. 13
14 Capitolo 3 L algoritmo del PageRank Il capito illustra l applicazione dei concetti trattati al caso del PageRank. Il PageRank è un algoritmo che fa uso delle catene di Markov per ordinare le pagine web ed è alla base del funzionamento di Google. Data la natura commerciale di quest ultimo, quanto riportato potrebbe differire dall effettiva implementazione dell algoritmo. Ad ogni modo le idee basilari nonché i risultati teorici rimangono validi. Accanto alla teoria abbiamo riportato il power method (necessario per calcolare i ranking) e un po di analisi dell algoritmo. 3.1 Pagine web e catene di Markov Fin dalla nascita del mondo virtuale, si è sentita l esigenza di mezzi che favorissero ricerche rapide ed efficaci. Di strumenti capaci di filtrare ed ordinare le pagine web rispetto alle query degli utenti. I motori di ricerca sono nati per rispondere a queste necessità. Nel corso degli anni ne sono stati lanciati parecchi, a volte riscuotendo successo a volte mancando le richieste del mercato. Uno dei più diffusi è senza dubbio Google, il cui successo è stato decretato dalle ottime capacità d ordinamento. Il suo funzionamento, essendo un prodotto commerciale, non è di dominio pubblico. Ad ogni modo si sa che è basato sull analisi di tutte le pagine web mediante i cosiddetti Googlebot al fine di ricavare informazioni su quest ultime e classificarle. L analisi avviene ad intervalli prestabiliti in modo da tenere conto dell evoluzione del web. La classificazione è invece una miscela di molteplici elementi di cui l algoritmo del PageRank (proposto da Larry Page e Sergey Brin in [10]) ne costituisce l ossatura. Cerchiamo di fare chiarezza. In modo semplicistico, si può dire che una ricerca conta di due azioni: l estrazione di tutte le pagine relative ad una specifica query e l ordinamento per importanza di quest ultime. Il Pagerank contribuisce pesantemente alla seconda. Diciamo contribuisce e 14
15 Maurizio Cescon 3.1. PAGINE WEB E CATENE DI MARKOV non determina poiché ci sono tanti fattori che influenzano l ordine. A titolo informativo si può dare un occhiata alla Guida introduttiva di Google all ottimizzazione per motori di ricerca (SEO). Ad ogni modo i risultati di questo algoritmo, che nel seguito chiameremo ranking 1 delle pagine web, sono fondamentali. Il PageRank sfrutta la teoria delle catene di Markov e pertanto fa uso di una matrice stocastica P di dimensione N N (dove N è il numero totale di pagine web) detta hyperlink matrix e così composta: { 1/k se c è un collegamento dalla pagina i alla pagina j p ij = 0 altrimenti, con k numero totale di link uscenti dalla pagina i. In questa modellazione dove P assume il ruolo di matrice delle probabilità di transizione, la navigazione di un utente diventa un cammino casuale avente le pagine web come stati. Assumendo, almeno inizialmente, che P sia primitiva deve esistere una distribuzione limite con componenti strettamente positive. Secondo quanto dimostrato, i coefficienti (π(1),..., π(n)) rappresentano le porzioni di tempo a regime che un cammino casuale spende nello stato j. Chiaramente più il valore π(i) è alto, più la pagina i è importante. Quello che fa l algoritmo del PageRank è di assegnare un coefficiente ad ogni pagina web i proporzionale alla probabilità π(i). Può essere utile alla comprensione un esempio pratico. Consideriamo tre pagine web 1, 2, 3 così collegate: 1 1, 1 2, , 2 2, 3 2, 3 3. Allora la matrice delle probabilità di transizione risulta: 1/3 1/3 1/3 P = 1/2 1/ /2 1/2 La distribuzione limite è data dall equazione π = πp con vincolo π(1)+π(2)+ π(3) = 1 da cui si ottiene: π = (3/9, 4/9, 2/9). Il ranking massimo è dato dalla pagina 2, la quale ha un collegamento entrante sia da 1 che 3. La pagina 1 è più importante della 3 poiché ha un 1 Usualmente quando si parla di ranking si fa riferimento all ordinamento delle pagine rispetto a tutti i fattori, non solo ai risultati del PageRank. 15
16 Maurizio Cescon CAPITOLO 3. L ALGORITMO DEL PAGERANK collegamento entrante dalla pagina con ranking più alto. In sostanza, l idea è che i link da siti importanti (dove per sito importante si intende uno linkato da molti altri) siano più influenti di quelli da siti meno noti e che ogni pagina ripartisca equamente il proprio peso tra il numero dei suoi link uscenti. 3.2 La matrice del PageRank Ovviamante nella precedente sezione, il ragionamento era soggetto all ipotesi di P primitiva. Ma non c era nessuna conseguenza implicita che la forzasse ad esserlo quindi in generale bisogna imporlo. A tal scopo, il PageRank lavora su una matrice leggermente modificata e primitiva 2 : p p 1N A = α..... p N1... p NN + 1 α N , (3.1) con 0 < α < 1, detto valore di modifica. Un tipico valore per α è 0.85; la sua proposta è dovuta ai costruttori di Google e deriva da alcuni studi di cui approfondiremo qualcosina nelle sezioni successive. Va precisato che quello esposto sopra non è l unico modo per rendere una matrice primitiva. Ci sono parecchie strategie per farlo, ma i costruttori di Google hanno adottato questa. Essendo A primitiva l ipotesi di esistenza ed unicità della distribuzione limite è garantita. Il significato di (3.1) può essere parafrasato come: c è una probabilità fissa (1 α)/n di passare da una pagina web i ad un altra j, a cui si somma una probabilità, (proporzionale ad α) di fare questo passaggio. La prima serve per rendere la matrice primitiva, la seconda (che può essere nulla in assenza di collegamenti) tiene conto degli effettivi collegamenti esistenti. Il ranking di ciascuna pagina va dunque calcolato mediante l equazione: π(1) p p N1 π(1). = α α N 1. (3.2) π(n) p 1N... p NN π(n) 1 N π(i) = 1 i=1 Siccome la sostanza del PageRank si riduce a risolvere il problema (3.2) o equivalentemente un sistema lineare omogeneo π(i A) = 0, il tutto sembrerebbe piuttosto facile. Se lo è dal punto di vista teorico, non lo è sicuramente 2 primitiva: di fatto A è positiva. 16
17 Maurizio Cescon 3.3. POWER METHOD computazionalmente parlando vista l enorme dimensione di P. Questa peculiarità limita addirittura la scelta degli algoritmi, tant è che spesso si definisce (3.2) the world s largest matrix computation. Metodi diretti (perfino quelli messi a punto per matrici sparse) non riescono a sopperire a questo problema. Ad oggi il cosiddetto Power Method o sue modifiche sembrano le uniche soluzioni percorribili con tempi computazionali di qualche giorno e capaci di fronteggiare la rapidità di crescita del web. In [13] e [14] sono proposte varianti risolutive, come il metodo di Gauss Seidel oppure migliorie al Power Method consistenti in un estrapolazione quadratica, in metodi adattivi (per controllare la convergenza delle singole componenti) e in partizioni di P usando aggregazioni esatte. Questi raffinamenti hanno anche il pregio di non competere tra loro, ma di combinarsi migliorando il risultato finale. Ma non ci sono metodi sostanzialmente diversi. Vediamo quindi più da vicino come è formalizzato il Power Method nella sua versione base. 3.3 Power Method Il Power Method è un algoritmo per trovare autovalori piuttosto semplice nel funzionamento perché non esegue nessuna decomposizione della matrice. Quindi può essere usato quando quest ultima è molto grande e sparsa. Di contro trova solo un autovalore e un corrispondente autovettore di modulo massimo. In particolare esso parte con un vettore b 0 (che potrebbe essere una approssimazione dell autovettore dominante o un valore random) e usa ricorsivamente la seguente formula: Vale il seguente teorema. b k+1 = Ab k Ab k. Teorema 6. Data una matrice A quadrata N N che abbia un autovalore dominante 3 e dato un vettore di partenza b 0 con componenti non nulle lungo la direzione dell autovettore dominante, esiste una sottosuccessione di b k convergente a questo autovettore. Dimostrazione. Se A è diagonalizzabile siano λ 1,..., λ N gli N autovalori (con eventuali molteplicità) tali che λ 1 > λ 2 λ N e v 1,..., v N i corrispondenti autovettori. Dalle ipotesi, b 0 può essere scritto come b 0 = 3 dominante: in modulo strettamente maggiore di tutti gli altri. 17
18 Maurizio Cescon CAPITOLO 3. L ALGORITMO DEL PAGERANK c 1 v 1 + +c n v N con c 1 0 perché ha componenti non nulle lungo v 1. Allora: b k = Ab k 1 Ab k 1 = Ak b 0 A k b 0 = = c 1λ k 1v 1 + c 2 λ k 2v 2 + c N λ k N v N c 1 λ k 1v 1 + c 2 λ k 2v 2 + c N λ k N v N = ( λ1 ) k c 1 = λ 1 c 1 Per l espressione sopra vale che j > 1: c 1A k v 1 + c 2 A k v 2 + c N A k v N c 1 A k v 1 + c 2 A k v 2 + c N A k v N = ( v1 + c 2 c 1 ( λ2 λ 1 ) kv c N c1 ( λn λ1 ) kvn v 1 + c 2 c 1 ( λ2 λ 1 ) kv c N c1 ( λn λ1 ) kvn c j c 1 (λ j λ 1 ) kvj (k ) 0, poiché λ j / λ 1 < 1. Se A non è diagonalizzabile si considera la sua forma canonica di Jordan A := V JV 1, dove nella prima colonna di V c è l autovettore v 1 corrispondente all autovalore dominante λ 1. Dall unicità dell autovalore dominante, ne deriva che il primo blocco di Jordan è composto dal valore λ 1. Poiché il vettore b 0 può essere scritto come combinazione lineare delle colonne di V b 0 = c 1 v c N v N con c 1 0, si ha: b k = Ab k 1 Ab k 1 = (V JV 1 ) k b 0 V JV 1 ) k b 0 = (V J k V 1 )b 0 (V J k V 1 )b 0 = = V J k V 1 (c 1 v 1 + c 2 v 2 + c N v N ) V J k V 1 (c 1 v 1 + c 2 v 2 + c N v N ) = = V J k (c 1 e 1 + c 2 e 2 + c N e N ) V J k (c 1 e 1 + e 2 v 2 + e N v N ) = ( ) ( λ1 ) k c 1 v1 + 1 c = 1 V ( 1 λ 1 J) k (c 2 e c N e N ) λ 1 c 1 v c 1 V ( 1. λ 1 J) k (c 2 e c N e N ) ). Per l espressione sopra vale che (con M blocchi di Jordan): 1 1 ( 1 J) k ( 1 λ = 1 J 2 ) k (k ) 0 λ 1... ( 1 λ 1 J M ) k... 0 poiché l autovalore di ( 1 λ 1 J j ) k è in modulo più piccolo di 1 j > 1. Ne segue: 1 V ( 1 ) k(c2 J j e 2 + c N e N ) (k ) 0. c 1 λ 1 18
19 Maurizio Cescon 3.4. UN PO DI ANALISI DEL PAGERANK Sai per il caso di A diagonalizzabile che per quello non diagonalizzabile, si perviene all approsimazione v 1 b k = e ıφk c 1 c 1 v 1 + r k, dove e ıφ = λ 1 / λ 1 e r k 0 quando k. La successione b k è limitata e quindi contiene una sottosuccessione convergente. Per via della presenza del termine e ıφk, non si può concludere che b k converga all autovettore voluto (si pensi al caso complesso). Nel caso di matrici stocastiche, l autovalore dominante è 1 perciò b k converge a v 1 / v 1. Per quanto riguarda la velocità di convergenza, essa è geometrica e dipendente dal rapporto λ 2 / λ 1 ; risulta quindi lenta se il primo e secondo autovalore sono molto vicini in modulo. Dal punto di vista computazionale, il carico maggiore risiede nelle moltiplicazioni matrice-vettore. Per una trattazione più approfondita degli aspetti di questo metodo, si può ad esempio consultare [13]. Esso analizza i suoi punti di forza (di carattere sopratutto numerico) consistenti nella limitata quantità di memoria (solo un vettore), nell eseguire operazioni con matrici sparse, nell accuratezza (niente sottrazioni) e nella semplicità. Si sofferma anche sui suoi difetti coincidenti praticamente con la bassa velocità di convergenza. 3.4 Un po di analisi del PageRank E parecchio difficile fare un analisi del PageRank che tenga conto di tutte le caratteristiche del problema e di quelle legate alla sua implementazione attraverso il Power Method. I motivi sono la grossa quantità di aspetti da considerare e la dimensione commerciale di Google (per cui i risultati non sono tutti pubblici). Il taglio di questa sezione sarà, quindi, più di una chiacchierata che un esposizione a tutto tondo. Rimandiamo ad esempio a [13] o [14] per maggiori dettagli su ciò che è riportato. L articolo [11], propone dei teoremi aventi grosse conseguenze sulla velocità di convergenza: Teorema 7. Sia P una matrice stocastica N N e sia α un numero reale tale che: 0 α 1. Sia E = ev T la matrice N N di rango unitario, dove e è il vettore con tutte le componenti uguali a uno e v è un vettore che rappresenta una distribuzione di probabilità. Allora definita A = ( αp + (1 α)e ) T, si ha che λ 2 α. Dimostrazione. Vedi [11]. 19
20 Maurizio Cescon CAPITOLO 3. L ALGORITMO DEL PAGERANK Teorema 8. Se P ha almeno due sottoinsiemi irriducibili e chiusi di stati 4, allora il secondo autovalore di A è dato da λ 2 = α. Dimostrazione. Se α = 0 allora A = E T. Poiché E ha rango 1 segue λ 2 = 0. Sia quindi 0 < α 1. Come prima cosa si ha che ogni autovettore y di P T che sia ortogonale ad e, è un autovettore di A. Infatti per definizione vale P T y = γ y, da cui: A y = α P T y + (1 α)e T y = α P T y + (1 α)ve T y = α P T y = αγ y, con λ = αγ. Lo scopo è costruire un vettore soddisfacente alle precedenti richieste. Come riportato ad esempio in [1], la molteplicità geometrica dell autovalore 1 di una catena di Markov a stati finiti (cioè il numero di distribuzioni invarianti) è pari al numero di classi di stati chiuse ed irriducibili. Quindi, nelle ipotesi del teorema, P ha almeno due autovettori linearmente indipendenti y 1, y 2 corrispondenti all autovalore 1. Siano c 1 = y T e, c 2 = y T e. Se c 1 = 0 allora y = y 1, se c 2 = 0 allora y = y 2 altrimenti y = y 1 /c 1 y 2 /c 2. In ogni caso esiste un autovettore y per P T corrispondente all autovalore 1 e tale che y T e = 0. Pertanto y è un autovettore di A con corrispondente autovalore α cioè A ha un autovettore con autovalore λ = α λ 2. Per il teorema 7 si ottiene l uguaglianza λ 2 = α. Apparentemente sembrerebbe che i due teoremi considerino una matrice diversa rispetto a quella vista precedentemente. Di fatto è solo una sua generalizzazione. Il vettore v del PageRank non è quello con valori 1/N (con N numero totale di pagine) ma quello sopra con v > 0 distribuzione di probabilità. I motivi sono più che altro di natura algoritmica e commerciale: così si permette ad uno stato d avere una ranking alto a prescindere dai suoi collegamenti. Le conseguenze più forti sono nel secondo teorema: esso fornisce una valore esatto per il modulo del secondo autovalore di A. E, però, applicabile a patto di aggiungere ipotesi alla matrice P; sperimentalmente si è visto che P realizza sempre la richiesta d avere due sottoinsiemi irriducibili, fatto poi non così sorprendente vista la grandezza della rete. La velocità di convergenza del Power Method diventa quindi λ 2 /λ 1 = α da cui la formula per l errore è data da (dimostrata in [15]): π k π 1 α k π 0 π 1. Il tutto è perciò condizionato dal solo α. Va da sé che la sua scelta è estremamente delicata: più il suo valore è vicino a zero più alta è la velocità di 4 stati: cioè due classi di equivalenza rispetto alla relazione comunicano. 20
21 Maurizio Cescon 3.4. UN PO DI ANALISI DEL PAGERANK convergenza; ma più è basso, più alta è la distorsione del Web, dato che la matrice A dipende meno da P. Inoltre per α 1 subentrano anche problemi con la sensibilità. Nella direzione di questo ultimo aspetto, c è anche l articolo [12]. Esso tratta della stabilità-sensibilità dell algoritmo proponendo il seguente teorema: Teorema 9. Sia P una matrice stocastica N N i cui elementi diagonali sono nulli (p ii = 0 i) e sia α un numero reale tale che: 0 α < 1. Sia E = ev T la matrice N N di rango unitario, dove e è il vettore con tutte le componenti uguali a 1 e v è un vettore che rappresenta una distribuzione di probabilità. Allora definita A = ( αp + (1 α)e ) T, il problema Ax = x ha numero di condizionamento pari a (1 + α)/(1 α). Dimostrazione. Vedi [12]. Per capire il risultato basta pensare di perturbare leggermente la matrice A, il che potrebbe rappresentare un cambiamento dei link nel web (aggiunta o rimozione di collegamenti) o una modifica di α. Siano dunque Ā = A + ɛb (con ɛb matrice dell errore), x e x vettori delle distribuzioni stazionarie corrispondenti rispettivamente ad A e Ā. Ricordando che per sistemi di equazioni lineari vale che: x x 1 kɛ B, (con k numero di condizionamento del problema), l articolo [12] approda alla seguente formula: x x α 1 α ɛ B. Parafrasando il risultato, abbiamo che per valori di α prossimi a 1, il Page- Rank non è stabile ed un piccolo cambiamento nella struttura di A potrebbe causare un grosso cambiamento nei valori di x. Nuovamente si giunge alla conclusione che la scelta di α deve essere ragionata affinché l algoritmo sia stabile. Un altro aspetto degno di nota del PageRank è quello dell aggiornamento. Siccome il calcolo di π è oneroso, il team di Google effettua il suo aggiornamento ogni due settimane circa. Inoltre la quasi inutilità delle precedenti computazioni 5 (cioè il precedente ranking non è utile come punto di partenza per una nuova computazione), ne impone ogni volta una più o meno da zero. Anche se esistono tecniche capaci di usare il vecchio ranking e i cambiamenti 5 inutilità delle precedenti computazioni: si fa riferimento agli algoritmi standard per aggiornare catene di Markov. 21
22 Maurizio Cescon CAPITOLO 3. L ALGORITMO DEL PAGERANK strutturali per aggiornare π (senza eseguire una nuova computazione), questi metodi funzionano se gli aggiornamenti sono i link, non i nodi. L aggiunta di nodi allarga π complicando il problema. Ad oggi questo ambito è ancora in pieno sviluppo. Le tecniche di aggregazione o l accelerazione adattiva del Power Method sono i risultati più promettenti. 22
23 Appendice A Algoritmo di Kosaraju Grazie alla proposizione 1, una catena di Markov descritta da una matrice P è irriducibile se e solo se per ogni coppia di stati esiste un cammino di lunghezza finita che li congiunge. Questo è equivalente a richiedere che il grafo relativo alla catena abbia un unica componente fortemente connessa. Pertanto un algoritmo capace di risolvere efficientemente il problema di determinare le componenti fortemente connesse di un grafo, è un algoritmo capace di asserire l irriducibilità di P. In letteratura ci sono almeno tre algoritmi notevoli per questo problema: l algoritmo di Kosaraju, quello di Tarjan e quello di Gabow. Le differenze sono per lo più di natura computazionale. Kosaraju propose per primo il suo algoritmo che usa pesantemente il teorema seguente. Teorema 10. Le componenti fortemente connesse di un grafo G sono le stesse del grafo G ottenuto invertendo 1 la direzione di tutti gli archi di G. Lo pseudo codice dell algoritmo è il seguente. Sia G il grafo diretto e U uno stack vuoto. While(U non contiene tutti i nodi){ Scegli un nodo arbitrario v non in U. Esegui una depth-first search partendo da v. Ogni volta che la depth-first search finisce in un nodo w non espandibile, inserisci w in U.} Rovescia le direzioni di tutti gli archi di G. While(U è non vuoto){ Togli il primo nodo v da U. Esegui una depth-first search partendo da v. L insieme dei nodi visitati darà la componente 1 invertendo: essenzialmente considerando la trasposta della matrice descrivente il grafo. 23
24 Maurizio Cescon APPENDICE A. ALGORITMO DI KOSARAJU fortemente connessa a cui appartiene v. Memorizzala e rimuovi tutti i nodi della componente da U.} Rimandiamo ad esempio a [7] per la correttezza dell algoritmo, per esempi chiarificatori e per considerazioni sulla complessità pari a O(N + M), con N numero di nodi e M numero di archi di G. 24
25 Appendice B Algoritmo per la periodicità L algoritmo per determinare la periodicità di una catena, prevede di considerarne una irriducibile. Sotto questa ipotesi, vale il teorema seguente. Teorema 11. Una catena di Markov irriducibile con grafo G = (V, E) ha periodo d 1 se e solo se l insieme dei nodi V può essere partizionato in d classi C 0, C 1,..., C d 1 tali che: se i C k e (i, j) E allora j C (k+1) mod d e d è il più grande intero con questa proprietà. Quindi il periodo di una catena determina una partizione dei nodi in d classi attraverso le quali la catena transita in ordine fisso e ciclico. Inoltre valgono due fatti importanti: il periodo d divide la lunghezza di ciascun ciclo nel grafo; il periodo d divide la differenza tra le lunghezze di due diversi cammini tra una medesima coppia di nodi. L algoritmo per risolvere il problema della periodicità, prevede la costruzione di un albero di supporto T per G partendo da un generico nodo v ed eseguendo una breadth-first search (il grafo è fortemente connesso). Ad ogni nodo viene poi assegnata una etichetta in accordo con: level(v) = 0, e = (i, j) T level(j) = level(i) + 1. In base a ciò, si può definire un valore per ogni arco e = (i, j) E come val(e) = level(i) level(j) + 1 e quanto detto sopra impone a d di dividere quest ultimo valore e E. Quindi d deve dividere il massimo comun divisore dei {val(e) > 0 : e / T }. La dimostrazione della correttezza dell algoritmo (che si può trovare in [9] oppure in [4]) stabilisce l uguaglianza tra questi ultimi valori. Lo pseudo codice dell algoritmo consiste in: Sia G=(V,E) il grafo della catena, v un nodo generico di V. 25
26 Maurizio CesconAPPENDICE B. ALGORITMO PER LA PERIODICITÀ Costruisci un albero di supporto T per G eseguendo una breadth-first search partendo da v. Etichettta ciascun nodo in accordo con: level(v)=0, per ogni e=(i,j) di T level(j)=level(i)+1. d=massimocomundivisore {val(e)>0: con e non in T}. Sempre in [9] oppure in [4], si può trovare la dimostrazione della complessità di questo algoritmo pari a O(N + M), con N numero di nodi e M numero di archi di G. 26
27 Bibliografia [1] A. N. Shiryaev, Probability. Springer, (1996). [2] Wai-Ki Ching, Michaele K. Ng, Markov Chains, Model Algorithms and Applications. Springer, (2006). [3] R. Horn, C. R. Johson, Matrix Analysis. Cambridge University Press, (1990). [4] E. Denardo, Periods of Connected Networks and Powers of Nonnegative Matrices. Math. Oper. Res. (1977). [5] Perron-Frobenius theorem, Wikipedia. wiki/oskar_perron. [6] Power Method, Wikipedia. method. [7] Kosaraju s algorithm, Wikipedia. Kosaraju_algorithm. [8] H. Schneider, Wielandt s proof of the Exponent Inequality for Primitive Nonnegative Matrices. wielproof2.pdf. [9] J. Jarvis, D. Shier, Graph-Theoretic of Finite Markov Chains. http: // [10] L. Page, S. Brin, The Anatomy of a large-scale Hypertextual Web Search Engine. [11] S. D. Kamvar, T. H. Haveliwala, The second Eingenvalue of the Google Matrix. [12] S. D. Kamvar, T. H. Haveliwala, The Condition Number of the PageRank Problem. 27
28 Maurizio Cescon BIBLIOGRAFIA [13] I. Ipsen, Analysis and Computation of Google s Pagerank. ncsu.edu/~ipsen/ps/slides_pisa.pdf [14] A. Langville, C. Meyer, A Survey of Eingvector Methods for Web Information. surveyevwebirreprint.pdf [15] Bianchini, Gori, Scarselli, PageRank and Web Communities. nautilus.dii.unisi.it/pubblicazioni/files/journal/googleacmtran.ps.gz. 28
Le catene di Markov come metodologia utilizzata dai motori di ricerca per classificare le pagine web su internet.
Università degli Studi di Palermo Facoltà di Economia Dipartimento di Scienze Statistiche e Matematiche S. Vianelli Dottorato di Ricerca in Statistica e Finanza Quantitativa - XXI Ciclo Sergio Salvino
DettagliLEZIONE 23. Esempio 23.1.3. Si consideri la matrice (si veda l Esempio 22.2.5) A = 1 2 2 3 3 0
LEZIONE 23 231 Diagonalizzazione di matrici Abbiamo visto nella precedente lezione che, in generale, non è immediato che, data una matrice A k n,n con k = R, C, esista sempre una base costituita da suoi
DettagliMetodi Computazionali
Metodi Computazionali Elisabetta Fersini fersini@disco.unimib.it A.A. 2009/2010 Catene di Markov Applicazioni: Fisica dinamica dei sistemi Web simulazione del comportamento utente Biologia evoluzione delle
DettagliLuigi Piroddi piroddi@elet.polimi.it
Automazione industriale dispense del corso 10. Reti di Petri: analisi strutturale Luigi Piroddi piroddi@elet.polimi.it Analisi strutturale Un alternativa all analisi esaustiva basata sul grafo di raggiungibilità,
DettagliDimensione di uno Spazio vettoriale
Capitolo 4 Dimensione di uno Spazio vettoriale 4.1 Introduzione Dedichiamo questo capitolo ad un concetto fondamentale in algebra lineare: la dimensione di uno spazio vettoriale. Daremo una definizione
Dettagliu 1 u k che rappresenta formalmente la somma degli infiniti numeri (14.1), ordinati al crescere del loro indice. I numeri u k
Capitolo 4 Serie numeriche 4. Serie convergenti, divergenti, indeterminate Data una successione di numeri reali si chiama serie ad essa relativa il simbolo u +... + u +... u, u 2,..., u,..., (4.) oppure
DettagliMatematica generale CTF
Successioni numeriche 19 agosto 2015 Definizione di successione Monotonìa e limitatezza Forme indeterminate Successioni infinitesime Comportamento asintotico Criterio del rapporto per le successioni Definizione
Dettagli1 Serie di Taylor di una funzione
Analisi Matematica 2 CORSO DI STUDI IN SMID CORSO DI ANALISI MATEMATICA 2 CAPITOLO 7 SERIE E POLINOMI DI TAYLOR Serie di Taylor di una funzione. Definizione di serie di Taylor Sia f(x) una funzione definita
DettagliLE SUCCESSIONI 1. COS E UNA SUCCESSIONE
LE SUCCESSIONI 1. COS E UNA SUCCESSIONE La sequenza costituisce un esempio di SUCCESSIONE. Ecco un altro esempio di successione: Una successione è dunque una sequenza infinita di numeri reali (ma potrebbe
Dettagli1 Applicazioni Lineari tra Spazi Vettoriali
1 Applicazioni Lineari tra Spazi Vettoriali Definizione 1 (Applicazioni lineari) Si chiama applicazione lineare una applicazione tra uno spazio vettoriale ed uno spazio vettoriale sul campo tale che "!$%!
DettagliMATEMATICA DEL DISCRETO elementi di teoria dei grafi. anno acc. 2009/2010
elementi di teoria dei grafi anno acc. 2009/2010 Grafi semplici Un grafo semplice G è una coppia ordinata (V(G), L(G)), ove V(G) è un insieme finito e non vuoto di elementi detti vertici o nodi di G, mentre
Dettagli2.1 Definizione di applicazione lineare. Siano V e W due spazi vettoriali su R. Un applicazione
Capitolo 2 MATRICI Fra tutte le applicazioni su uno spazio vettoriale interessa esaminare quelle che mantengono la struttura di spazio vettoriale e che, per questo, vengono dette lineari La loro importanza
DettagliAutovalori e Autovettori
Daniela Lera Università degli Studi di Cagliari Dipartimento di Matematica e Informatica A.A. 2008-2009 Autovalori e Autovettori Definizione Siano A C nxn, λ C, e x C n, x 0, tali che Ax = λx. (1) Allora
DettagliOttimizzazione Multi Obiettivo
Ottimizzazione Multi Obiettivo 1 Ottimizzazione Multi Obiettivo I problemi affrontati fino ad ora erano caratterizzati da una unica (e ben definita) funzione obiettivo. I problemi di ottimizzazione reali
Dettagli1. PRIME PROPRIETÀ 2
RELAZIONI 1. Prime proprietà Il significato comune del concetto di relazione è facilmente intuibile: due elementi sono in relazione se c è un legame tra loro descritto da una certa proprietà; ad esempio,
Dettaglix 1 + x 2 3x 4 = 0 x1 + x 2 + x 3 = 0 x 1 + x 2 3x 4 = 0.
Problema. Sia W il sottospazio dello spazio vettoriale R 4 dato da tutte le soluzioni dell equazione x + x 2 + x = 0. (a. Sia U R 4 il sottospazio dato da tutte le soluzioni dell equazione Si determini
DettagliParte 2. Determinante e matrice inversa
Parte. Determinante e matrice inversa A. Savo Appunti del Corso di Geometria 013-14 Indice delle sezioni 1 Determinante di una matrice, 1 Teorema di Cramer (caso particolare), 3 3 Determinante di una matrice
DettagliParte 3. Rango e teorema di Rouché-Capelli
Parte 3. Rango e teorema di Rouché-Capelli A. Savo Appunti del Corso di Geometria 203-4 Indice delle sezioni Rango di una matrice, 2 Teorema degli orlati, 3 3 Calcolo con l algoritmo di Gauss, 6 4 Matrici
DettagliMetodi basati sugli autovettori per il Web Information Retrieval
Metodi basati sugli autovettori per il Web Information Retrieval HITS, PageRank e il metodo delle potenze LSI e SVD LSI è diventato famoso per la sua abilità nel permettere di manipolare i termini (all
DettagliCorso di Matematica per la Chimica
Dott.ssa Maria Carmela De Bonis a.a. 203-4 I sistemi lineari Generalità sui sistemi lineari Molti problemi dell ingegneria, della fisica, della chimica, dell informatica e dell economia, si modellizzano
DettagliOttimizazione vincolata
Ottimizazione vincolata Ricordiamo alcuni risultati provati nella scheda sulla Teoria di Dini per una funzione F : R N+M R M di classe C 1 con (x 0, y 0 ) F 1 (a), a = (a 1,, a M ), punto in cui vale l
DettagliSlide Cerbara parte1 5. Le distribuzioni teoriche
Slide Cerbara parte1 5 Le distribuzioni teoriche I fenomeni biologici, demografici, sociali ed economici, che sono il principale oggetto della statistica, non sono retti da leggi matematiche. Però dalle
DettagliDiagonalizzazione di matrici e applicazioni lineari
CAPITOLO 9 Diagonalizzazione di matrici e applicazioni lineari Esercizio 9.1. Verificare che v = (1, 0, 0, 1) è autovettore dell applicazione lineare T così definita T(x 1,x 2,x 3,x 4 ) = (2x 1 2x 3, x
DettagliLezione 9: Cambio di base
Lezione 9: Cambio di base In questa lezione vogliamo affrontare uno degli argomenti piu ostici per lo studente e cioè il cambio di base all interno di uno spazio vettoriale, inoltre cercheremo di capire
DettagliConsideriamo due polinomi
Capitolo 3 Il luogo delle radici Consideriamo due polinomi N(z) = (z z 1 )(z z 2 )... (z z m ) D(z) = (z p 1 )(z p 2 )... (z p n ) della variabile complessa z con m < n. Nelle problematiche connesse al
DettagliLa Programmazione Lineare
4 La Programmazione Lineare 4.1 INTERPRETAZIONE GEOMETRICA DI UN PROBLEMA DI PROGRAMMAZIONE LINEARE Esercizio 4.1.1 Fornire una rappresentazione geometrica e risolvere graficamente i seguenti problemi
DettagliIntroduzione al MATLAB c Parte 2
Introduzione al MATLAB c Parte 2 Lucia Gastaldi Dipartimento di Matematica, http://dm.ing.unibs.it/gastaldi/ 18 gennaio 2008 Outline 1 M-file di tipo Script e Function Script Function 2 Costrutti di programmazione
DettagliAPPUNTI DI MATEMATICA LE FRAZIONI ALGEBRICHE ALESSANDRO BOCCONI
APPUNTI DI MATEMATICA LE FRAZIONI ALGEBRICHE ALESSANDRO BOCCONI Indice 1 Le frazioni algebriche 1.1 Il minimo comune multiplo e il Massimo Comun Divisore fra polinomi........ 1. Le frazioni algebriche....................................
DettagliProof. Dimostrazione per assurdo. Consideriamo l insieme complementare di P nell insieme
G Pareschi Principio di induzione Il Principio di Induzione (che dovreste anche avere incontrato nel Corso di Analisi I) consente di dimostrare Proposizioni il cui enunciato è in funzione di un numero
Dettaglirisulta (x) = 1 se x < 0.
Questo file si pone come obiettivo quello di mostrarvi come lo studio di una funzione reale di una variabile reale, nella cui espressione compare un qualche valore assoluto, possa essere svolto senza necessariamente
DettagliProva parziale di Geometria e Topologia I - 5 mag 2008 (U1-03, 13:30 16:30) 1/8. Cognome:... Nome:... Matricola:...
Prova parziale di Geometria e Topologia I - 5 mag 2008 (U1-03, 13:30 16:30) 1/8 Cognome:................ Nome:................ Matricola:................ (Dare una dimostrazione esauriente di tutte le
DettagliLE FUNZIONI A DUE VARIABILI
Capitolo I LE FUNZIONI A DUE VARIABILI In questo primo capitolo introduciamo alcune definizioni di base delle funzioni reali a due variabili reali. Nel seguito R denoterà l insieme dei numeri reali mentre
Dettagli1 Giochi a due, con informazione perfetta e somma zero
1 Giochi a due, con informazione perfetta e somma zero Nel gioco del Nim, se semplificato all estremo, ci sono due giocatori I, II e una pila di 6 pedine identiche In ogni turno di gioco I rimuove una
DettagliSono casi particolari di MCF : SPT (cammini minimi) non vi sono vincoli di capacità superiore (solo x ij > 0) (i, j) A : c ij, costo di percorrenza
Il problema di flusso di costo minimo (MCF) Dati : grafo orientato G = ( N, A ) i N, deficit del nodo i : b i (i, j) A u ij, capacità superiore (max quantità di flusso che può transitare) c ij, costo di
DettagliForze come grandezze vettoriali
Forze come grandezze vettoriali L. Paolucci 23 novembre 2010 Sommario Esercizi e problemi risolti. Per la classe prima. Anno Scolastico 2010/11 Parte 1 / versione 2 Si ricordi che la risultante di due
DettagliCapitolo 4: Ottimizzazione non lineare non vincolata parte II. E. Amaldi DEIB, Politecnico di Milano
Capitolo 4: Ottimizzazione non lineare non vincolata parte II E. Amaldi DEIB, Politecnico di Milano 4.3 Algoritmi iterativi e convergenza Programma non lineare (PNL): min f(x) s.v. g i (x) 0 1 i m x S
DettagliRette e curve, piani e superfici
Rette e curve piani e superfici ) dicembre 2 Scopo di questo articolo è solo quello di proporre uno schema riepilogativo che metta in luce le caratteristiche essenziali delle equazioni di rette e curve
Dettagli19. Inclusioni tra spazi L p.
19. Inclusioni tra spazi L p. Nel n. 15.1 abbiamo provato (Teorema 15.1.1) che, se la misura µ è finita, allora tra i corispondenti spazi L p (µ) si hanno le seguenti inclusioni: ( ) p, r ]0, + [ : p
Dettagli4 3 4 = 4 x 10 2 + 3 x 10 1 + 4 x 10 0 aaa 10 2 10 1 10 0
Rappresentazione dei numeri I numeri che siamo abituati ad utilizzare sono espressi utilizzando il sistema di numerazione decimale, che si chiama così perché utilizza 0 cifre (0,,2,3,4,5,6,7,8,9). Si dice
DettagliEsercizi su lineare indipendenza e generatori
Esercizi su lineare indipendenza e generatori Per tutto il seguito, se non specificato esplicitamente K indicherà un campo e V uno spazio vettoriale su K Cose da ricordare Definizione Dei vettori v,,v
DettagliLe equazioni. Diapositive riassemblate e rielaborate da prof. Antonio Manca da materiali offerti dalla rete.
Le equazioni Diapositive riassemblate e rielaborate da prof. Antonio Manca da materiali offerti dalla rete. Definizione e caratteristiche Chiamiamo equazione l uguaglianza tra due espressioni algebriche,
DettagliESERCIZI DI ALGEBRA LINEARE E GEOMETRIA
ESERCIZI DI ALGEBRA LINEARE E GEOMETRIA Francesco Bottacin Padova, 24 febbraio 2012 Capitolo 1 Algebra Lineare 1.1 Spazi e sottospazi vettoriali Esercizio 1.1. Sia U il sottospazio di R 4 generato dai
DettagliRICHIAMI SULLE MATRICI. Una matrice di m righe e n colonne è rappresentata come
RICHIAMI SULLE MATRICI Una matrice di m righe e n colonne è rappresentata come A = a 11 a 12... a 1n a 21 a 22... a 2n............ a m1 a m2... a mn dove m ed n sono le dimensioni di A. La matrice A può
Dettagli5. La teoria astratta della misura.
5. La teoria astratta della misura. 5.1. σ-algebre. 5.1.1. σ-algebre e loro proprietà. Sia Ω un insieme non vuoto. Indichiamo con P(Ω la famiglia di tutti i sottoinsiemi di Ω. Inoltre, per ogni insieme
DettagliCapitolo 25: Lo scambio nel mercato delle assicurazioni
Capitolo 25: Lo scambio nel mercato delle assicurazioni 25.1: Introduzione In questo capitolo la teoria economica discussa nei capitoli 23 e 24 viene applicata all analisi dello scambio del rischio nel
DettagliI sistemi di numerazione
I sistemi di numerazione 01-INFORMAZIONE E SUA RAPPRESENTAZIONE Sia dato un insieme finito di caratteri distinti, che chiameremo alfabeto. Utilizzando anche ripetutamente caratteri di un alfabeto, si possono
DettagliLezioni di Matematica 1 - I modulo
Lezioni di Matematica 1 - I modulo Luciano Battaia 16 ottobre 2008 Luciano Battaia - http://www.batmath.it Matematica 1 - I modulo. Lezione del 16/10/2008 1 / 13 L introduzione dei numeri reali si può
Dettagli4. Operazioni elementari per righe e colonne
4. Operazioni elementari per righe e colonne Sia K un campo, e sia A una matrice m n a elementi in K. Una operazione elementare per righe sulla matrice A è una operazione di uno dei seguenti tre tipi:
DettagliCRITERI DI CONVERGENZA PER LE SERIE. lim a n = 0. (1) s n+1 = s n + a n+1. (2) CRITERI PER LE SERIE A TERMINI NON NEGATIVI
Il criterio più semplice è il seguente. CRITERI DI CONVERGENZA PER LE SERIE Teorema(condizione necessaria per la convergenza). Sia a 0, a 1, a 2,... una successione di numeri reali. Se la serie a k è convergente,
DettagliIniziamo con un esercizio sul massimo comun divisore: Esercizio 1. Sia d = G.C.D.(a, b), allora:
Iniziamo con un esercizio sul massimo comun divisore: Esercizio 1. Sia d = G.C.D.(a, b), allora: G.C.D.( a d, b d ) = 1 Sono state introdotte a lezione due definizioni importanti che ricordiamo: Definizione
DettagliCAPITOLO 16 SUCCESSIONI E SERIE DI FUNZIONI
CAPITOLO 16 SUCCESSIONI E SERIE DI FUNZIONI Abbiamo studiato successioni e serie numeriche, ora vogliamo studiare successioni e serie di funzioni. Dato un insieme A R, chiamiamo successione di funzioni
Dettagli3 CENNI DI TEORIA DELLA COMPLESSITA COMPUTAZIONALE. E. Amaldi Fondamenti di R.O. Politecnico di Milano 1
3 CENNI DI TEORIA DELLA COMPLESSITA COMPUTAZIONALE E. Amaldi Fondamenti di R.O. Politecnico di Milano 1 Scopo: Stimare l onere computazionale per risolvere problemi di ottimizzazione e di altra natura
DettagliCapitolo 13: L offerta dell impresa e il surplus del produttore
Capitolo 13: L offerta dell impresa e il surplus del produttore 13.1: Introduzione L analisi dei due capitoli precedenti ha fornito tutti i concetti necessari per affrontare l argomento di questo capitolo:
DettagliLa distribuzione Normale. La distribuzione Normale
La Distribuzione Normale o Gaussiana è la distribuzione più importante ed utilizzata in tutta la statistica La curva delle frequenze della distribuzione Normale ha una forma caratteristica, simile ad una
Dettagli1. Distribuzioni campionarie
Università degli Studi di Basilicata Facoltà di Economia Corso di Laurea in Economia Aziendale - a.a. 2012/2013 lezioni di statistica del 3 e 6 giugno 2013 - di Massimo Cristallo - 1. Distribuzioni campionarie
DettagliMetodi e Modelli per l Ottimizzazione Combinatoria Il problema del flusso di costo minimo
Metodi e Modelli per l Ottimizzazione Combinatoria Il problema del flusso di costo minimo L. De Giovanni G. Zambelli 1 Problema del flusso a costo minimo Il problema del flusso a costo minimo é definito
DettagliCome visto precedentemente l equazione integro differenziale rappresentativa dell equilibrio elettrico di un circuito RLC è la seguente: 1 = (1)
Transitori Analisi nel dominio del tempo Ricordiamo che si definisce transitorio il periodo di tempo che intercorre nel passaggio, di un sistema, da uno stato energetico ad un altro, non è comunque sempre
Dettagli9 Metodi diretti per la risoluzione di sistemi lineari: fattorizzazione P A = LU
9 Metodi diretti per la risoluzione di sistemi lineari: fattorizzazione P A LU 9.1 Il metodo di Gauss Come si è visto nella sezione 3.3, per la risoluzione di un sistema lineare si può considerare al posto
DettagliParte 6. Applicazioni lineari
Parte 6 Applicazioni lineari A Savo Appunti del Corso di Geometria 203-4 Indice delle sezioni Applicazioni fra insiemi, 2 Applicazioni lineari tra spazi vettoriali, 2 3 Applicazioni lineari da R n a R
Dettagli3.1 Successioni. R Definizione (Successione numerica) E Esempio 3.1 CAPITOLO 3
CAPITOLO 3 Successioni e serie 3. Successioni Un caso particolare di applicazione da un insieme numerico ad un altro insieme numerico è quello delle successioni, che risultano essere definite nell insieme
DettagliTeoria delle code. Sistemi stazionari: M/M/1 M/M/1/K M/M/S
Teoria delle code Sistemi stazionari: M/M/1 M/M/1/K M/M/S Fabio Giammarinaro 04/03/2008 Sommario INTRODUZIONE... 3 Formule generali di e... 3 Leggi di Little... 3 Cosa cerchiamo... 3 Legame tra N e le
DettagliIl principio di induzione e i numeri naturali.
Il principio di induzione e i numeri naturali. Il principio di induzione è un potente strumento di dimostrazione, al quale si ricorre ogni volta che si debba dimostrare una proprietà in un numero infinito
DettagliMassimi e minimi vincolati di funzioni in due variabili
Massimi e minimi vincolati di funzioni in due variabili I risultati principali della teoria dell ottimizzazione, il Teorema di Fermat in due variabili e il Test dell hessiana, si applicano esclusivamente
Dettagli15 febbraio 2010 - Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a. 2009-2010 COGNOME... NOME... N. MATRICOLA...
15 febbraio 010 - Soluzione esame di geometria - 1 crediti Ingegneria gestionale - a.a. 009-010 COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura
DettagliPer lo svolgimento del corso risulta particolarmente utile considerare l insieme
1. L insieme R. Per lo svolgimento del corso risulta particolarmente utile considerare l insieme R = R {, + }, detto anche retta reale estesa, che si ottiene aggiungendo all insieme dei numeri reali R
DettagliControlli Automatici T. Trasformata di Laplace e Funzione di trasferimento. Parte 3 Aggiornamento: Settembre 2010. Prof. L.
Parte 3 Aggiornamento: Settembre 2010 Parte 3, 1 Trasformata di Laplace e Funzione di trasferimento Prof. Lorenzo Marconi DEIS-Università di Bologna Tel. 051 2093788 Email: lmarconi@deis.unibo.it URL:
DettagliELEMENTI DI ALGEBRA LINEARE E GEOMETRIA Corso di Laurea Ingegneria Edile-Architettura
Cognome Nome Matricola ELEMENTI DI ALGEBRA LINEARE E GEOMETRIA Corso di Laurea Ingegneria Edile-Architettura (Primo appello/ii prova parziale 15/6/15 - Chiarellotto-Urbinati) Per la II prova: solo esercizi
DettagliPiù processori uguale più velocità?
Più processori uguale più velocità? e un processore impiega per eseguire un programma un tempo T, un sistema formato da P processori dello stesso tipo esegue lo stesso programma in un tempo TP T / P? In
DettagliSiamo così arrivati all aritmetica modulare, ma anche a individuare alcuni aspetti di come funziona l aritmetica del calcolatore come vedremo.
DALLE PESATE ALL ARITMETICA FINITA IN BASE 2 Si è trovato, partendo da un problema concreto, che con la base 2, utilizzando alcune potenze della base, operando con solo addizioni, posso ottenere tutti
DettagliSommario. Definizione di informatica. Definizione di un calcolatore come esecutore. Gli algoritmi.
Algoritmi 1 Sommario Definizione di informatica. Definizione di un calcolatore come esecutore. Gli algoritmi. 2 Informatica Nome Informatica=informazione+automatica. Definizione Scienza che si occupa dell
Dettagli1. Sia dato un poliedro. Dire quali delle seguenti affermazioni sono corrette.
. Sia dato un poliedro. (a) Un vettore x R n è un vertice di P se soddisfa alla seguenti condizioni: x P e comunque presi due punti distinti x, x 2 P tali che x x e x x 2 si ha x = ( β)x + βx 2 con β [0,
DettagliPolitecnico di Milano. Facoltà di Ingegneria Industriale. Corso di Analisi e Geometria 2. Sezione D-G. (Docente: Federico Lastaria).
Politecnico di Milano. Facoltà di Ingegneria Industriale. Corso di Analisi e Geometria 2. Sezione D-G. (Docente: Federico Lastaria). Aprile 20 Indice Serie numeriche. Serie convergenti, divergenti, indeterminate.....................
DettagliAPPLICAZIONI LINEARI
APPLICAZIONI LINEARI 1. Esercizi Esercizio 1. Date le seguenti applicazioni lineari (1) f : R 2 R 3 definita da f(x, y) = (x 2y, x + y, x + y); (2) g : R 3 R 2 definita da g(x, y, z) = (x + y, x y); (3)
DettagliL espressione torna invece sempre vera (quindi la soluzione originale) se cambiamo contemporaneamente il verso: 1 < 0.
EQUAZIONI E DISEQUAZIONI Le uguaglianze fra espressioni numeriche si chiamano equazioni. Cercare le soluzioni dell equazione vuol dire cercare quelle combinazioni delle lettere che vi compaiono che la
Dettaglix u v(p(x, fx) q(u, v)), e poi
0.1. Skolemizzazione. Ogni enunciato F (o insieme di enunciati Γ) è equisoddisfacibile ad un enunciato universale (o insieme di enunciati universali) in un linguaggio estensione del linguaggio di F (di
DettagliVC-dimension: Esempio
VC-dimension: Esempio Quale è la VC-dimension di. y b = 0 f() = 1 f() = 1 iperpiano 20? VC-dimension: Esempio Quale è la VC-dimension di? banale. Vediamo cosa succede con 2 punti: 21 VC-dimension: Esempio
DettagliFondamenti dei linguaggi di programmazione
Fondamenti dei linguaggi di programmazione Aniello Murano Università degli Studi di Napoli Federico II 1 Riassunto delle lezioni precedenti Prima Lezione: Introduzione e motivazioni del corso; Sintassi
DettagliCapitolo 25: Lo scambio nel mercato delle assicurazioni
Capitolo 25: Lo scambio nel mercato delle assicurazioni 25.1: Introduzione In questo capitolo la teoria economica discussa nei capitoli 23 e 24 viene applicata all analisi dello scambio del rischio nel
DettagliCapitolo 2. Operazione di limite
Capitolo 2 Operazione di ite In questo capitolo vogliamo occuparci dell operazione di ite, strumento indispensabile per scoprire molte proprietà delle funzioni. D ora in avanti riguarderemo i domini A
DettagliSUCCESSIONI NUMERICHE
SUCCESSIONI NUMERICHE Una funzione reale di una variabile reale f di dominio A è una legge che ad ogni x A associa un numero reale che denotiamo con f(x). Se A = N, la f è detta successione di numeri reali.
DettagliAlgebra Lineare e Geometria
Algebra Lineare e Geometria Corso di Laurea in Ingegneria Elettronica A.A. 2013-2014 Prova d esame del 16/06/2014. 1) a) Determinare la matrice associata all applicazione lineare T : R 3 R 4 definita da
DettagliApplicazioni lineari
Applicazioni lineari Esempi di applicazioni lineari Definizione. Se V e W sono spazi vettoriali, una applicazione lineare è una funzione f: V W tale che, per ogni v, w V e per ogni a, b R si abbia f(av
DettagliUna ricetta per il calcolo dell asintoto obliquo. Se f(x) è asintotica a mx+q allora abbiamo f(x) mx q = o(1), da cui (dividendo per x) + o(1), m =
Una ricetta per il calcolo dell asintoto obliquo Se f() è asintotica a m+q allora abbiamo f() m q = o(1), da cui (dividendo per ) m = f() q + 1 f() o(1) = + o(1), mentre q = f() m = o(1). Dunque si ha
DettagliCorso di Calcolo Numerico
Corso di Calcolo Numerico Dottssa MC De Bonis Università degli Studi della Basilicata, Potenza Facoltà di Ingegneria Corso di Laurea in Ingegneria Meccanica Corso di Calcolo Numerico - Dottssa MC De Bonis
DettagliFUNZIONI ELEMENTARI - ESERCIZI SVOLTI
FUNZIONI ELEMENTARI - ESERCIZI SVOLTI 1) Determinare il dominio delle seguenti funzioni di variabile reale: (a) f(x) = x 4 (c) f(x) = 4 x x + (b) f(x) = log( x + x) (d) f(x) = 1 4 x 5 x + 6 ) Data la funzione
DettagliEsercizi per il corso di Algoritmi e Strutture Dati
1 Esercizi per il corso di Algoritmi e Strutture Dati Esercizi sulla Tecnica Divide et Impera N.B. Tutti gli algoritmi vanno scritti in pseudocodice (non in Java, né in C++, etc. ). Di tutti gli algoritmi
DettagliLEZIONE 16. Proposizione 16.1.2. Siano V e W spazi vettoriali su k = R, C. Se f: V W
LEZIONE 16 16.1. Applicazioni lineari iniettive e suriettive. Ricordo le seguenti due definizioni valide per applicazioni di qualsiasi tipo ϕ: X Y fra due insiemi. L applicazione ϕ si dice iniettiva se
DettagliSerie numeriche. 1 Definizioni e proprietà elementari
Serie numeriche Definizioni e proprietà elementari Sia { } una successione, definita per ogni numero naturale n n. Per ogni n n, consideriamo la somma s n degli elementi della successione di posto d s
DettagliEquilibrio bayesiano perfetto. Giochi di segnalazione
Equilibrio bayesiano perfetto. Giochi di segnalazione Appunti a cura di Stefano Moretti, Silvia VILLA e Fioravante PATRONE versione del 26 maggio 2006 Indice 1 Equilibrio bayesiano perfetto 2 2 Giochi
Dettagli4 Dispense di Matematica per il biennio dell Istituto I.S.I.S. Gaetano Filangieri di Frattamaggiore EQUAZIONI FRATTE E SISTEMI DI EQUAZIONI
119 4 Dispense di Matematica per il biennio dell Istituto I.S.I.S. Gaetano Filangieri di Frattamaggiore EQUAZIONI FRATTE E SISTEMI DI EQUAZIONI Indice degli Argomenti: TEMA N. 1 : INSIEMI NUMERICI E CALCOLO
DettagliOsservazioni sulla continuità per le funzioni reali di variabile reale
Corso di Matematica, I modulo, Università di Udine, Osservazioni sulla continuità Osservazioni sulla continuità per le funzioni reali di variabile reale Come è noto una funzione è continua in un punto
DettagliDocumentazione esterna al software matematico sviluppato con MatLab
Documentazione esterna al software matematico sviluppato con MatLab Algoritmi Metodo di Gauss-Seidel con sovrarilassamento Metodo delle Secanti Metodo di Newton Studente Amelio Francesco 556/00699 Anno
DettagliComplemento al corso di Fondamenti di Informatica I corsi di laurea in ingegneria, settore dell informazione Università la Sapienza Consorzio Nettuno
Rappresentazione di numeri Complemento al corso di Fondamenti di Informatica I corsi di laurea in ingegneria, settore dell informazione Università la Sapienza Consorzio Nettuno Un numero e un entità teorica,
DettagliCorrettezza. Corso di Laurea Ingegneria Informatica Fondamenti di Informatica 1. Dispensa 10. A. Miola Novembre 2007
Corso di Laurea Ingegneria Informatica Fondamenti di Informatica 1 Dispensa 10 Correttezza A. Miola Novembre 2007 http://www.dia.uniroma3.it/~java/fondinf1/ Correttezza 1 Contenuti Introduzione alla correttezza
Dettaglib i 1,1,1 1,1,1 0,1,2 0,3,4
V o Appello // RICERCA OPERATIVA - Corso A (a.a. 9/) Nome Cognome: Corso di Laurea: L C6 LS LM Matricola: ) Si consideri il problema di flusso di costo minimo in figura. Si verifichi se il flusso ammissibile
DettagliESERCIZI APPLICAZIONI LINEARI
ESERCIZI APPLICAZIONI LINEARI PAOLO FACCIN 1. Esercizi sulle applicazioni lineari 1.1. Definizioni sulle applicazioni lineari. Siano V, e W spazi vettoriali, con rispettive basi B V := (v 1 v n) e B W
DettagliIl calcolo letterale per risolvere problemi e per dimostrare
Il calcolo letterale per risolvere problemi e per dimostrare (si prevedono circa 25 ore di lavoro in classe) Nome e cognome dei componenti del gruppo che svolge le attività di gruppo di questa lezione
DettagliEsponenziali elogaritmi
Esponenziali elogaritmi Potenze ad esponente reale Ricordiamo che per un qualsiasi numero razionale m n prendere n>0) si pone a m n = n a m (in cui si può sempre a patto che a sia un numero reale positivo.
DettagliMetodi Frequenziali per il Progetto di Controllori MIMO: Controllori Decentralizzati
Metodi Frequenziali per il Progetto di Controllori MIMO: Controllori Decentralizzati Ingegneria dell'automazione Corso di Sistemi di Controllo Multivariabile - Prof. F. Amato Versione 2.2 Ottobre 2012
DettagliLa misura degli angoli
La misura degli angoli In questa dispensa introduciamo la misura degli angoli, sia in gradi che in radianti, e le formule di conversione. Per quanto riguarda l introduzione del radiante, per facilitarne
Dettagli