Dinamiche Evolutive ed Equilibri Correlati

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Dinamiche Evolutive ed Equilibri Correlati"

Transcript

1 POLITECNICO DI MILANO Scuola di Ingegneria dei Sistemi Dipartimento di Matematica F. Brioschi Corso di Laurea Magistrale in Ingegneria Matematica Dinamiche Evolutive ed Equilibri Correlati Tesi di Laurea Magistrale in Ingegneria Matematica Relatore Prof. Roberto Lucchetti Candidata Benedetta Bizzarri Matricola Anno Accademico

2 Indice Introduzione 6 1 Richiami Strategie e Payoff Strategie Pure Strategie Miste Strategie Debolmente, Strettamente e Iterativamente Dominate Equilibri Equilibri di Nash Equilibri Correlati Giochi Simmetrici Giochi Doppiamente Simmetrici Classificazione dei Giochi Simmetrici 2x Sistemi Dinamici Teoria Evolutiva Dei Giochi Strategie Evolutivamente Stabili Esempi Dinamica di Gioco Le Equazioni della Replicazione Dinamica ed ESS Dinamica e Strategie Strettamente Dominate Non convergenza Il Gioco Carta-Sasso-Forbice Giochi Asimmetrici Dinamica di Gioco Asimmetrica Un Applicazione Il Modello

3 INDICE Dinamica della Replicazione ed ESS Altre Dinamiche ed Esempi Dinamica ed Equilibri Correlati Dinamica della Replicazione Altre Dinamiche Giochi Giochi Asimmetrici Giochi Simmetrici Conclusioni 80 Bibliografia 81

4 Elenco delle figure ɛ < ɛ < 1, k= ɛ < 1, k= ɛ < 1, k= ɛ = ɛ = 1, k= ɛ = 1, k= ɛ = 1, k= ɛ > ɛ = 1, k= ɛ = 1, k= ɛ = 1, k= a 12 a 21 0 e b 12 b a 12 b 12 > a 12 b 12 < Caso Caso Caso Caso Caso Caso ɛ = 2 3, α = ɛ = 2 3, α = ɛ = 4 5, α = ɛ = 4 5, α =

5 Sommario In questa tesi viene studiata la teoria evolutiva dei giochi come connubio tra teoria dei giochi classica e teoria dei sistemi dinamici. L obiettivo è quello di porre in relazione i concetti noti di equilibrio di Nash, equilibrio correlato e strategia con quello di Strategia Evolutivamente Stabile, analizzando i giochi non più dal punto di vista della massimizzazione del payoff, ma da quello della strategia più conveniente per una specie nel lungo termine. In questo senso l introduzione di una dinamica evolutiva che rappresenti il gioco è molto utile in quanto, grazie allo studio delle sue orbite, è possibile risalire a quelle strategie che portano al raggiungimento di un equilibrio. Si concentra l attenzione in particolare sulla cosiddetta Dinamica della Replicazione, suggerita dalla legge di selezione naturale, di cui si forniscono diversi esempi anche numerici ottenuti con l ambiente Matlab. Abstract In this work Evolutionary Game Theory is presented. We shall see how this theory is a natural extension of classical game theory by adding some dynamical systems tools. Our purpose is to present some new concepts, such as Evolutionary Stable Strategies, and study their connection with classical ones, such as strategies, correlated and Nash equilibria. An alternative approach will be used: instead of reasoning by maximum payoffs, we will look for those strategies which lead to what is best for the population of players in the long run. The introduction of a dynamic to represent the game it is found very useful since, by studying its orbits, it is possible to find those strategies which lead to an equilibrium. We will focus especially on the so-called Replication Dynamic, a particular dynamic suggested by the natural selection law. Examples will be provided, some of them numerical, obtained with the aid of Matlab.

6 Introduzione La teoria evolutiva dei giochi è un estensione della teoria dei giochi classica che studia il comportamento di vaste popolazioni di agenti che interagiscono ripetutamente in modo strategico. Essa infatti è nata nel 1973 dal tentativo di John Maynard Smith e George R.Price in The logic of Animal Conflict, [16], di modellizzare matematicamente i conflitti tra diversi animali di una o più specie, introducendo il concetto fondamentale di Strategia Evolutivamente Stabile o ESS. Successivamente, questo concetto è stato formalizzato e ampliato da Maynard Smith in Evolution and the Theory of Games nel 1982 ([15]), collegando strettamente la tematica a quella dell evoluzione biologica. Nella teoria dei giochi classica si ipotizza che i giocatori siano razionali, in grado cioè di valutare razionalmente le strategie a loro disposizione e di agire di conseguenza, dando per scontato che anche l avversario sia in grado di fare le stesse valutazioni. Diversamente, la teoria evolutiva dei giochi non si basa su queste ipotesi, in realtà molto restrittive. Di fatto, essa assume che i giocatori non solo non siano in grado di analizzare razionalmente il gioco, ma addirittura potrebbero non essere consapevoli di partecipare. Da questa caratteristica si intuisce quanto questa nuova teoria possa aderire al contesto biologico, in quanto l ipotesi di razionalità dei giocatori chiaramente non è applicabile agli animali. E il caso, per esempio, del gioco della selezione naturale, in cui gli agenti sono i geni, e le strategie che portano ad un payoff minore vengono usate via via con minore frequenza, secondo il principio del darwinismo. In generale, il cambiamento di comportamento di una popolazione è guidato da una qualche legge che indirizza all utilizzo delle strategie più proficue dal punto di vista collettivo. A questo proposito, la teoria evolutiva si sviluppa su due piani: da un lato si hanno i concetti di equilibrio e strategie propri della teoria dei giochi classica, rivisitati in chiave evolutiva; dall altro si ha una stretta connessione con la teoria dei sistemi dinamici che permette di analizzare dal punto di vista strettamente matematico l evoluzione nel 6

7 INTRODUZIONE 7 tempo della frequenza con cui una strategia viene utilizzata all interno di una popolazione. In questo senso esistono numerosi studi che considerano sistemi dinamici differenti, più o meno aderenti al problema da modellizzare. Si vedano per esempio [12], [13] e [6]. Nonostante la teoria evolutiva dei giochi sia nata in un contesto specifico, essa si è dimostrata utile in molti altri campi, quali quello economico e sociale. Nel primo capitolo riportiamo gli strumenti necessari per introdurre la teoria evolutiva dei giochi: dapprima vengono ricordati i concetti fondamentali della teoria dei giochi quali la definizione di gioco, le diverse tipologie di strategie ed equilibri, alcuni esempi importanti. Successivamente richiamiamo brevemente alcune definizioni e proprietà principali della teoria dei sistemi dinamici. Una particolare attenzione è posta sulla nozione di punto di equilibrio e sulle condizioni di stabilità, stabilità asintotica e attrattività. Uno strumento molto importante ai fini dello studio della teoria evolutiva si rivelerà essere il teorema di Lyapunov. Nel secondo capitolo introduciamo la teoria evolutiva con il concetto chiave di strategia evolutivamente stabile o ESS, dapprima concentrandoci sui giochi simmetrici a due giocatori. Vengono forniti inoltre alcuni risultati che mettono in relazione ESS ed equilibri di Nash. Proseguiamo poi addentrandoci nel contesto dinamico delle cosiddette equazioni della replicazione e di altre dinamiche che possono descrivere il gioco, fornendo risultati di equivalenza tra i punti di equilibrio della dinamica ed equilibri di Nash del gioco. Completiamo la teoria evolutiva per giochi simmetrici con l analisi del gioco Carta-Sasso-Forbice generalizzato. Concludiamo il capitolo estendendo tutti i risultati al caso più generale dei giochi asimmetrici a due giocatori, rilevando alcune differenze rispetto al caso simmetrico. Particolare rilevanza ha il fatto che, diversamente dal caso simmetrico, la relazione tra ESS e punti di equilibrio asintoticamente stabili nella dinamica di gioco è di equivalenza. Nel terzo capitolo viene studiato un esempio di applicazione della teoria evolutiva dei giochi ad un contesto di tipo sociale: l interazione tra immigrati di uno stesso paese d origine e cittadini del paese ospitante. Supponendo che i primi possano adottare una strategia di integrazione, imparando l idioma del paese ospitante per esempio, oppure di indifferenza, ed i secondi possano agire in modo accogliente oppure ostile, ogni incontro tra un immigrato ed un cittadino si può rappresentare come un gioco che, a seconda dei payoff fissati, può portare a punti di equilibrio diversi della dinamica di gioco. Nel quarto capitolo, viene studiata la relazione tra ESS ed equilibri correlati. In particolare, seguendo l impronta di Viossat, [17], viene dimostrato che le strategie nel supporto di un equilibrio correlato tendono ad essere abbando-

8 8 INTRODUZIONE nate nel tempo, per una vasta classe di giochi 4 4 e diverse dinamiche di gioco. Non è il caso però dei giochi 2 2 e 3 3. La verifica viene fatta in questo lavoro per i giochi 2 2 sia nel caso simmetrico che asimmetrico, come diretta conseguenza delle proprietà studiate di equilibri correlati e punti di equilibrio della dinamica di gioco. Per quanto riguarda i giochi 3 3 si rimanda a [19]. Si conclude con un capitolo riassuntivo dei risultati ottenuti, proponendo possibili spunti per ulteriori studi ed approfondimenti.

9 Capitolo 1 Richiami In questo capitolo vengono forniti gli strumenti della teoria dei giochi classica indispensabili per la trattazione della teoria evolutiva. In particolare, definiremo il gioco discreto, finito, non cooperativo in forma normale, con i relativi concetti di equilibrio di Nash, di equilibrio correlato e di funzioni di risposta ottima (best reply). Introdurremo poi la particolare classe di giochi simmetrici a due giocatori, e tutte le loro proprietà. Infine, forniremo un breve richiamo sulla teoria dei sistemi dinamici. 1.1 Strategie e Payoff Strategie Pure Sia I = {1,..., n} l insieme dei giocatori, dove n è un intero positivo; per ogni giocatore i I, indicheremo con σ i il suo insieme (finito) di strategie pure. Per semplicità, ogni strategia pura per il giocatore i verrà indicata con un numero intero, ovvero σ i = {1, 2,..., m i }. Chiameremo profilo di strategie pure un vettore s = (s 1,..., s n ), dove s i è una strategia pura per il giocatore i. Lo spazio delle strategie pure del gioco sarà quindi dato da σ = n i=1 σ i. Per ogni profilo di strategie s σ il payoff o guadagno (in strategie pure) del giocatore i I è una funzione π i (s) R, π i : σ R. La funzione di payoff del gioco è indicata con π(s) = (π 1 (s),..., π n (s)), π : σ R n. In possesso di questi elementi, possiamo dare la seguente Definizione 1.1. Un gioco non cooperativo, in forma normale, è una terna G = (I, σ, π). 9

10 10 CAPITOLO 1. RICHIAMI Nel caso in cui n = 2, se i giocatori hanno a disposizione rispettivamente m 1 ed m 2 strategie, possiamo rappresentare il payoff di entrambi come una bimatrice P = ( A, B T ) R m 1 m 2 dove A = (a ij ) = (π 1 (i, j)) e B = (b ji ) = (π 2 (i, j)), per ogni i σ 1 e j σ 2. Il primo giocatore sceglierà che riga giocare, mentre il secondo sceglierà la colonna. Esempio 1.1 (Falchi e Colombe). In questo gioco i giocatori possono scegliere se comportarsi in modo aggressivo, da Falco, o remissivo, cioè da Colomba. La bimatrice dei payoff del gioco è: [ ] ((v c)/2, (v c)/2) (v, 0) (0, v) (v/2, v/2) Ritorneremo su questo gioco più avanti Strategie Miste Una strategia mista per il giocatore i è una distribuzione di probabilità sul suo insieme di strategie pure σ i. Dal momento che consideriamo solo giochi discreti finiti, indicando con m i il numero di strategie pure per il giocatore i ( σ i = m i ), possiamo rappresentare ogni sua strategia mista x come vettore in R m i, dove la componente x h R è la probabilità con cui il giocatore i gioca la strategia pura h. È importante notare il fatto che mi h=1 x h = 1 e che x h [0, 1] per ogni h = 1,..., m i ; pertanto l insieme delle possibili strategie miste per il giocatore i è il simplesso unitario, m i dimensionale S mi = {x = (x 1,..., x mi ) [0, 1] m i xh = 1}. Osserviamo che i vertici del simplesso S mi sono i vettori unitari e i 1 = (1, 0,..., 0),..., e i m i = (0, 0,..., 1), che sono le strategie pure o particolari strategie miste che assegnano probabilità 1 alla strategia pura h. D ora in avanti concentreremo l attenzione sui giochi a due giocatori, I = {1, 2}. Se indichiamo con u 1 (e k, x) il payoff che il giocatore 1 ottiene usando la strategia mista x contro la strategia pura k del giocatore 2, allora il valore atteso del payoff per il giocatore 1 che gioca una strategia mista x S m1, contro la strategia mista y per il secondo, è m 1 u 1 (x, y) = u 1 (e k, x)y k y S m2. (1.1) k=1

11 1.1. STRATEGIE E PAYOFF 11 In altre parole, u 1 (x, y) è calcolato come somma pesata dei payoff che il giocatore 1 ottiene contro ogni strategia pura giocata dal giocatore 2, dove i pesi sono le probabilità assegnate dalla strategia mista di quest ultimo. Inoltre, è importante notare che dall equazione (1.1) risulta che u 1 (x) è lineare in y S m2. In generale, u 1 (x, y) verrà semplicemente chiamato payoff della strategia mista x e tutto ciò vale analogamente per il giocatore 2. Se i payoff sono lineari, dato un gioco rappresentato dalla bimatrice P = (A, B), se i giocatori giocano rispettivamente le strategie miste x S m1 e y S m2, i loro guadagni attesi sono u 1 (x, y) = x i a ij y j = x T Ay i j per il primo e u 2 (x, y) = i x i b ij y j = x T By = y T B T x j per il secondo. Si ha dunque la seguente estensione del gioco alle strategie miste: Definizione 1.2. L estensione mista di un gioco non cooperativo, in forma normale, è una terna G = (I, Θ, u) dove Θ = S m1 S m2 è lo spazio delle strategie miste del gioco e u(x) = (u 1 (x, y), u 2 (x, y)) è la funzione di payoff in strategie miste del gioco Strategie Debolmente, Strettamente e Iterativamente Dominate Definizione 1.3. Una strategia y i S mi, i = 1, 2: domina debolmente una strategia x i S mi se u i (y i, z j ) u i (x i, z j ) S mj, con disuguaglianza stretta per qualche z S mj ; z j domina strettamente x i S mi se u i (y i, z j ) > u i (x i, z j ) z S mj. Una strategia x i S mi è non dominata se non esiste una strategia y i S mi che la domina (debolmente o strettamente). E possibile che una strategia pura sia strettamente dominata da una strategia mista, pur non essendo dominata da alcuna strategia pura. Un assioma di razionalità alla base della teoria dei giochi presuppone che i giocatori siano razionali, nel senso che non usano mai strategie strettamente

12 12 CAPITOLO 1. RICHIAMI dominate. Pertanto, tutte le strategie pure strettamente dominate possono essere eliminate dal gioco senza che il risultato venga alterato. Questo procedimento si può iterare un numero finito di volte, poiché al gioco partecipa un numero finito di giocatori con un numero finito di strategie. Esempio 1.2. Consideriamo il gioco rappresentato dalla bimatrice (3, 1) (4, 1) (6, 3) (2, 5) (1, 3) (1, 8). (7, 3) (0, 0) (1, 4) Supponiamo che il giocatore A giochi le righe ed il giocatore B giochi le colonne. Per A, la strategia 1 (giocare la prima riga) domina strettamente la strategia 2. Analogamente, per il giocatore B la strategia 3 (giocare la terza colonna) domina strettamente la strategia 2. Eliminando le strategie strettamente dominate si perviene alla seguente bimatrice, equivalente a quella di partenza: [ ] (3, 1) (6, 3). (7, 3) (1, 4) Ripetendo il ragionamento, si possono eliminare anche la prima strategia per B e la seconda strategia per A, ottenendo l equilibrio di Nash in strategie pure (nel gioco originale) (e 1, e 3 ) con payoff (6, 3). Definizione 1.4. Una strategia pura s i σ i, i = 1, 2 è non iterativamente strettamente dominata se non è strettamente dominata nel gioco originale G, né nel gioco G 1 ottenuto eliminando da G alcune(o tutte) le strategie strettamente dominate, né nel gioco G 2 ottenuto eliminando le strategie strettamente dominate da G 1 e così via, finché non vi siano più strategie che possano essere eliminate (cioè finché G k+1 = G k per un intero positivo k). 1.2 Equilibri Equilibri di Nash Un equilibrio di Nash è un profilo di strategie (pure o miste) x = (x 1,..., x n ) tale che, se ogni giocatore i gioca la rispettiva strategia x i, allora nessuno ha interesse a deviare. Nel caso di un gioco a due giocatori si ha la seguente definizione: Definizione 1.5. Un equilibrio di Nash per il gioco non cooperativo, in forma normale, a due giocatori G = (S n, S m, u 1 : S n S m R, u 2 : S n S m R) è una coppia di strategie ( x, ȳ) S n S m tale che u 1 ( x, ȳ) u 1 (x, ȳ) x S n ;

13 1.2. EQUILIBRI 13 u 2 ( x, ȳ) u 2 ( x, y) y S m. In particolare, se entrambe sono disuguaglianze strette per x x, ȳ y, l equilibrio di Nash è detto stretto. Osserviamo che, sotto l ipotesi di razionalità dei giocatori, se per esempio il giocatore 1 pensasse che il giocatore 2 usi la strategia y, allora cercherebbe di massimizzare la sua funzione di utilità x u 1 (x, y), ovvero vorrebbe scegliere la strategia x BR 1 (y) = {x S n : u 1 (x, y) u 1 (s, y) s S n }. Seguendo lo stesso ragionamento per il giocatore 2 risultano definite le multifunzioni di risposta ottima (best reaction) BR 1 : S m S n e BR 2 : S n S m. Sia ora BR : S n S m S m S n, definita come Allora BR( x, ȳ) = (BR 1 (y), BR 2 (x)). Definizione 1.6. Un equilibrio di Nash per il gioco G = (S n, S m, u 1 : S n S m R, u 2 : S n S m R) è un punto fisso per BR, cioè ( x, ȳ) è un equilibrio di Nash se e solo se ( x, ȳ) BR( x, ȳ). Proposizione 1.1. Un equilibrio di Nash stretto è necessariamente una coppia di strategie pure. Dimostrazione. Dato un equilibrio di Nash in strategie miste (x, y), per almeno uno dei giocatori esisterebbero almeno due strategie pure che portano allo stesso payoff massimo, violando almeno una delle disuguaglianze strette della Definizione (1.5). Osserviamo che non tutti i giochi hanno equilibri in strategie pure. Esempio 1.3. Consideriamo il gioco delle monete: due bambini, ciascuno con una moneta, devono mostrarla nello stesso momento, decidendo se tenere in alto testa o croce. Se entrambi mostrano la stessa faccia, vince il primo bambino, altrimenti vince il secondo. La bimatrice dei payoff è pertanto [ ] (1, 1) ( 1, 1). ( 1, 1) (1, 1) Chiaramente non esistono equilibri di Nash in strategie pure, infatti per qualsiasi profilo di strategie pure, uno dei due giocatori vorrebbe deviare. Tuttavia esiste un equilibrio di Nash in strategie miste: (x, y) = ([ 1 2, 1 2], [ 1 2, 1 2]).

14 14 CAPITOLO 1. RICHIAMI Si può dimostrare che nei giochi discreti esiste sempre almeno un equilibrio di Nash in strategie miste; a questo scopo occorrono alcuni richiami: Definizione 1.7. Sia Z un sottospazio compatto e convesso di uno spazio Eucliedeo e Φ : Z Z. Il grafico di Φ è l insieme {(x, y) : y F (x)}. Definizione 1.8. Una funzione h : Z R, dove Z è un insieme convesso, si dice quasi convessa se l insieme {x : h(z) a} è convesso per ogni a. A questo punto un teorema di punto fisso garantisce l esistenza di un equilibrio di Nash; in particolare useremo il teorema di Kakutani. Teorema 1.2 (di Kakutani). Sia Z un sottoinsieme compatto e convesso di uno spazio Euclideo e sia F : Z Z tale che F (z) è un insieme non vuoto, chiuso e convesso per ogni z; il grafico di F è chiuso. Allora F ha punto fisso: esiste z Z tale che z F ( z). Grazie a questi strumenti è ora possibile dimostrare il seguente Teorema 1.3 (di Nash). Dato il gioco G = (S n, S m, u 1 : S n S m R, u 2 : S n S m R), supponiamo che S n e S m siano sottoinsiemi convessi e compatti di qualche spazio euclideo; supponiamo inoltre che u 1, u 2 siano funzioni continue e che x u 1 (x, y) sia quasi concava per ogni y S m ; y u 2 (x, y) sia quasi concava per ogni x S n. Allora esiste un equilibrio per il gioco. Dimostrazione. Proviamo che BR 1 (y) è un insieme chiuso, non vuoto e convesso per ogni y. Analogamente ciò può essere fatto per BR 2 (x), da cui segue la validità delle affermazioni per BR. BR 1 (y) è un insieme non vuoto dal momento che u 1 (x, y),funzione continua, è massimizzata su S n, insieme compatto. Per il teorema di Weierstrass, infatti, segue che esiste almeno un punto di massimo. Inoltre, per l ipotesi di quasi concavità di u 1 segue che l insieme dei punti di massimo BR 1 è convesso. Infine, supponiamo che x n BR 1 (y) e che x n x; perché BR 1 sia chiuso dobbiamo verificare che x BR 1 (y). Dal momento che x n BR 1 (y), u 1 (x n, y) u 1 (x, y) x; essendo u 1 continua per ipotesi, possiamo passare al limite ottenendo u 1 ( x, y) u 1 (x, y) x in virtù del

15 1.2. EQUILIBRI 15 teorema di permanenza del segno, ovvero x BR 1 (y). Vogliamo ora dimostrare che BR 1 ha grafico chiuso. Seguendo la procedura già utilizzata, supponiamo che la coppia (x n, y n ) appartenga al grafico di BR 1 e che (x n, y n ) ( x, ȳ); bisogna ora vedere che ( x, ȳ) appartiene al grafico di BR 1. Deve valere u 1 (x n, y n ) u 1 (x, y n ) x; passando al limite e utilizzando il teorema di permanenza del segno si ha u 1 ( x, ȳ) u 1 (x, ȳ) x ma ciò è vero solo se x BR 1 (ȳ) cioè la coppia ( x, ȳ) appartiene al grafico di BR 1. A questo punto, dal teorema di Kakutani, segue la tesi Equilibri Correlati Ci concentreremo ora sui giochi finiti, in forma strategica, a due giocatori. Definiremo il concetto di equilibrio correlato, una generalizzazione del concetto di equilibrio di Nash introdotta da Aumann nel L idea è che sia possibile per i giocatori di accordarsi su un certo piano di azione, con un accordo che non sia vincolante per rimanere nell ambito dei giochi non cooperativi. Ogni giocatore infatti sceglie la sua azione a seguito dell osservazione di un segnale fornito da un mediatore affidabile, sulla base del quale egli valuta strategicamente anche i segnali che gli altri giocatori potrebbero aver ricevuto, ed agisce di conseguenza. Una soluzione è un equilibrio correlato se ogni giocatore ritiene conveniente non deviare dalla strategia suggerita dal mediatore sotto l ipotesi fondamentale di razionalità dei giocatori, ovvero che nessuno abbia motivo di deviare. Diamo ora una definizione formale: Definizione 1.9. Dato il gioco G = (S n, S m, u 1, u 2 ), dove u 1, u 2 : S n S m R, S n = (x 1,..., x n ) e S m = (y 1,..., y m ),una distribuzione di equilibri correlati o, più semplicemente, un equilibrio correlato è una distribuzione di probabilità µ su S n S m tale che, detta µ ij la probabilità assegnata alla coppia (x i, y j ), ī {1,..., n} si ha che m µ īj u 1 (x ī, y j ) j=1 e j {1,..., m} m µ īj u 1 (x i, y j ) i {1,..., n} (1.2) j=1 n µ i ju 2 (x i, y j) i=1 n µ i ju 2 (x i, y j ) j {1,..., m} (1.3) i=1

16 16 CAPITOLO 1. RICHIAMI Definizione Una strategia pura i è usata in un equilibrio correlato se esiste un equilibrio correlato µ tale che esista una strategia pura j per la quale µ(i, j) > 0. Per chiarire il significato della definizione 1.9 dividiamo a destra e a sinistra della (1.2) per la quantità m j=1 µīj (analogamente dividiamo per n i=1 µ i j la (1.3)): m j=1 µ īj m j=1 µīj u 1 (x ī, y j ) m j=1 µ īj m j=1 µīj u 1 (x i, y j ). La quantità a sinistra della disequazione è, infatti, il payoff atteso del primo giocatore che sa di dover giocare la strategia ī, mentre quella a destra è il payoff atteso del primo giocatore nel caso in cui non giochi la strategia ī (discorso analogo per il secondo giocatore). E chiaro quindi che le disequazioni riflettono le condizioni per l equilibrio di Nash. Un equilibrio correlato è dunque un vettore che soddisfa un certo numero di disequazioni lineari, quindi l insieme degli equilibri correlati è convesso e compatto in un certo spazio Euclideo. Inoltre risulta essere non vuoto: ogni equilibrio di Nash è infatti un equilibrio correlato e, dal momento che esiste sempre un equilibrio di Nash (in strategie miste) per la classe di giochi considerata, l insieme degli equilibri correlati è non vuoto. Esempio 1.4 (Semaforo). Due automobili giungono in prossimità di un incrocio con semaforo rotto. Entrambe devono decidere se passare o dare la precedenza. Nel caso in cui entrambe decidano di passare, ha luogo un incidente, che per entrambe le automobili si traduce in un payoff negativo 100. Se una decide di dare la precedenza e l altra passa, la prima ottiene 0 e la seconda guadagna 1. Infine, se entrambe decidono di fermarsi, ottengono un payoff 1. La matrice dei payoff è [ ] ( 100, 100) (1, 0) (0, 1) ( 1, 1) Ci sono due equilibri di Nash in strategie pure: (e 1, e 2 ) e (e 2, e 1 ), con valore atteso 1 per chi passa e 0 per chi si ferma (la loro somma è 1). Vi è inoltre un equilibrio di Nash in strategie miste (x, x) dove x = ( 1 51, 50 51), con valore atteso per entrambi Se il semaforo viene riparato, si ha ora un mediatore affidabile che fa passare metà delle volte un automobile e metà l altra. Si verifica facilmente che [ 0 1/2 1/2 0 ]

17 1.2. EQUILIBRI 17 è un equilibrio correlato, che assicura ad entrambi il valore atteso 1 2 (e somma anch esso ad 1). Teorema 1.4. Se un gioco finito a n giocatori ha un unico equilibrio correlato σ, allora l (unico) equilibrio correlato di ogni gioco in un suo intorno ha lo stesso supporto di σ. Per una prova di questo teorema, si rimanda a [19]. Osservazione 1.1. Sugli equilibri correlati esiste uno studio sperimentale condotto da Timothy N. Cason e Tridib Sharma (si veda [2]), i quali hanno messo a confronto diversi giocatori in un gioco la cui matrice dei payoff era [ ] (3, 3) (48, 9). (1.4) (9, 48) (39, 39) Considerando i payoff in termini monetari, è stato riscontrato che molto spesso i giocatori sono portati a deviare dalla strategia proposta, pur essendo a conoscenza degli svantaggi. Per spiegare questo fenomeno, gli autori hanno posto i giocatori davanti ad un computer come avversario, considerando anche una variante del gioco in cui i guadagni del computer venivano trasferiti ad un individuo esterno al gioco. La ragione di questa variante è quella di capire se la scelta di deviare è dettata da una funzione di utilità in cui la preferenza è minimizzare la differenza tra il payoff dell avversario e il proprio piuttosto che massimizzare il proprio. Il risultato è stato che, contro un avversario non umano, cioè perfettamente razionale, i giocatori non hanno deviato dalla strategia suggerita, indipendentemente da chi ottenesse il guadagno del computer. Gli autori hanno concluso che la causa di questo comportamento potrebbe essere che i giocatori non si fidano della razionalità degli avversari e, di conseguenza, tentano di prevedere in che modo essi devieranno, deviando loro stessi dalla strategia suggerita. Tuttavia è stato riscontrato che i giocatori con più esperienza tendono a seguire le raccomandazioni più degli altri, quindi è ragionevole supporre che col tempo essi arriveranno all equilibrio correlato. Gli autori hanno potuto fornire solo congetture per spiegare questo fenomeno, una delle quali ipotizza che gli individui meno esperti, pur essendo razionali, suppongano che gli avversari possano in realtà commettere degli errori di valutazione nella scelta della strategia. Man mano che il gioco viene ripetuto, ogni giocatore modifica la sua percezione dell avversario in base al sue azioni e di conseguenza diventa sempre più propenso a seguire le indicazioni.

18 18 CAPITOLO 1. RICHIAMI 1.3 Giochi Simmetrici In molte applicazioni della teoria dei giochi evolutivi i giocatori vengono considerati indistinguibili, motivo per cui è utile introdurre la particolare classe di giochi simmetrici: Definizione Un gioco non cooperativo G = (I, σ, π),a due giocatori, in forma normale è simmetrico se I = {1, 2}, σ 1 = σ 2 = K e π 2 (s 1, s 2 ) = π 1 (s 2, s 1 ) per ogni (s 1, s 2 ) σ. La simmetria del gioco implica che, se U indica la matrice dei payoff del giocatore 1 e V quella del giocatore 2, allora V = U T. Definizione Un equilibrio di Nash (x, y) si dice simmetrico se x = y, cioè se i due giocatori utilizzano la stessa strategia. Osservazione 1.2. Un gioco simmetrico non ha necessariamente solo equilibri simmetrici, tuttavia esiste sempre un equilibrio simmetrico nelle strategie miste. Per convincersene basta applicare il teorema di Kakutani a BR 1 (= BR 2 ). La definizione di equilibrio correlato vale ovviamente anche per la categoria dei giochi simmetrici. Notiamo inoltre che, se µ è un equilibrio correlato per un gioco a due giocatori simmetrico, lo è anche µ T (definito da µ T (i, j) = µ(j, i)), e quindi anche µ+µt 2. Pertanto, se una strategia è usata in un equilibrio correlato, è usata anche in un equilibrio correlato simmetrico Giochi Doppiamente Simmetrici Un caso più specifico di giochi simmetrici si ha quando i due giocatori hanno uguale successo o insuccesso. In tal caso si parla di giochi doppiamente simmetrici. Definizione Un gioco simmetrico a due giocatori è doppiamente simmetrico se la matrice dei payoff U = U T. 1.4 Classificazione dei Giochi Simmetrici 2x2 In questa sezione consideriamo giochi simmetrici a due giocatori, in cui ogni giocatori ha esattamente due strategie pure. La trattazione tornerà utile più avanti per fornire esempi. Per prima cosa enunciamo una proprietà di invarianza:

19 1.4. CLASSIFICAZIONE DEI GIOCHI SIMMETRICI 2X2 19 Proposizione 1.5. Dati due giochi G = (I, σ, π) e G = (I, σ, π ), se per ogni giocatore i I esiste λ i R + ed µ i R tali che π i (s, t) = λ iπ i (s, t)+µ i per ogni profilo di strategie s σ, allora i due giochi sono equivalenti 1. Dimostrazione. Concentriamoci sul giocatore 1, il discorso per il secondo è analogo. Supponiamo che la coppia (s, t) sia un equilibrio di Nash per G, cioè π 1 ( s, t) π 1 (s, t) s. Vogliamo verificare che questa coppia di strategie sia un equilibrio di Nash anche per il gioco G, ma ciò è immediato infatti π 1( s, t) π 1(s, t) s λ 1 π 1 ( s, t) + µ 1 λ 1 π 1 (s, t) + µ 1 s, che è banalmente verificata. Consideriamo ora un qualsiasi gioco simmetrico 2x2 con matrice dei payoff [ ] a 11 a 12 A =. a 21 a 22 In virtù della proposizione (1.5), è possibile sottrarre alla prima colonna la quantità a 21 ed alla seconda a 12, ottenendo la matrice equivalente [ ] A a 11 a 21 0 =. 0 a 22 a 12 Abbiamo così ottenuto un gioco doppiamente simmetrico con matrice dei payoff [ ] A a 1 0 = 0 a 2 dove a 1 = a 11 a 21 e a 2 = a 22 a 12. In questo modo possiamo identificare ogni gioco simmetrico come un punto nel piano a = (a 1, a 2 ) R 2 ed, in base alla posizione, classificarlo. Categoria I: a 1 0, a 2 > 0 o a 1 < 0, a 2 0 La seconda riga domina strettamente la prima, la seconda colonna domina strettamente la prima: si ha un unico equilibrio di Nash (e 2, e 2 ) con payoff a 2. E speculare alla categoria IV, di cui forniremo un esempio molto noto. 1 Due giochi sono equivalenti se hanno gli stessi equilibri (ma non necessariamente gli stessi payoff).

20 20 CAPITOLO 1. RICHIAMI Categoria II: a 1 > 0, a 2 > 0 Vi sono due equilibri di Nash (simmetrici e stretti) in strategie pure: (e 1, e 1 ) e (e 2, e 2 ). Vi è inoltre [ un equilibrio (simmetrico) in strategie miste (x, x) con x = a2 a a 1 +a 2, 1 a 1 +a 2 ]. Un esempio è il Gioco di Coordinazione che ha matrice dei payoff [ ]. Categoria III: a 1 < 0, a 2 < 0 Vi sono due equilibri di Nash in strategie pure, questa volta asimmetrici, (e 1, e 2 ) e (e 2, e 1 ), ed un equilibrio (simmetrico) in strategie miste (x, x), dove x è la stessa della categoria II. Un esempio è quello di Falchi e Colombe: i due giocatori possono decidere di usare una strategia aggressiva (falco) o remissiva (colomba). Se un falco incontra una colomba, vince lo scontro guadagnando v mentre la colomba non guadagna nulla. Se un falco si scontra con un altro falco, può vincere (v) o perdere (c) con uguale probabilità: il payoff medio è quindi (v c)/2 < 0. Se una colomba incontra un altra colomba, infine, lo scontro si risolve in modo pacifico, con payoff v/2. La matrice dei payoff è [ (v c)/2 v 0 v/2 Categoria IV: a 1 0, a 2 < 0 o a 1 > 0, a 2 0 E il caso speculare alla categoria I: vi è un unico equilibrio di Nash (e 1, e 1 ) con payoff a 1. Un esempio di questa categoria è il dilemma del prigioniero: due ladri complici vengono catturati, se entrambi confessano il furto la pena è di 3 anni di carcere ciascuno, se solo uno dei due confessa, chi confessa viene rilasciato e l altro sconta una pena di 5 anni, se nessuno dei due confessa, sconteranno ciascuno 1 anno di carcere. La matrice dei payoff è quindi [ ]. ]. 1.5 Sistemi Dinamici In questo capitolo vengono riportate alcune nozioni sui sistemi dinamici fondamentali per la trattazione successiva.

21 1.5. SISTEMI DINAMICI 21 Definizione Dati uno spazio vettoriale E ed un insieme aperto W E, un sistema dinamico è una coppia (W, ψ), dove ψ : J W W, con J intervallo di R, è un applicazione differenziabile che verifica le seguenti proprietà: 1. t 0 J tale che ψ(t 0, x) = x, 2. ψ(t + s, x) = ψ(t, ψ(s, x)). Per l ipotesi di differenziabilità, è possibile definire un campo vettoriale f(x) d dt ψ(t, x) t=t 0 (1.5) per ogni x W e per qualche t 0 J fissato; se poniamo x(t) = ψ(t, x), sottolineando la sola dipendenza dal tempo della ψ, la (1.5) può essere riscritta come ẋ dx dt = f(x). Definizione Dato un sistema dinamico ẋ = f(x), un punto di equilibrio z è tale che f(z) = 0. Definizione Un punto di equilibrio z di un sistema dinamico ẋ = f(x) è stabile, se per ogni intorno U di z, esiste un altro intorno W, tale che ogni soluzione che parte in W rimane in U; attrattivo, se esiste un intorno W di z, tale che ogni soluzione che parte in W converge verso z; asintoticamente stabile, se è stabile e attrattivo; globalmente stabile, se tutte le soluzioni che partono nell insieme di definizione del sistema convergono a z; instabile, se non è stabile. Definizione Sia ẋ = f(x) un sistema dinamico con punto di equilibrio z. Sia J la matrice Jacobiana di f calcolata in z. Le parti reali degli autovalori di J si chiamano esponenti di Lyapunov. Il calcolo degli esponenti di Lyapunov in corrispondenza di un punto di equilibrio permette di ottenere informazioni sulla sua stabilità. Teorema 1.6. Il punto di equilibrio z è:

22 22 CAPITOLO 1. RICHIAMI asintoticamente stabile se tutti gli esponenti di Lyapunov sono negativi (pozzo); instabile se tutti gli esponenti di Lyapunov sono positivi (sorgente) o se sono uno positivo e l altro negativo (sella); Definizione Una funzione V definita e di classe C 1 in un intorno U di un punto di equilibrio z si dice funzione di Lyapunov per z se valgono le condizioni: V (x) = dv (x(t)) dt 0 V (z) = 0 e V (x) > 0 x z U Se la prima condizione vale col segno di disuguaglianza stretta, V è una funzione di Lyapunov stretta. Teorema 1.7 (di Lyapunov). Dato un punto di equilibrio z di un sistema dinamico ẋ = f(x), se esiste una funzione di Lyapunov V per z, allora z è un punto di equilibrio stabile. Se V è una funzione di Lyapunov stretta, allora V è asintoticamente stabile. Teorema 1.8 (di esistenza ed unicità locale). Sia f : D R k con D aperto, D R k+1. Se: (i) f è continua in D. (ii) f = f(t, x) è localmente lipschitziana in D, rispetto a z ed uniformemente in t (ovvero esiste una costante L tale che f(t, x) f(t, y) L x y per ogni coppia di punti (t, x) D e (t, z) in un intorno di (t, x) ). Allora, per ogni punto (τ, ξ) D esiste un intorno I δ di τ, I δ = [τ δ, τ +δ], nel quale è definita un unica soluzione Φ(, ξ) : I δ D. Tale soluzione è unica nel senso che ogni altra soluzione coincide con Φ nell intervallo comune di definizione. Lemma 1.9 (di Gronwall). Sia I = [a, b) R un intervallo tale che a R e b R { }. Siano inoltre u, v : I R due funzioni continue in I e non negative. Se u è derivabile in I e soddisfa u(t) v(t)u(t) t I allora. u(t) u(a)exp { t a v(s)ds } t I

23 1.5. SISTEMI DINAMICI 23 Definizione L orbita passante per un punto x 0 è data dall insieme { x : t R, x = Φ ( t, x 0 )}. Le orbite di un sistema dinamico possono essere di tre tipi: 1. ridotte ad un solo punto (equilibrio); 2. curve regolari chiuse (orbite periodiche); 3. orbite aperte senza punti di intersezione. Proposizione Sia dato un sistema dinamico ẋ i = f i (x 1,..., x n ). Sia W (x 1,..., x n ) una funzione positiva sull insieme di definizione del sistema dinamico. Allora quest ultimo ammette le stesse orbite del sistema ẋ i = f i (x 1,..., x n )W (x 1,..., x n ) Definizione Dato un campo vettoriale f, continuo e differenziabile, definito su X R n, la divergenza di f nel punto x X è div(f(x)) = n i=1 f i x i (x), cioè è la traccia dello Jacobiano di f. Forti di questa definizione, riportiamo un risultato molto utile: Proposizione Se l insieme X è aperto e f C 1 (X), con div(f(x)) 0 per ogni x X, allora il sistema dinamico ẋ = f(x) non ammette punti di equilibrio asintoticamente stabili.

24 Capitolo 2 Teoria Evolutiva Dei Giochi La teoria dei giochi evolutiva è nata come applicazione della teoria dei giochi alla biologia, grazie all introduzione alla nozione di strategia evolutivamente stabile (ESS) da parte di John Maynard Smith in Evolution and the Theory of Games, [15]. Diversamente dalla teoria classica, in cui i giocatori sono ritenuti perfettamente razionali e giocano una volta sola, in questo contesto si considera una popolazione dalla quale vengono ripetutamente scelti dei giocatori programmati ad utilizzare una specifica strategia. A modificare la frequenza con cui ciascuna strategia viene giocata è un qualche processo evolutivo, su cui i giocatori non hanno nessuna influenza e di cui non sono a conoscenza. Tipicamente, una strategia viene considerata una caratteristica genetica dell individuo, il cui payoff è determinato in base alla capacità riproduttiva dello stesso. In molti contesti, la teoria dei giochi evolutiva risulta essere più accreditata di quella classica, sostituendo all ipotesi molto stringente di razionalità dei giocatori il concetto di stabilità evolutiva, e fornendo una scala unidimensionale di guadagno come successo riproduttivo, al posto di una piuttosto soggettiva funzione di utilità dei giocatori. 2.1 Strategie Evolutivamente Stabili Un concetto-chiave nella teoria evolutiva è quello di strategia evolutivamente stabile. Con esso si intende che una strategia è resistente alla pressione evolutiva che deriva dalla ripetizione di un gioco non cooperativo, discreto e finito, a due giocatori. Una particolare importanza hanno i giochi simmetrici, ai quali d ora in poi faremo riferimento. Il contesto è dunque quello di una popolazione sufficientemente vasta, in 24

25 2.1. STRATEGIE EVOLUTIVAMENTE STABILI 25 cui ogni individuo è programmato geneticamente ad utilizzare una certa strategia S, pura o mista, e dalla quale vengono ripetutamente scelti due giocatori che si affrontano nel gioco, dove per gioco intendiamo un modello matematico di interazione strategica dove i risultati delle azioni degli individui dipendono dalle azioni degli altri. Supponiamo ora che vi sia una mutazione, ovvero una piccola percentuale della popolazione sia ora programmata all utilizzo di una strategia diversa M. La strategia S sarà quindi detta evolutivamente stabile se, per ogni possibile strategia mutante M, esiste una soglia di popolazione, la cosiddetta barriera di invasione, tale che, se la percentuale di individui che giocano la strategia M è minore, allora S ottiene un payoff migliore di M. Questo approccio è focalizzato su interazioni simmetriche tra coppie di giocatori di un unica popolazione. Inoltre vi è una stretta correlazione implicita tra payoff e diffusione di una strategia tra la popolazione: secondo un interpretazione biologica il payoff misura il guadagno della fitness di un individuo. E importante ricordare che, come la nozione di equilibrio di Nash, la proprietà di stabilità evolutiva non specifica come la popolazione arrivi a selezionare una tale strategia, ma permette solo di riconoscerla come tale, una volta che ci si arriva. Oltre al campo biologico, la stabilità evolutiva risulta un criterio notevolmente robusto anche per quanto riguarda i comportamenti umani, per esempio nelle interazioni nel campo economico o sociale. In tali contesti, la stabilità evolutiva richiede che ogni piccolo gruppo che prova una strategia alternativa ottenga risultati peggiori di chi si attiene allo status quo. Si potrebbe quindi pensare ad una strategia evolutivamente stabile come convenzione. Come abbiamo detto, la teoria evolutiva ha come scenario i giochi non cooperativi, discreti, simmetrici, con strategie pure che appartengono all insieme K = {R 1,..., R n }. Le strategie miste sono invece i punti del simplesso S n. Denotando con m S n la strategia media della popolazione, il guadagno atteso di una strategia p S n sarà p T Am. Per esempio, se una frazione ɛ della popolazione gioca la strategia q ed il resto gioca p, m = ɛq + (1 ɛ)p. La seguente definizione formalizza il concetto si stabilità evolutiva: Definizione 2.1. Una strategia p S n è evolutivamente stabile (ESS) se, per ogni q p S n esiste ɛ(q) (0, 1) tale che vale per ogni ɛ : 0 < ɛ < ɛ(q). q T A (ɛq + (1 ɛ) p) < p T A (ɛq + (1 ɛ) p) (2.1)

26 26 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI In poche parole, ciò significa che se p viene adottata da una popolazione di giocatori, non può essere invasa da alcuna strategia alternativa che sia inizialmente rara. Proposizione 2.1. Una strategia p S n è ESS se e solo se q T Ap p T Ap, q S n (2.2) q T Ap = p T Ap q T Aq < p T Aq, q p S n (2.3) Dimostrazione. Se si scrive la (2.1) come (1 ɛ) ( p T Ap q T Ap ) + ɛ ( p T Aq q T Aq ) > 0 si vede subito che vale solo se sono verificate le condizioni (2.2) e (2.3). Proposizione 2.2. Ogni equilibrio di Nash stretto è ESS. Ogni ESS è equilibrio di Nash. Dimostrazione. Un equilibrio di Nash è stretto se vale q T Ap < p T Ap q S n ovvero se e solo se vale la (2.2) strettamente. La (2.2) esprime esattamente il fatto che (p, p) è un equilibrio simmetrico di Nash. Osserviamo che il contrario della prima affermazione non è vero: basti pensare ad una ESS in strategie miste, essa non può essere equilibrio di Nash stretto dal momento che un equilibrio di Nash stretto è necessariamente in strategie pure. Esempio 2.1. Consideriamo il gioco con matrice dei payoff [ ] 3 6 A =. 4 5 Ricorrendo alla classificazione dei giochi 2 2 della sezione 1.4, possiamo immediatamente identificare due equilibri di Nash in strategie pure antisimmetrici, (e 1, e 2 ) e (e 2, e 1 ), ed un equilibrio in strategie miste (p, p) con p = (1/2, 1/2). Si verifica immediatamente che p è ESS, infatti, dalla 2.2), p T Ap = 9/2 > q T Ap = 5/2 q S n. La strategia p è pertanto ESS ma il corrispondente equilibrio di Nash simmetrico non può essere stretto, essendo in strategie miste.

27 2.1. STRATEGIE EVOLUTIVAMENTE STABILI 27 Per fare un esempio, invece, di ESS pura ma che non sia equilibrio stretto, basta considerare un qualsiasi gioco con matrice dei payoff del tipo [ ] x x x y con x > y. Infatti si verifica facilmente che la strategia p = e 1 = [1, 0] T è ESS, ma non è equilibrio stretto. Per un esempio in cui non valga la seconda affermazione, rimandiamo agli esempi. Proposizione 2.3. Se p ints n è ESS, allora è l unica ESS. Dimostrazione. Ponendo q = e i nella (2.2) si ha (Ap) i p T Ap (2.4) per i = 1,..., n. Moltiplicando (Ap) i per p T e utilizzando la definizione di prodotto scalare p T Ap = p i (Ap) i p i p T Ap = p T Ap p i >0 pi>0 Quindi, per gli indici tali che p i > 0 deve valere l uguaglianza in (2.4). Dal momento che p T Ap è una costante a priori incognita, che possiamo indicare con c, si ottiene che (Ap) i c per tutti gli i, con l uguaglianza dove p i > 0. Se p ints n le sue componenti sono tutte non nulle, allora p soddisfa le condizione d equilibrio se e solo se le sue componenti soddisfano il sistema { (Ap)1 =... = (Ap) n = c p p n = 1. Infine, q S n, q T Ap = p T Ap quindi deve necessariamente valere la condizione di stabilità (2.3) per ogni q p. Allora, se esistesse q p S n ESS, dal momento che la (2.2) varrebbe col segno di uguaglianza, si dovrebbe avere q T Ap > p T Ap che non può essere verificata poiché p ints n. Proposizione 2.4. p S n è una ESS se e solo se per ogni x p in qualche intorno di p. p T Ax > x T Ax (2.5)

28 28 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI Dimostrazione. Vediamo che se p è ESS allora la (2.5) è verificata. Scegliendo appropriatamente q per esempio all interno del compatto C := {q S n q i = 0 per qualche i supp(p)}, l unione delle facce del simplesso che non contengono p, possiamo scrivere i punti vicini a p come x = ɛq + (1 ɛ) p, per un opportuno ɛ. Dal momento che q C, vale la definizione di ESS 2.1 per ogni ɛ < ɛ(q). Per provare che vale la (2.5) bisogna trovare un ɛ indipendente da q, per cui la disequazione sia verificata. Si può definire ɛ(q) come funzione continua, per esempio (p q) T Ap se (p q) T Aq < 0, ɛ(q) = (p q) T A(p q) 1 altrimenti. Grazie al teorema di Weierstrass, si può concludere che esiste ɛ := min { ɛ(q) q C}. Moltiplicando la (2.1) per ɛ < ɛ ed aggiungendo (1 ɛ) p T A (ɛq + (1 ɛ) p) ad entrambi i membri, si trova, riarrangiando i termini ( ɛq T + (1 ɛ) p T ) A (ɛq + (1 ɛ) p) < p T A (ɛq + (1 ɛ) p). }{{}}{{}}{{} x T x x Facendo variare ɛ (0, ɛ), si ottiene la (2.5) in un intorno di p. Per l implicazione inversa, il ragionamento è simile: per ogni q S n, basta scegliere un x vicino a p come combinazione convessa di q e p, per un opportuno ɛ. Con questa scelta, per quanto visto, la 2.1 e la (2.5) sono equivalenti. Proposizione 2.5. Se p S n è una strategia debolmente dominata, allora non può essere ESS. Dimostrazione. Supponiamo che p sia un equilibrio di Nash, debolmente dominato da un altra strategia q S n. Allora q è una best reply alternativa a p (p T Ap = q T Ap), e per la dominanza debole q T Aq p T Aq, cioè p non è ESS Esempi Esempio 2.2. Qualsiasi gioco che abbia matrice dei payoff antisimmetrica, 0 x x x 0 x x x 0

29 2.1. STRATEGIE EVOLUTIVAMENTE STABILI 29 ha un equilibrio di Nash p = ( 1 3, 1 3, 1 3), ma si verifica facilmente che questo non può essere ESS perché prendendo, per esempio, q = e 1, si ha, considerando la (2.1), Deve valere allora la (2.2), ma si ha 0 = e T 1 Ap p T Ap = 0. 0 = e T 1 Ae 1 < p T Ae 1 = 0 ovvero la condizione di stabilità non è verificata. Il gioco quindi non ha ESS. L esempio più conosciuto di giochi con matrice dei payoff di questo tipo è sasso-carta-forbice: Esempio 2.3. Seguendo l impronta della sezione 1.4, vediamo per quali categorie di giochi simmetrici 2x2 esistono una, più o nessuna ESS. Categoria I e IV: Abbiamo visto che in questa categoria ricadono i giochi tipo Dilemma del Prigioniero, per i quali vi è un unico equilibrio di Nash stretto. In virtù della proposizione 2.2 possiamo concludere che esso è l unica ESS per questa categoria. Categoria II: Per questa categoria, esistono due equilibri di Nash che sono stretti e quindi sono ESS. Tuttavia, esiste anche un equilibrio di Nash in strategie miste (x, x) ints 2. Pertanto, per la proposizione 2.3, x non può essere ESS, altrimenti dovrebbe essere l unica. Categoria III: In questo caso i due equilibri di Nash in strategie pure non sono stretti. Inoltre, dopo qualche verifica, risulta che (x, x) è ESS e, dal momento che (x, x) ints 2, è l unica. Tornando al caso specifico di Falchi e Colombe, la cui matrice dei payoff è [ ] (v c)/2 v 0 v/2 si trova facilmente che, seguendo la( notazione della ) sezione 1.4, a 1 = (v c)/2 e a 2 = v/2, quindi x = a2 a a 1 +a 2, 1 a 1 +a 2 = ( v c, c v ) c, dove il primo termine è la probabilità di giocare la strategia Falco, o meglio, la frequenza di Falchi nella popolazione, ed il secondo quella delle Colombe. (x, x) è una ESS, infatti x T Ay y T Ay = (v cy 1) 2 > 0 y 1 v 2c c.

30 30 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI Cerchiamo di capire il senso che in questo gioco assume il concetto di ESS: se la frequenza dei Falchi è minore di v/c, allora questa è la strategia mutante, ovvero i pochi Falchi della popolazione si scontrano più spesso contro le Colombe che coi loro simili, ottenendo un payoff maggiore e quindi un successo maggiore come strategia. A questo punto la frequenza dei Falchi cresce, essendo la strategia migliore, fino ad un punto in cui sono le Colombe ad essere rare ed i Falchi molto frequenti. Dal momento che per un Falco è più dispendioso in media affrontare uno scontro con un altro Falco di quanto lo sia per una Colomba incontrare un Falco ((v c)/2 < 0), è ora la strategia della Colomba a diffondersi come più conveniente. In questo senso, in corrispondenza della ESS questa oscillazione non si verifica, ovvero nessuna delle due strategie può essere invasa dall altra. 2.2 Dinamica di Gioco In generale, un processo evolutivo è una combinazione di due elementi: un meccanismo di mutazione che introduce varietà, e un meccanismo di selezione che predilige certe varietà ad altre. Il criterio di stabilità evolutiva ha a che fare con il ruolo delle mutazioni, mentre le dinamiche di replicazione con quello della selezione. La teoria evolutiva dei giochi studia la dinamica del gioco modellandola con equazioni differenziali sul simplesso S n Le Equazioni della Replicazione Consideriamo una popolazione vasta che dispone di n strategie E 1,..., E n pure o miste, sia a i (t) il numero di individui che utilizza la strategia E i. Supponiamo che a(t) = i a i(t) 0 sia il numero totale di individui della popolazione. Definizione 2.2. Lo stato della popolazione è un vettore x = (x 1,..., x n ), in cui ogni componente x i (t) = a i(t) a(t) è la frazione di individui che utilizza la strategia corrispondente, ovvero la frequenza della strategia. Definizione 2.3. Una strategia i è eliminata (per qualche stato iniziale x(0)) se x i (t) 0 per t. Chiaramente i x i(t) = 1 t, quindi x S n. Supponiamo che la popolazione sia sufficientemente vasta e che vi sia un

31 2.2. DINAMICA DI GIOCO 31 passaggio sufficientemente veloce tra una generazione e l altra; allora possiamo assumere che lo stato della popolazione x(t) evolva come funzione differenziabile del tempo in S n. Il rapporto x i /x i è il tasso di crescita della strategia E i e quindi misura il suo successo evolutivo. Possiamo supporre che questo successo possa essere espresso in termini della differenza tra il guadagno f i (x) della strategia E i e il guadagno medio della popolazione f(x) = x i f i (x), imitando il meccanismo della selezione naturale: si ottengono le cosiddette equazioni della replicazione ẋ i = x i ( fi (x) f(x) ) i = 1... n. (2.6) I replicatori sono le strategie, le quali vengono copiate identiche di generazione in generazione. Ciò che può cambiare è lo stato della popolazione. Osservazione 2.1. La frazione di popolazione programmata ad usare una certa strategia cresce nella dinamica della replicazione solo se la strategia guadagna un payoff maggiore di quello medio attuale della popolazione. Proposizione 2.6. Il simplesso S n, il suo interno ints n e il suo bordo S n sono invarianti rispetto alle equazioni della replicazione (2.6). Dimostrazione. invarianza di S n : S n è dato dall insieme {x S n i, x i = 0}; se t i (t) = 0, allora x i = 0 t in base alle (2.6). invarianza di S n : per prima cosa osserviamo che l insieme H = {x R n x i = 1} è invariante. Infatti, se x H, d dt xi = ẋ i = ( {}} ){{ }}{ x i f i (x) xi xj f j (x) = 0 Notiamo inoltre che S n = H R n +. Vogliamo dimostrare che ogni soluzione che parta nel simplesso, non ne esce: se per assurdo non fosse vero, esisterebbero ξ S n ed un tempo t, tali che la soluzione Φ( t, ξ) / S n (ma Φ( t, ξ) H dal momento che H è invariante). Questa soluzione dovrebbe quindi attraversare il bordo di S n ; supponendo che f sia lipschitziana, possiamo applicare il teorema di esistenza ed unicità, il quale garantisce che Φ sia soluzione unica delle equazioni della replicazione e che sia continua in t. Per continuità, dunque, dovrebbero esistere un tempo s < t ed una strategia i, tali che Φ i ( s, ξ) = 0 e Φ i ( t, ξ) < 0. Ciò è assurdo in virtù del fatto che abbiamo ottenuto una soluzione Φ(t, ξ) : R R n passante per Φ i ( s, ξ), distinta da quella con la i-esima coordinata costantemente pari a 0, violando l unicità. 1 f( x)

32 32 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI invarianza di ints n : ripetendo lo stesso ragionamento, si vede subito che un punto che parte all interno del simplesso, non può raggiungere il bordo altrimenti si avrebbero due soluzioni distinte passanti per uno stesso punto sul bordo, violando l unicità. Grazie a questo risultato, possiamo d ora in avanti considerare solo la restrizione delle (2.6) al simplesso S n. Osservazione 2.2. Esistono altre dinamiche, oltre quella della replicazione, che si basano su ipotesi diverse. In particolare segnaliamo le dinamiche di imitazione, di risposta ottima e correzione. Introduciamo brevemente le prime due, la terza verrà approfondita in seguito. Per un discorso più approfondito, si faccia riferimento a [7],[12] e [14]. Dinamica di Imitazione In molti contesti, per esempio per quanto riguarda le interazioni sociali tra giocatori umani, le strategie che ottengono più successo si diffondono attraverso l imitazione più che per ereditarietà. Supponiamo quindi che occasionalmente venga scelto a caso un giocatore dalla popolazione, e che gli venga offerta l opportunità di cambiare la sua strategia. Egli quindi sceglie casualmente un altro giocatore, di cui adottare la strategia con una certa probabilità. Un possibile modello potrebbe essere il seguente: ẋ i = x i [f ij (x) f ji (x)] x j, j dove f ij (x) = f ((Ax) i, (Ax) j ) definisce una regola di imitazione, identica per ogni giocatore ed indipendente da i e j. Ovviamente, diverse scelte di f definiscono diverse dinamiche. Una scelta abbastanza naturale potrebbe essere quella di imitare una strategia migliore della propria, cioè f(u, v) = 0 se u < v e f(u, v) = 1 se u > v. Dinamica di Risposta Ottima Consideriamo generazioni discrete di individui ed assumiamo che ad ogni generazione subentri un nuovo giocatore, razionale, in grado di valutare ed

33 2.2. DINAMICA DI GIOCO 33 adottare come strategia la risposta ottima allo stato corrente della popolazione. Pertanto, alla generazione k+1, il nuovo arrivato sceglie una strategia r k+1 {E 1,..., E n } che massimizzi il suo payoff atteso contro la strategia media (o stato) della popolazione s k = 1 k k i=1 r i. Il nuovo giocatore utilizzerà la strategia r k+1 per il resto del gioco. La strategia media viene modificata nel modo seguente: s k+1 s k = r k+1 s k, k + 1 con r k+1 β(s k ), l insieme delle risposte ottime contro la strategia s k S n, cioè β(x) = {y S N : y T Ax = max z S N z T Ax}. (2.7) Passando da generazioni discrete a continue, dopo alcune considerazioni si perviene alla dinamica di risposta ottima ẋ = β(x) x Dinamica ed ESS Torniamo al contesto iniziale: consideriamo un gioco G in cui una popolazione dispone di N strategie pure R 1,..., R N, vertici del simplesso S N ; tutte le strategie per questo gioco (pure e miste) sono indicate con E 1,..., E n S N dove N n. Indichiamo con U R N N la matrice dei payoff e con x, vettore di n componenti (i.e. x S n ), lo stato della popolazione nel gioco G. Costruendo una matrice A R n n con, come componenti, i payoff di una strategia i contro una strategia j (i.e. a ij = E T i UE j ), si può considerare un nuovo gioco G nel quale A è la matrice dei payoff e per il quale E 1,..., E n possono essere considerate strategie pure, mentre le componenti dello stato della popolazione x = (x 1,..., x n ) per G diventano le strategie miste per G. Osserviamo inoltre che f i (x) = E T i U j x j E j = j E T i UE j x j = j a ij x j = (Ax) i. Con questa notazione, quindi, le equazioni della replicazione diventano ẋ i = x i ( (Ax)i x T Ax ). (2.8) I punti di equilibrio per (2.8) saranno quei punti z = (z 1,..., z n ) S n tali che (Az) i = z T Az = c per ogni z i > 0.

34 34 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI Osservazione 2.3. In seguito, salvo diverse indicazioni, la condizione iniziale per la dinamica della replicazione sarà del tipo x(0) = x ints n perché altrimenti, per l invarianza di S n, troveremmo soltanto soluzioni sul bordo del simplesso. Ricapitolando, vi è un parallelismo tra le strategie pure R 1,..., R N, punti di S N, e matrice dei payoff U di dimensione N N da una parte e i tipi di giocatori E 1,..., E n, punti di S n, e matrice dei guadagni attesi A di dimensione n n dall altra. Definizione 2.4. x S n è equilibrio di Nash (simmetrico) per G se y T Ax x T Ax x S n. Definizione 2.5. Uno stato x S n è evolutivamente stabile se valgono y T Ax x T Ax y S n (2.9) y T Ax = x T Ax y T Ay < x T Ay y x S n, (2.10) ovvero x S n è uno stato evolutivamente stabile per G se è ESS per G. Esempio 2.4. Riprendiamo l esempio di Falchi e Colombe: vi sono due strategie pure, E 1 = (1, 0) ed E 2 = (0, 1), e due giocatori, la matrice di payoff è [ ] (v c)/2 v U =. 0 v/2 Vogliamo scrivere le equazioni della replicazione: chiamiamo x 1 e x 2 rispettivamente le frequenze di E 1 ed E 2. Dal momento che, per questo gioco, n = 2 e quindi x 2 = 1 x 1, il sistema della replicazione si riduce alla sola equazione per x 1 : ed in questo caso (x 1 = x) ẋ 1 = x 1 (1 x 1 )((Ax) 1 (Ax) 2 ) ẋ = 1 x(1 x)(v cx). 2 Come abbiamo già visto, la strategia ( v c, c v ) c è una ESS per il gioco. Notiamo, inoltre, che il punto x = v c è di equilibrio per l equazione della replicazione, è asintoticamente stabile dal momento che lo Jacobiano è negativo,

35 2.2. DINAMICA DI GIOCO 35 ed un teorema che vedremo in seguito garantisce addirittura che sia globalmente stabile. Supponiamo ora che, alle due strategie pure, si aggiunga una terza strategia mista, ovvero una terza razza che si comporti a volte come un falco, a volte come una colomba: E 3 = xe 1 + (1 x)e 2 = ( v c, c v ) v. Costruiamo la matrice dei payoff A: A = E T 1 UE 1 E T 1 UE 2 E T 1 UE 3 E T 2 UE 1 E T 2 UE 2 E T 2 UE 3 E T 3 UE 1 E T 3 UE 2 E T 3 UE 3 = v c 2 v v 0 2 v(c v) v(c+v) 2c 2c v(c v) 2c v(c v) 2c v(c v) 2c e osserviamo che E 3 è ESS nel gioco originale e per questo non può essere invasa da E 1 o E 2. Tuttavia, lo stato corrispondente e 3 = (0, 0, 1) non è evolutivamente stabile. Ricordiamo che, ripetendo il ragionamento della dimostrazione della proposizione 2.3, le condizioni perché x sia ESS per G diventano (Ax) i < x T Ax i t.c. x i = 0 (2.11) (Ax) i = x T Ax i t.c. x i > 0 (2.12) Teorema 2.7. Valgono le seguenti proprietà: 1. Se z è un equilibrio di Nash per G, allora è punto di equilibrio per (2.8); 2. Se z è un punto di equilibrio stabile per (2.8), allora è equilibrio di Nash per G; 3. Se z è un punto limite di un orbita interna per (2.8) ( cioè ξ z ints n tale che lim t Φ(t, ξ) = z), allora è un equilibrio di Nash per G. 4. Se z è uno stato evolutivamente stabile per G (ovvero è ESS per G), allora è un punto di equilibrio asintoticamente stabile per (2.8). Dimostrazione. 1. Se z è equilibrio di Nash allora verifica (Az) i = z T Az j tale che z j > 0, quindi annulla la parte destra di (2.8) ovvero è punto di equilibrio per il sistema. 2. Supponiamo per assurdo che z sia un punto di equilibrio stabile per il sistema, ma che non sia un equilibrio di Nash per G. Essendo punto di equilibrio del sistema, z soddisfa (Az) i = z T Az j

36 36 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI tale che z j > 0, ma non essendo equilibrio di Nash deve necessariamente esistere un indice i tale che z i = 0 e (Az) i > z T Az (cioè è violata la condizione (2.3) ). Per continuità esiste dunque un δ = δ(z) tale che in un intorno I di z (Ay) i y T Ay δ y I. Una qualsiasi soluzione y(t) del sistema (2.8) con y(0) I allora soddisfa ẏ i (t) = y i (t) ( (Ay) i y T Ay ) y i (t)δ t > 0 t.c. y(t) I. Applicando il lemma di Gronwall con v(t) = δ otteniamo y(t) y(0)e δt t > 0 t.c. y(t) I, ovvero qualsiasi soluzione del sistema che parta in I, si allontana da z con velocità esponenziale, in contraddizione con la nozione di equilibrio stabile. 3. Come per il punto precedente procediamo per assurdo: supponiamo che ξ z ints n, tale che lim t Φ(t, ξ) = z ma che i tale che z i = 0 e (Az) i > z T Az, cioè z non sia un equilibrio di Nash. Come prima, deve esistere δ = δ(z) tale che, in corrispondenza della strategia i, (Az) i z T Az > δ. Dal momento che per ipotesi Φ(t, ξ) z, esiste un certo tempo t tale che, cioè (AΦ) i Φ T AΦ > δ/2 Φ i (t, ξ) > Φ i (t, ξ) δ 2 t t t t. Applicando il lemma di Gronwall con v(t) = δ 2, risulta Φ(t, ξ) > Φ( t, ξ)e δ 2 (t t) t t, ma, dal momento che Φ( t, ξ) > 0, si avrebbe Φ( t, ξ), in contraddizione con l ipotesi di partenza su z. 4. Supponiamo che z sia uno stato evolutivamente stabile; vogliamo usare il teorema di Lyapunov per dimostrare che è un punto di equilibrio asintoticamente stabile. La funzione V (x) = z i >0 z z i i z i >0 x z i i, risulta infatti essere una funzione di Lyapunov per z:

37 2.2. DINAMICA DI GIOCO 37 V (z) = 0 V (x) > 0 per x z in un intorno di z, infatti, V (x) > 0 < ( ) ( log < log che equivale a z i >0 x z i i z i >0 z z i i z i log z i >0 ( xi z i z i >0 ) < 0. x z i i z i >0 Quest ultima disuguaglianza è verificata, come si può vedere sfruttando la stretta concavità del logaritmo e la disuguaglianza di Jensen: ) z i log z i >0 ( xi z i ) ( log z i >0 z i x i z i = log 1 = 0 dove l uguaglianza si ha solo nel caso in cui x i = z i per i = 1,..., n. V (x) < 0 x z, in un intorno di z: per verificarlo è sufficiente dimostrare che P (x) > 0 in un intorno di z, dove P := V + = z i >0 z z i i z i >0 x z i i, poiché il termine z i >0 zz i i è costante rispetto a x e pertanto le derivate di V e P differiscono solo per il segno. Notiamo che P è una funzione non negativa, dunque limitiamo lo studio del segno della derivata agli x {x x i > 0 i t.c. z i > 0}: = P z i >0 P (x) = P d log P dt = P d z i log x i = dt z i >0 x i z i = P ( z i (Ax)i ) x T Ax ) = P ( z T Ax x T Ax ). x i z i >0 Dal momento che z per ipotesi è uno stato evolutivamente stabile, per ogni x z, questa quantità risulta positiva, di conseguenza V (x) è negativa. Abbiamo verificato quindi che V (x) è funzione di Lyapunov per z, in particolare essa risulta essere di Lyapunov stretta, dunque applicando il teorema risulta che z è asintoticamente stabile per (2.8). z z i i )

38 38 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI Esempio 2.5. Consideriamo il gioco con matrice dei payoff [ ] Gli equilibri di Nash (simmetrici) sono (e 1, e 1 ), (e 2, e 2 ), stretti, e (p, p) := ([3/4, 1/4], [3/4, 1/4]) ints n. In virtù dei teoremi 2.2 e 2.3, possiamo immediatamente concludere che e 1 ed e 2 sono ESS, mentre p non lo è. Dal teorema precedente, ci aspettiamo che e 1, e 2 e p siano punti di equilibrio per la dinamica della replicazione e che, in particolare, le due ESS siano asintoticamente stabili nella dinamica della replicazione. L equazione della replicazione risulta ẋ = x( 4x 2 + 7x 3), la cui parte destra si annulla per x = 1, 0, 3/4, come previsto. Calcolando gli esponenti di Lyapunov, si trova x = 1 λ = 1 < 0 x = 0 λ = 3 < 0 x = 3/4 λ = 3/4 > 0 Pertanto, grazie al teorema 1.6, possiamo concludere che effettivamente le due ESS sono asintoticamente stabili nella dinamica della replicazione. Invece la strategia p risulta essere instabile. Osservazione 2.4. Il viceversa della prima affermazione vale solo se z ints n. Infatti, in quel caso z i 0 per ogni i ed essendo z punto di equilibrio (Az) 1 =... = (Az) n, quindi z è equilibrio di Nash. Invece, se z S n, esiste un indice i tale che z i = 0, ma il fatto che z sia punto di equilibrio non esclude che possa verificarsi che (Az) i > z T Az, quindi z potrebbe non essere equilibrio di Nash. Esempio 2.6. Un esempio che mostra che non è verificato il viceversa della quarta affermazione del teorema 2.7, ovvero di punto di equilibrio asintoticamente stabile che non sia evolutivamente stabile, si ottiene considerando la matrice A = Per questo gioco, vi sono due equilibri di Nash (simmetrici): e 1 = (1, 0, 0) e m = ( 1 3, 1 3, 1 3). Ricordando che x3 = 1 x 1 x 2, le equazioni della.

39 2.2. DINAMICA DI GIOCO 39 replicazione sono: ẋ 1 = x 1 ( 5x x x 1 + 2x 2 4) ẋ 2 = x 2 ( 5x x2 2 3x 1 13x 2 + 5) Il punto m è di equilibrio per il sistema della replicazione; inoltre gli esponenti di Lyapunov del sistema risultano avere parte reale negativa: 1 3 ± 2 3 i. Ne segue che m è un pozzo e quindi è asintoticamente stabile. Tuttavia è immediato verificare che e 1 è ESS; ciò esclude la possibilità che lo sia anche m dal momento che m ints 3 e quindi, se fosse ESS, sarebbe l unica. Per gli esempi in cui non sono verificate le altre affermazioni, rimandiamo all esempio dettagliato del gioco Carta-Sasso-Forbice. Corollario 2.8. Se z ints n è una ESS per G, allora è un punto di equilibrio globalmente asintoticamente stabile per (2.8). Dimostrazione. Ricalcando la dimostrazione del teorema, si ha che P (x) > 0 x z ints n Dinamica e Strategie Strettamente Dominate Vogliamo ora vedere come si comportano le strategie strettamente dominate nella dinamica della replicazione. Ricordiamo che, dato il gioco simmetrico con matrice dei payoff A, una strategia e i è strettamente dominata se esiste una strategia (pura o mista) y S n tale che (Ax) i < y T Ax per ogni x S n. Se i giocatori sono razionali, si può supporre che nessuno di essi userà mai una strategia strettamente dominata. La dinamica della replicazione tuttavia, non presuppone la razionalità dei giocatori ed una domanda legittima può essere quindi come evolve la frequenza di una strategia strettamente dominata. Ci proponiamo ora di dare una risposta: vedremo che la frequenza di tali strategie tende effettivamente a zero. Introduciamo una classe più generale di giochi, per i quali la dinamica è descrivibile con equazioni del tipo ẋ i = x i g i (x), (2.13) dove ogni funzione g i è C 1 (Ω), Ω aperto, Ω S n, e ha la proprietà che xi g i (x) = 0 per ogni x S n, (2.14) in modo che S n e S n siano invarianti.

40 40 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI Definizione 2.6. Una dinamica di gioco è detta a payoff monotono se, per ogni x S n g i (x) > g j (x) (Ax) i > (Ax) j. (2.15) Ciò significa che i tassi di crescita della frequenza di strategie diverse sono ordinati secondo il loro payoff (la frequenza di strategie pure con payoff maggiore cresce più velocemente). Osservazione 2.5. La dinamica della replicazione è a payoff monotono, infatti g i (x) = (Ax) i x T Ax e quindi g i (x) g j (x) = (Ax) i (Ax) j. Esempio 2.7. Un modello molto popolare è il seguente: n ẋ i = x i e k(ax) i x j e k(ax) j, (2.16) con k costante positiva. Questo modello è interessante perché approssima la dinamica della replicazione per k 0 e la dinamica di risposta ottima per k. Ripetendo ragionamenti già fatti per la dinamica della replicazione, si può dimostrare il seguente risultato: Proposizione 2.9. Ogni dinamica di gioco a payoff monotono ha gli stessi punti di equilibrio della dinamica della replicazione. Inoltre vale il teorema 2.7. Lemma Sia x(t) S n lo stato della popolazione. Se x i (t) soddisfa le equazioni della dinamica di gioco (2.13), allora vale la regola del quoziente: ( xi ) = x j ( xi x j j=1 ) (g i (x) g j (x)) (2.17) Dimostrazione. Sviluppando il termine di destra e sostituendo le equazioni (2.13) per x i ed x j si ha la tesi. Dimostriamo ora un primo risultato. Proposizione Se una strategia pura i è strettamente dominata da un altra strategia pura j, cioè (Ax) i < (Ax) j per ogni x S n, allora x i 0 lungo tutte le soluzioni interne della dinamica (2.13) a payoff monotono.

41 2.2. DINAMICA DI GIOCO 41 Dimostrazione. Dal momento che la dinamica di gioco è a payoff monotono, (Ax) i < (Ax) j g i (x) < g j (x). Per continuità esiste δ > 0 tale che g i (x) g j (x) < δ. Allora, grazie alla regola del quoziente, si ottiene ( xi ) (t) x j (t) < x i(t) x j (t) δ ovvero il rapporto x i (t)/x j (t) 0 con velocità esponenziale. Dal momento che x j è limitata dal valore 1, ciò significa che x i (t) 0 per t. Possiamo ora passare ad un risultato più generale, introducendo per prima cosa la dinamica di gioco monotona convessa: Definizione 2.7. Una dinamica di gioco (2.13) è detta monotona convessa se y T Ax > (Ax) i y j g j (x) > g i (x) (2.18) per ogni i e per ogni x, y S n. Osservazione 2.6. La dinamica della replicazione è monotona convessa. Infatti g i (x) = (Ax) i x T Ax e yj g j (x) = y j (Ax) j y j x T Ax = y T Ax x T Ax. t, Teorema Se la dinamica di gioco (2.13) è monotona convessa e la strategia pura R i è iterativamente strettamente dominata, allora la sua frequenza x i (t) 0. Dimostrazione. Supponiamo inizialmente che R i sia strettamente dominata da una strategia y S n ; per la proprietà di monotonia convessa e per continuità, esiste una costante δ > 0 tale che g i (x) y j g j (x) < δ per ogni x S n. Consideriamo la funzione P (x) := x i j x y j j, così definita si ha x i (t) < P (x(t)) per ogni t. Supponiamo che inizialmente vengano giocate tutte le strategie: per ogni x(t) ints n P (x) = k = P (x) P (x) ẋ j = ẋ i x j ( g i (x) k j x y j j y k g k (x) x i ) k < δp (x), ẋ k y k x y k 1 k j k x y j j =

42 42 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI dove l ultima uguaglianza è dovuta al fatto che g i (x) = ẋ i /x i. Pertanto, P (x(t)), e quindi x i (t), decrescono con andamento esponenziale. Questo ragionamento può essere ripetuto per le strategie strettamente dominate al round successivo e così via, finché non vi sono più strategie da eliminare. Quindi tutte le frequenze di strategie pure strettamente dominate convergono a 0. Esempio 2.8. Consideriamo il gioco con matrice dei payoff a c b γ b a c γ A = c b a γ, a + β a + β a + β 0 con c < a < b, 0 < β < b a e γ > 0, le strategie R 1, R 2, R 3 formano un ciclo di risposte ottime (se il primo giocatore gioca la prima riga, la risposta ottima del secondo è giocare la seconda colonna, e così via), pertanto la faccia del simplesso con x 4 = 0 è limitato da un orbita eteroclina e 1 e 2 e 3 e 1. Inoltre, in questa faccia giace il punto p = (1/3, 1/3, 1/3, 0). Notiamo che la strategia R 4 può essere invasa da ciascuna delle altre R i, i = 1, 2, 3, infatti R T 4 AR 4 = 0 < γ = R T i AR 4, i = 1, 2, 3. Analogamente, ogni R i, i = 1, 2, 3 può essere invasa da R 4 dal momento che R T i AR i = a < a + β = R T 4 AR i, i = 1, 2, 3. Quindi ( sul bordo ) del simplesso ci sono altri tre punti di equilibrio z 1 = γ β γ+β, 0, 0, γ+β, z 2 e z 3 analoghi, che attraggono tutte le orbite sulle facce x 2 = 0, x 3 = 0 e x 1 = 0 rispettivamente, e che, pertanto, cono collegati da un altra orbita eteroclina (figura 2.1). Se a + b + c > 3(a + β) (2.19) la strategia p è un equilibrio di Nash e domina strettamente la strategia R 4. Per il teorema 2.12 possiamo concludere che, per la dinamica della replicazione, e in generale per ogni dinamica monotona convessa, x 4 (t) 0. In particolare la (2.19) implica 2a < b + c, quindi per l equazione della replicazione vecp è globalmente stabile: attrae tutte le orbite nell interno della faccia del simplesso con x 4 = 0.

43 2.2. DINAMICA DI GIOCO 43 Figura Non convergenza Nel paragrafo abbiamo visto che, se tutte le strategie sono giocate inizialmente con frequenza non nulla e la soluzione della dinamica della replicazione converge ad un punto, allora questo punto è un equilibrio di Nash. In particolare, risulta che le soluzioni di diverse dinamiche evolutive convergono agli equilibri di Nash per importanti classi di giochi, quali i giochi con potenziale o i giochi a somma zero (si veda per esempio [14]). Tuttavia, in generale, le soluzioni di dinamiche evolutive non devono necessariamente convergere agli equilibri di Nash. Per illustrarne un esempio, introduciamo una dinamica più generale di quella della replicazione. Definizione 2.8. Un equazione differenziale ẋ = f(x) su S n è detta dinamica di correzione, se ẋ T Ax 0, (2.20) con disuguaglianza stretta se x non è equilibrio di Nash (o punto stazionario della dinamica della replicazione). Questa definizione richiede, di fatto, che la popolazione del gioco si muova verso una risposta miglioro contro la situazione attuale, cioè x(t + h) T Ax(t) > x(t) T Ax(t), per h > 0 piccolo. Nel limite per h 0 si ha la definizione. Proposizione Ogni dinamica a payoff monotono è una dinamica di correzione.

44 44 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI Da questo risultato segue che anche la dinamica della replicazione è una dinamica di correzione. Esempio 2.9. Sia, ɛ 0, ɛ ɛ A = 1 ɛ 0 0. (2.21) 0 1 ɛ 0 Per ɛ 0 il gioco ha un unico equilibrio di Nash: p = (1/4, 1/4, 1/4, 1/4). Le equazioni della replicazione risultano ẋ 1 = x 1 (ɛ (x 4 x 1 x 2 x 2 x 3 x 3 x 4 x 1 x 4 ) + (2x 1 x 3 + 2x 2 x 4 x 3 )) ẋ 2 = x 2 (ɛ (x 1 x 1 x 2 x 2 x 3 x 3 x 4 x 1 x 4 ) + (2x 1 x 3 + 2x 2 x 4 x 4 )) ẋ 3 = x 3 (ɛ (x 2 x 1 x 2 x 2 x 3 x 3 x 4 x 1 x 4 ) + (2x 1 x 3 + 2x 2 x 4 x 1 )) ẋ 4 = x 4 (ɛ (x 3 x 1 x 2 x 2 x 3 x 3 x 4 x 1 x 4 ) + (2x 1 x 3 + 2x 2 x 4 x 2 )) che si annullano nei vertici del simplesso, in p e in altri due punti: F 13 = (1/2, 0, 1/2, 0) e F 24 = (0, 1/2, 0, 1/2). Esiste un ciclo di risposte ottime in strategie pure Γ := {e 1 e 2 e 3 e 4 e 1 } (cioè se il primo giocatore gioca la prima riga, il secondo ha come risposta ottima la seconda colonna e così via, ricordando che B = A T ). Per ɛ = 0, si ha A = A T. In questo caso non vi è più un unico equilibrio di Nash: oltre a p, tutti i punti di Γ sono equilibri di Nash. Il payoff medio è dato da P (x) = x T Ax = 2(x 1 x 3 + x 2 x 4 ) ed ha valore massimo 0 su Γ, valore minimo 1/2 in corrispondenza di F 13 ed F 24. Infine, P (p) = 1/4. Chiaramente P (x(t)) cresce monotonicamente lungo ogni soluzione di una dinamica di correzione, infatti P (x) = ẋ T Ax + x T Aẋ = 2ẋ T Ax 0 x, dove l ultima uguaglianza segue dalla simmetria di A. Dalla definizione di dinamica di correzione sappiamo, in particolare, che cresce strettamente in ogni punto del simplesso eccetto gli equilibri di Nash ed al più i punti F 13 ed F 24. P (x) è dunque una funzione di Lyapunov stretta per l insieme di equilibri di Nash Γ che, pertanto, risulta asintoticamente stabile per ogni dinamica di correzione, con bacino di attrazione l insieme {x : P (x) > 1/4}. Formalizziamo il risultato dell esempio nel seguente teorema:

45 2.3. IL GIOCO CARTA-SASSO-FORBICE 45 Teorema Per ogni dinamica di correzione che dipenda in modo continuo dai payoff, e per ogni δ > 0, esiste un ɛ 0 > 0 tale che, per ogni scelta di ɛ nel gioco (2.21) con ɛ < ɛ 0, e per ogni condizione iniziale x con P (x) > 1/4 + δ, le soluzioni non convergono all equilibrio interno di Nash p, ma entrano nell insieme {x : P (x) > δ} e ci rimangono per sempre. Dimostrazione. Segue dal fatto che P (x) è ancora una funzione di Lyapunov per la dinamica perturbata fuori da un qualche intorno di Γ e p. Questo teorema sottolinea il fatto che l analisi degli equilibri di Nash non garantisce in ogni caso la convergenza della dinamica del gioco. In molte situazioni un comportamento ciclico è inevitabile. 2.3 Il Gioco Carta-Sasso-Forbice Il gioco Carta-Sasso-Forbice (o Rock-Paper-Scissors, RPS) consiste nello scegliere tra tre strategie pure tali che R 1 viene battuta da R 2 la quale viene battuta da R 3 che a sua volta viene sconfitta da R 1. La matrice generica dei payoff è Â = 0 a 2 b 3 b 1 0 a 3 a 1 b 2 0 (2.22) dove a i, b i > 0. Questo genere di giochi ha un unico equilibrio di Nash z ints 3 dato da z = 1 Σ (a 2a 3 + a 3 b 2 + b 2 b 3, a 1 a 3 + a 1 b 3 + b 3 b 1, a 1 a 2 + a 2 b 1 + b 1 b 2 ) (2.23) con Σ scelto opportunamente, in modo che z S 3. Nel caso di simmetria ciclica (cioè a 1 = a 2 = a 3 e b 1 = b 2 = b 3 ), l unico equilibrio di Nash è z = ( 1 3, 1 3, 3) 1 ; inoltre, dividendo ogni termine per ai, la matrice dei payoff diventa A = 0 1 ɛ ɛ ɛ 0. (2.24) Il gioco originale si ottiene per ɛ = 1. Vogliamo capire per quali valori di ɛ z è stabile o instabile nel sistema della replicazione. Per fare ciò, studiamo la funzione f(x) = x 1 x 2 x 3 e vediamo

46 46 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI dove cresce, decresce o è costante. Il sistema della replicazione è quindi la derivata di f(x) è Ricordando che ( ẋ 1 = x 1 ɛx3 x 2 x T Ax ) ( ẋ 2 = x 2 ɛx1 x 3 x T Ax ) ( ẋ 3 = x 3 ɛx2 x 1 x T Ax ) (2.25) f = ẋ 1 x 2 x 3 + x 1 ẋ 2 x 3 + x 1 x 2 ẋ 3 = = x 1 x 2 x 3 ( ɛ 1 3x T Ax ). 1 = (x 1 + x 2 + x 3 ) 2 = x 2 + 2(x 1 x 2 + x 1 x 3 + x 2 x 3 ) possiamo calcolare x T Ax che risulta da cui x T Ax = ɛ 1 2 ( 1 x 2), f ɛ 1 ( ) = x 1 x 2 x 3 3 x La funzione x 2 è massima nei tre vertici del simplesso S 3, in cui raggiunge il valore 1, ed ha un minimo nel punto z = (1/3, 1/3, 1/3) che vale 1/3. Perciò, f è nulla nel punto z; per ogni x z ints 3 è positiva se ɛ > 1, negativa se ɛ < 1 ed è costantemente nulla se ɛ = 1. Come nella dimostrazione del teorema 2.7, abbiamo trovato una funzione di Lyapunov V (x) = f(x) 1/3 per z nei casi ɛ > 1 ed ɛ = 1 la quale risulta essere minima su S 3 ed ha un massimo in x = z. In particolare, per ɛ > 1, V (x) è di Lyapunov stretta, quindi z è un punto di equilibrio asintoticamente stabile nel sistema della replicazione. Inoltre risulta essere anche una ESS, infatti (proposizione 2.4): x T Ax = ɛ 1 2 ( 1 x 2) < ɛ 1 = z T Ax x z. 3 Se, invece ɛ = 1, V (x) è funzione di Lyapunov, ma non stretta, il che garantisce solo la stabilità del punto z. Ciò significa che, per ogni punto iniziale x 0 ints 3, la soluzione del sistema della replicazione Φ(t, x 0 ) si muove lungo la curva chiusa x 0 1 x0 2 x0 3 = γ, ovvero le soluzioni sono periodiche. Se x 0 = z, la curva coincide con il punto. Invece, se ɛ < 1, si ha il seguente risultato dovuto a Zeeman [21]:

47 2.3. IL GIOCO CARTA-SASSO-FORBICE 47 Proposizione Se ɛ < 1, per ogni condizione iniziale x 0 z, la soluzione x(t) converge al bordo del simplesso S 3 = {x S 3 : V (x) = 0} per t. Dimostrazione. Se ɛ < 1, x S 3, x z, Più precisamente z T Ax < x T Ax. ( ) 3 1 ɛ z T Ax x T Ax = (z x) T A(z x) = (z i x i ) 2 (2.26) 2 dove la prima uguaglianza segue dal fatto che z ints 3, quindi (Az) i z T Az = 0 per ogni i. Ricordando che V (x) assume valore minimo 0 su S 3 e massimo 1/3 in z, denotando con v(t) := V (x(t)) abbiamo ( ) 3 1 ɛ v(t) = (z T Ax x T Ax)v(t) = v(t) (z i x i ) 2 < 0 v(t) 0, x z. 2 1 (2.27) Ne segue che, per ogni condizione iniziale x(0) z, v(t) decresce verso zero, quindi x(t) converge al bordo del simplesso. Ciò significa che il punto z è instabile nella dinamica della replicazione e che le soluzioni del sistema della replicazione sono delle curve spiraleggianti che si allontanano da z. Inoltre, il caso ɛ < 1 è un esempio del fatto che il viceversa della prima affermazione del teorema 2.7 non è verificato: i punti di equilibrio della dinamica della replicazione sono infatti quattro (e 1, e 2, e 3 e z) ma solo z è equilibrio di Nash. In particolare, seguendo il ragionamento dell osservazione 2.4, si ha per esempio Ricapitolando, z è: (Ae 1 ) 2 = ɛ > e T 1 Ae 1 = 0. instabile, quando ɛ < 1; questo caso mostra dunque che i viceversa della prima e della seconda affermazione del teorema 2.7 non sono verificati(figura 2.2); stabile, ma non asintoticamente, quando ɛ = 1; z non è attrattivo quindi non può essere punto limite di alcuna soluzione (cioè non vale il contrario della terza affermazione,figura 2.6); asintoticamente stabile, quando ɛ > 1. In particolare, grazie al teorema 2.8, è addirittura globalmente stabile. 1

48 48 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI Notiamo, infine, che nei primi due casi il teorema 2.7 implica che z non possa essere evolutivamente stabile, mentre, come abbiamo già visto, nel terzo caso z è ESS (figura 2.10). Consideriamo ora la dinamica definita da (2.16); per il gioco RPS risulta ẋ 1 = x 1 (e k( x 2+ɛx 3 ) x 1 e k( x 2+ɛx 3 ) x 2 e k( x 3+ɛx 1 ) x 3 e k( x 1+ɛx 2 ) ); ẋ 2 = x 2 (e k( x 1+ɛx 1 ) x 1 e k( x 2+ɛx 3 ) x 2 e k( x 3+ɛx 1 ) x 3 e k( x 1+ɛx 2 ) ); ẋ 3 = x 3 (e k( x 3+ɛx 2 ) x 1 e k( x 2+ɛx 3 ) x 2 e k( x 3+ɛx 1 ) x 3 e k( x 1+ɛx 2 ) ). (2.28) Per la proposizione 2.9, sappiamo che valgono gli stessi risultati della dinamica della replicazione. Di seguito mettiamo a confronto le figure ottenute per la dinamica della replicazione (in blu) (figure 2.2, 2.6, 2.10) e per il sistema (in azzurro)(2.28) rispettivamente per k=0.2 ( figure 2.3, 2.7, 2.11), k=2 (figure 2.4, 2.8, 2.12) e k=10 (figure 2.5, 2.9, 2.13). Figura 2.2: ɛ < 1 Figura 2.3: ɛ < 1, k=0.2 Figura 2.4: ɛ < 1, k=2 Figura 2.5: ɛ < 1, k=10

49 2.3. IL GIOCO CARTA-SASSO-FORBICE 49 Figura 2.6: ɛ = 1 Figura 2.7: ɛ = 1, k=0.2 Figura 2.8: ɛ = 1, k=2 Figura 2.9: ɛ = 1, k=10 In generale, per ogni gioco del tipo (2.22) vale un risultato analogo, formalizzato dal seguente teorema: Teorema Sono equivalenti le seguenti condizioni (si vedano [6] e [7]): 1. z è asintoticamente stabile; 2. z è globalmente stabile; 3. det  > 0, cioè a 1a 2 a 3 < b 1 b 2 b 3 ; 4. z T Âz > 0. Se deta = 0, tutte le orbite in ints n sono orbite chiuse intorno a z. Se deta < 0, allora tutte le orbite in ints n, a parte quelle che partono da z, convergono verso il bordo. Più precisamente, per x ints n, l insieme di

50 50 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI Figura 2.10: ɛ > 1 Figura 2.11: ɛ = 1, k=0.2 Figura 2.12: ɛ = 1, k=2 Figura 2.13: ɛ = 1, k=10 punti di accumulazione di x(t), per t, è un orbita eteroclina che consiste dei tre vertici del simplesso e dei tre bordi che li congiungono. Questo è dunque un esempio del fatto che un equilibrio di Nash può non descrivere l outcome della dinamica della replicazione. 2.4 Giochi Asimmetrici Fino ad ora abbiamo sempre considerato conflitti tra individui di una stessa specie o tipo, con gli stessi payoff e le stesse strategie. Tuttavia i casi più realistici sono quelli in cui gli individui appartengono ad una o più specie o tipi diversi, generando conflitti asimmetrici come per esempio quelli tra maschi e femmine o tra genitori e figli. In particolare ci concentreremo sui giochi finiti in forma normale a due giocatori, i cui payoff verranno descritti

51 2.4. GIOCHI ASIMMETRICI 51 tramite bimatrici. Ovviamente i giocatori che si affrontano apparterranno sempre a specie diverse, X e Y. Supponiamo che X e Y abbiano a disposizione, rispettivamente, N ed M strategie pure. Quando un giocatore in X usa la strategia i I := {1,..., N} contro una strategia j J := {1,..., M} di un giocatore in Y, il primo guadagna U = (u ij ) ed il secondo V = (v ji ). Le strategie miste per il primo sono E 1,..., E n, E i S N i I, e F 1,..., F m, F j S M j J per il secondo. Come nel caso simmetrico, invece del gioco caratterizzato dalle matrici U e V, ci concentreremo sul gioco (che avevamo denotato con G) in cui le matrici dei payoff sono A = (a ij ) = ( E T ) i UF j e B = (b ji ) = ( F T j V E i ). Gli stati della popolazione verranno in seguito indicati con x S n e y S m. I payoff medi delle popolazioni saranno rispettivamente x T Ay e y T Bx. Ricordiamo la definizione di equilibrio di Nash: Definizione 2.9. Una coppia (p, q) S n S m è un equilibrio di Nash se p è una risposta ottima a q e viceversa, cioè per ogni x S n e x T Aq p T Aq (2.29) y T Bp q T Bp (2.30) per ogni y S m. Se entrambe le disuguaglianze sono strette, la coppia (p, q) si dice equilibrio di Nash stretto. Per quanto riguarda la nozione di stabilità evolutiva, non esiste un estensione ovvia del caso simmetrico. Chiaramente, perché una coppia di strategie (p, q) sia evolutivamente stabile, deve essere innanzitutto un equilibrio di Nash. Tuttavia, se x fosse un altra risposta ottima a q, cioè la (2.29) fosse un uguaglianza, non ci sarebbe nessuna condizione che impedisca l invasione di p. Per questo motivo, nel caso asimmetrico, bisogna escludere la presenza di risposte ottime alternative; ciò comporta che la definizione di strategie evolutivamente stabili coincida con quella di equilibrio di Nash stretto. Definizione Un coppia di strategie (p, q) S n S m si dice evolutivamente stabile per un gioco asimmetrico a due specie se p T Aq > x T Aq x p S n (2.31)

52 52 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI q T Bp > y T Bp y q S m (2.32) Ricordiamo che un equilibrio di Nash stretto è necessariamente una ESS, da cui deriva la Proposizione Una coppia di strategie è evolutivamente stabile se e solo se è un equilibrio di Nash stretto. Corollario Una coppia di strategie evolutivamente stabile è necessariamente nelle strategie pure. Dimostrazione. Un equilibrio di Nash stretto è necessariamente nelle strategie pure. Come conseguenza del teorema precedente, dunque, si ha la tesi. Esempio 2.10 (Buyer/Seller Game). Consideriamo due popolazioni distinte: quella dei venditori, che possono decidere di comportarsi in modo onesto oppure di alzare il prezzo scorrettamente, e quella dei clienti, i quali possono fidarsi del venditore oppure verificare se il prezzo proposto sia onesto. Se il venditore è onesto ma il cliente decide di controllare, il payoff sarà 2 per il primo (perché se il cliente controlla significa che non ripone grande fiducia nel venditore) e 3 per il secondo (perché fa una gaffe ). Se il cliente controlla e il venditore è disonesto, guadagnano rispettivamente 2 e 1, perché la fiducia tra i due cala notevolmente. Se il cliente non controlla ed il venditore è onesto, la fiducia reciproca è massima ed i due ottengono rispettivamente 4 e 3. Infine, se il cliente ripone la sua fiducia in un venditore disonesto, il primo guadagna 1 mentre il secondo 4. La bimatrice dei payoff del gioco è quindi [ (3, 2) (2, 1) (4, 3) (1, 4) Il gioco ha un unico equilibrio di Nash, [(1/2, 1/2), (1/2, 1/2)], che essendo misto non può essere ESS. Il gioco dunque non ha strategie evolutivamente stabili. ] Dinamica di Gioco Asimmetrica Come nel caso simmetrico, supponiamo che gli stati della popolazione siano funzioni differenziabili del tempo e che i tassi di crescita delle frequenze, delle strategie i e j possano essere espressi come la differenza tra il payoff della strategia stessa e quello medio della rispettiva popolazione. Formalmente, se x i è la frequenza della strategia E i nella specie X e y j

53 2.4. GIOCHI ASIMMETRICI 53 è la frequenza della strategia F j nella specie Y, si ottiene il sistema della replicazione ( ẋ i = x i (Ay)i x T Ay ) ) ẏ j = y j ((Bx) j y T Bx i = 1,..., n j = 1,..., m per (x, y) S n S m. Come nel caso simmetrico, è possibile provare la seguente (2.33) Proposizione Gli insiemi S n S m, int (S n S m ) e (S n S m ) 1 sono invarianti rispetto alla dinamica della replicazione. Salvo diverso avviso, concentreremo l attenzione su problemi con condizioni iniziali (x(0), y(0)) int(s n S m ). I punti di equilibrio del sistema (2.33) in int(s n S m ) sono le soluzioni (x, y) del sistema di equazioni (Ay) 1 =... = (Ay) n, (Bx) 1 =... = (Bx) m, m y j = 1 j=1 n x i = 1 i=1 (2.34) tali che x i > 0 i = 1,..., n e y i > 0 j = 1,..., m. Se n m, l insieme dei punti di equilibrio in int(s n S m ) o è vuoto o contiene un sottoinsieme n m dimensionale. Perciò può esistere un punto di equilibrio isolato se e solo se n = m. Se un tale punto esiste, è unico. D ora in poi, quindi, n = m. Proposizione I punti di equilibrio del sistema (2.33) in int(s n S m ) non possono essere né pozzi né sorgenti. Dimostrazione. Dalla prima relazione in (2.34) sappiamo che (Ay) i = x T Ax e pertanto ricaviamo ẋ i x j = ( x i (Ay)i x T Ay ) x j ( = = δ ij (Ay)i x T Ay ) ( x i ( = = x i ) (x T Ay). x j 1 Si tratta dell insieme dove almeno un x i o y j è nullo. ) (x T Ay) x j

54 54 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI Per 1 j n 1 si ha ( (x T Ay) = n 1 x i (Ay) i + x j x j ẋ i x j i=1 = (Ay) j (Ay) n = 0. ( ) ) n 1 1 (Ay) n = Quindi = 0 per 1 i, j n 1. Poiché una relazione analoga vale per y j, la matrice Jacobiana del sistema (2.33) in un punto di equilibrio in int(s n S m ) ha la forma i=1 [ ] 0 C J = R (n m 2) (n+m 2), D 0 dove C R (n 1) (m 1) e D R (m 1) (n 1). Il polinomio caratteristico, moltiplicando per -1 le prime n 1 colonne e le ultime m 1 righe di J λi, diventa p(λ) = ( 1) n+m 2 p( λ). Pertanto, se λ è autovalore di J, lo è anche λ, escludendo la possibilità di avere pozzi (Re(λ) < 0 per ogni λ) o sorgenti (Re(λ) > 0 per ogni λ). In particolare, il sistema (2.33) ammette come pozzi solo i vertici del simplesso S n S m, poiché uno stato evolutivamente stabile non può essere misto, in un gioco asimmetrico. Proposizione L aggiunta di costanti alle colonne delle matrici dei payoff lascia invariato il sistema della replicazione. Dimostrazione. Supponiamo di aggiungere ad ogni componente i, j esima di A la costante c j e ad ogni componente i, j esima di B la costante d j, ottenendo le matrici à e B. Poniamo c = (c 1,..., n) e d = (d 1,..., d n ); si verifica facilmente che (Ãy i = (Ay) i + c, y e x T Ãy = x T Ay + c, y. Analogamente ( Bx i = (Bx) i + d, x e y T Bx = y T Bx + d, x. A questo punto si ha immediatamente la tesi. Forti di questo risultato, vediamo cosa succede in un generico gioco con n = m = 2. Date due matrici dei payoff A e B, possiamo supporre infatti, senza perdita di generalità, che i termini diagonali siano nulli: [ ] 0 a 12 A = a 21 0 [ ] 0 b 12 B =. (2.35) b 21 0

55 2.4. GIOCHI ASIMMETRICI 55 Consideriamo il sistema della replicazione per le sole variabili x e y, dove x = (x, 1 x) e y = (y, 1 y). (2.33) diventa: ẋ = x(1 x)(a 12 (a 12 + a 21 )y) ẏ = y(1 y)(b 12 (b 12 + b 21 )x) sul quadrato Q = S 2 S 2 = {(x, y) : 0 x, y 1}. Se a 12 a 21 0 (cioè a 12 e a 21 hanno segni opposti), ẋ non cambia segno in Q e una delle due strategie del primo giocatore domina l altra (figura 2.14). In questo caso quindi, x(t) può essere costante o convergere monotonicamente verso 0 o 1. Altrettanto vale nella seconda equazione per b 12 b Dobbiamo pertanto studiare il caso a 12 a 21 > 0 e b 12 b 21 > 0, il quale ammette l unico punto di equilibrio in intq F = ( b12 b 12 + b 21, a 12 a 12 + a 21 ). La matrice Jacobiana in F è [ 0 (a 12 + a 21 ) J = a (b 12 + b 21 ) 12 a 21 con autovalori (a 12 +a 21 ) 2 0 a 12 a 21 b 12 b 21 λ = ± (a 12 + a 21 )(b 12 + b 21 ). b 12 b 21 (b 12 +b 21 ) 2 Se a 12 b 12 > 0, gli autovalori sono reali e di segno opposto, quindi F è un punto di sella e tutte le orbite convergono verso uno o l altro di due angoli opposti di Q(figura 2.15). Se invece a 12 b 12 < 0, i due autovalori sono immaginari puri (cioè la parte reale è nulla) e quindi le orbite sono curve chiuse che ruotano periodicamente intorno a F(figura 2.16). Tra equilibri di Nash e punti di equilibrio della dinamica della replicazione, esistono risultati analoghi al caso simmetrico. Lemma Un punto (z, w) S n S m è asintoticamente stabile se esiste un intorno U di (z, w) tale che, per ogni (x, y) U si ha z T Ay x T Ay + w T Bx y T Bx > 0 Dimostrazione. Vogliamo trovare una funzione di Lyapunov stretta per (z, w). Scegliamo come candidata V (x, y) = z i >0 x z i i w j >0 y w i i z i >0 z z i i w i >0 w w i i ]

56 56 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI Figura 2.14: a 12 a 21 0 e b 12 b 21 0 Figura 2.15: a 12 b 12 > 0 Figura 2.16: a 12 b 12 < 0 e procediamo come nella dimostrazione del punto 4 del teorema 2.7: V (z, w) = 0 e con la disuguaglianza di Jensen si dimostra che V (x, y) < 0 per (x, y) (z, w). Per dimostrare che V > 0, poniamo P := V + z i >0 z z i i w i >0 w w i i

57 2.4. GIOCHI ASIMMETRICI 57 e vediamo che P > 0: P = P d dt log P = P d dt = P ẋ i z i + x zi>0 i w j >0 z i log x i + z i >0 w j >0 ẏ j y j = w j log y j = = P zi>0((ay) i x T Ay) + ((Bx) j y T Ax) = wj = P (z T Ay x T Ay + w T Bx y T Bx) > 0 se (x, y) U M 0, essendo M = {(x, y) : x i > 0 se x i > 0 e y j > 0 se w i > 0}, l insieme su cui P > 0. Possiamo quindi concludere che (z, w) è asintoticamente stabile. Teorema Valgono le seguenti proprietà: 1. se (z, w) è un equilibrio di Nash, allora è un punto di equilibrio per la dinamica (2.33); 2. se (z, w) è un punto di equilibrio stabile, allora è equilibrio di Nash; 3. se (z, w) è un punto limite di un orbita interna (cioè esiste (x 0, y 0 ) int(s n S m ), diverso da (z, w) tale che lim t Φ(t, (x 0, y 0 ) = (z, w)), allora è un equilibrio di Nash; 4. se (z, w) è uno stato evolutivamente stabile, allora è punto di equilibrio asintoticamente stabile. Dimostrazione. Per le prime tre affermazioni, il procedimento è lo stesso della dimostrazione del teorema 2.7. Proviamo la quarta affermazione: per ipotesi si ha z T Aw > x T Aw x z e w T Bz > y T Bz y w. Per continuità, esiste un intorno U di (z, w) tale che, per ogni (x, y) U vale z T Ay x T Ay + w T Bx y T Bx > 0. Grazie al lemma precedente possiamo concludere che (z, w) è asintoticamente stabile. Proposizione Sia (z, w) S n S m un punto di equilibrio per la dinamica della replicazione, se z e w non sono entrambe pure, allora (z, w) non può essere asintoticamente stabile.

58 58 CAPITOLO 2. TEORIA EVOLUTIVA DEI GIOCHI Dimostrazione. Dobbiamo distinguere due casi: (z, w) int(s n S m ) oppure z o w sono su una faccia del simplesso a cui appartengono (cioè esiste i tale che z i = 0 o j tale che w j = 0). Consideriamo, per il primo caso, la funzione V := n m x i y j. i=1 Poniamo x 1 = 1 i>1 x i e y 1 = 1 j>1 y j ed esaminiamo il sistema dinamico ẋ i = x i ( (Ay)i x T Ay ) V ẏ j = x i ( (By)j y T Bx ) (2.36) V per i = 1,..., n, j = 2,..., m, ben definito su R+ n 1 Rm 1 +. In virtù della proposizione 1.10, aver diviso il sistema per V non ne altera le orbite. Per dimostrare che (z, w) non è asintoticamente stabile è sufficiente dimostrare che il sistema (2.36) non ammette equilibri asintoticamente stabili. Per fare ciò, utilizziamo il teorema 1.11: calcolando la divergenza del campo vettoriale associato al sistema (2.36) si trova k>1 h>1 j=1 ẋ k x k = 0, ẏ h y h = 0 quindi non possono esserci equilibri asintoticamente stabili. Per il secondo caso, consideriamo invece V := x i y j. z i 0, w j 0 Indicando con ī e j due indici per i quali z i 0 e w j 0, possiamo scrivere x ī = 1 i ī x i e y j = 1 j j y j e considerare il sistema ẋ i = x i V ẏ j = y j V ( (Ay)i x T Ay ) ( (Bx)j y T Bx ) per i, j tali che z i 0,w j 0, i ī e j j. Ponendo c 1 := {i : z i 0} e c 2 := {j : w j 0}, il sistema è ben definito su R c R c A questo punto, procedendo esattamente come nel primo caso, si ha la tesi.

59 2.4. GIOCHI ASIMMETRICI 59 Diversamente dal caso simmetrico, la quarta affermazione del teorema 2.23 è in realtà un equivalenza, come mostra il teorema seguente: Teorema Sia (z, w) un equilibrio asintoticamente stabile nella dinamica della replicazione di un gioco asimmetrico. Allora (z, w) è una coppia di strategie evolutivamente stabile. Dimostrazione. Per la proposizione precedente, sappiamo che z e w devono essere necessariamente strategie pure. Supponiamo per assurdo che (z, w) sia asintoticamente stabile ma non evolutivamente stabile; ciò implica che (z, w) non è neanche equilibrio di Nash stretto. Senza perdita di generalità, possiamo quindi assumere che esista una strategia i tale che z T Aw = (Aw) i (cioè z è su uno spigolo di S n ). Chiamiamo E lo spigolo di S n che connette i punti z ed e i, allora l insieme E {w} è un insieme di punti di equilibrio del sistema della replicazione. Pertanto (z, w) non può essere asintoticamente stabile, assurdo.

60 Capitolo 3 Un Applicazione Vediamo ora un applicazione dei risultati studiati fino a questo punto. Consideriamo una nazione la cui popolazione sia composta in parte da cittadini originari del luogo, in parte da immigrati. L idea è quella di utilizzare gli strumenti forniti dalla teoria evolutiva dei giochi per analizzare le interazioni tra le due controparti. Il contesto è, quindi, quello dei giochi asimmetrici a due giocatori e di particolare interesse è il caso in cui entrambe le controparti dispongono di due strategie. Nella prima sezione introduciamo il modello del gioco; nella seconda sezione studiamo la dinamica della replicazione. Infine, nella terza sezione, presentiamo alcune considerazione su altre dinamiche con alcuni esperimenti numerici. 3.1 Il Modello Denotiamo con A la popolazione locale di una nazione, e con B la popolazione di immigrati all interno della stessa (supponiamo che vengano tutti da uno stesso stato). Supponiamo che gli immigrati siano dispersi nel territorio, rendendo trascurabili le interazioni tra loro; per il caso in cui sia rilassata questa ipotesi si fa riferimento a [1]. I cittadini forniscono i servizi più essenziali (ospedali, servizi pubblici, trasporti, eccetera) e le interazioni con gli immigrati avvengono quando uno di questi ultimi ha bisogno di utilizzare uno di questi servizi e deve interagire con un cittadino che ci lavora. Ricordiamo che non è necessaria alcuna ipotesi di razionalità. Durante l incontro, un individuo di A può comportarsi in modo ostile ( strategia pura che denotiamo con N) oppure in modo accogliente (che denotiamo con W ). Un individuo di B, invece, può essere integrato, e quindi 60

61 3.1. IL MODELLO 61 è in grado di esprimersi in modo corretto nella lingua del paese ospitante, (strategia L) oppure no (H). Supponiamo, inoltre, che la strategia L implichi che l individuo possa accedere al servizio in questione senza ostacoli, indipendentemente dall impiegato che trova. Traduciamo in termini di payoff quanto detto: un immigrato che adotta la strategia L ottiene un guadagno f 1 (P ) dal servizio e un guadagno f 2 (K) dall interazione con l impiegato e con altri individui di A che potrebbe incontrare; tuttavia deve sostenere un certo costo f 3 (c) dovuto allo sforzo di imparare una nuova lingua, sforzo che dipende dalla distanza dalla propria lingua madre ξ. Pertanto f 3(c) ξ > 0. Un immigrato che usa la strategia H non incorre in questo costo ma nemmeno ha un guadagno dalle interazioni con individui appartenenti ad A. Inoltre, è possibile che non riesca ad accedere ad un servizio pubblico, nel caso in cui non riesca a farsi comprendere o incontri un impiegato ostile, ottenendo un guadagno αf 1 (P ) con α [0, 1]. Per un immigrato, entrambe le strategie portano ad un costo f 4 ( ), dovuto al fatto di sentirsi discriminati, nel caso in cui incontrino un impiegato ostile. Per quanto riguarda i cittadini: quelli ostili sostengono una costo f 5 (X) dovuto al fatto che sia spiacevole per loro avere a che fare con un individuo appartenente a B. Tuttavia ottengono un certo guadagno nell ostacolarlo (possibile solo nel caso che l immigrato sia di tipo H) dato da (1 α)f 1 (P ); quelli accoglienti non fanno distinzione tra cittadini e immigranti, pertanto non perdono o guadagnano nulla. La bimatrice dei payoff, pertanto, risulta [ ] (a 11, b 11 ) (a 12, b 21 ) (A, B) =, (a 21, b 12 ) (a 22, b 22 )

62 62 CAPITOLO 3. UN APPLICAZIONE dove a 11 = f 5 (X) = u(n, L) a 12 = f 5 (X) + (1 α)f 1 (P ) = u(n, H) a 21 = 0 = u(w, L) a 22 = 0 = u(w, H) b 11 = f 1 (P ) + f 2 (K) f 3 (c) f 4 ( ) = v(n, L) b 12 = f 1 (P ) + f 2 (K) f 3 (c) = v(w, L) b 21 = αf 1 (P ) f 4 ( ) = v(n, H) b 22 = f 1 (P ) = v(w, H) e f i ( ) R +, f i (0) = 0; f i ( ) > 0; f i ( ) < 0 f i ( ) < 0 e f(x, y) = f i(x) + f j (y). Osserviamo inoltre che v(w, L) > v(n, L) e v(w, H) > v(n, H), cioè chiaramente ogni immigrato preferisce incontrare un impiegato accogliente piuttosto che uno ostile. Grazie alla proposizione 1.5, possiamo effettuare una trasformazione che renda nulli i termini diagonali, ottenendo con [ ] (0, 0) (a 1, b 2 ) (A, B) =, (a 2, b 1 ) (0, 0) a 1 = a 12 a 22 = f 5 (X) + (1 α)f 1 (P ) a 2 = a 21 a 11 = f 5 (X) b 1 = b 12 b 22 = f 2 (K) f 3 (c) b 2 = b 21 b 11 = (1 α)f 1 (P ) f 2 (K) + f 3 (c) Osserviamo le seguenti proprietà: se (1 α)f(p ) > f(x) allora a 1 > 0; a 2 > 0 sempre; se f(c) [0; f(k) ɛ], b 1 > 0, b 2 < 0; se f(c) [f(k) + ɛ; f(k) + (1 α)f(p ) ɛ], b 1 < 0, b 2 < 0 se f(c) [f(k) + (1 α)f(p ) + ɛ; + ), b 1 < 0, b 2 > 0 b 1 > 0, b 2 > 0 non si verifica mai (f(c) 0).

63 3.2. DINAMICA DELLA REPLICAZIONE ED ESS Dinamica della Replicazione ed ESS Scriviamo ora le equazioni della replicazione per il gioco. D ora in avanti, per semplicità, indicheremo ogni funzione f i con f. Indichiamo con (p, 1 p) e (q, 1 q) gli stati della popolazione, rispettivamente di A e B. Si ricava {ṗ = p(1 p)(a1 q(a 1 + a 2 )) (3.1) q = q(1 q)(b 1 p(b 1 + b 2 )) Per trovare gli equilibri di Nash e le ESS dobbiamo distinguere sei casi, in ciascuno dei quali il gioco risulta avere un solo equilibrio di Nash: 1. a 1 > 0, a 2 > 0, b 1 > 0, b 2 < 0: l equilibrio è (e 2, e 1 ) con payoff (a 2, b 1 ); 2. a 1 < 0, a 2 > 0, b 1 > 0, b 2 < 0: come nel caso precedente, (e 2, e 1 ) è equilibrio di Nash; 3. a 1 > 0, a 2 > 0, b 1 < 0, b 2 < 0: non esistono equilibri di Nash in strategie ( pure) ma quello in strategie ( miste è dato ) da (x, y) con x = b1 b b 1 +b 2, 2 b 1 +b 2 = (x, 1 x) e y = a1 a a 1 +a 2, 2 a 1 +a 2 = (y, 1 y); 4. a 1 < 0, a 2 > 0, b 1 < 0, b 2 < 0: l equilibrio è (e 2, e 2 ) con payoff (0, 0); 5. a 1 > 0, a 2 > 0, b 1 < 0, b 2 > 0: l equilibrio è (e 1, e 2 ) con payoff (a 1, b 2 ); 6. a 1 < 0, a 2 > 0, b 1 < 0, b 2 > 0: come nel caso 4, l equilibrio di Nash è (e 2, e 2 ) con payoff (0, 0). E facile verificare che i punti (0, 0), (1, 1), (1, 0), (0, 1) e (x 1, y 1 ) sono punti di equilibrio per la dinamica della replicazione (3.1). Questi punti, tranne (1, 1), corrispondono agli equilibri di Nash del gioco. Grazie alla proposizione 2.17 e al corollario 2.18 possiamo concludere che, in tutti e cinque i casi in cui si ha un equilibrio di Nash in strategie pure, l equilibrio di Nash è una coppia di ESS, mentre nel caso 3 l equilibrio di Nash non può essere evolutivamente stabile. Inoltre, per il teorema 2.25, le ESS sono punti di equilibrio asintoticamente stabili nella dinamica della replicazione, mentre il punto di equilibrio interno al simplesso non può esserlo. Per classificare le proprietà di stabilità degli altri punti di equilibrio di (3.1), calcoliamo la matrice Jacobiana del sistema: [ ] (1 2p)(a 1 q(a 1 + a 2 )) p(1 p)(a 1 + a 2 ) J =. q(1 q)(b 1 + b 2 ) (1 2q)(b 2 p(b 1 + b 2 )) Ne ricaviamo le seguenti considerazioni:

64 64 CAPITOLO 3. UN APPLICAZIONE il punto (1, 1) (corrispondente alla coppia di strategie (e 1, e 1 )) è instabile per ogni scelta dei parametri; (1, 0) (corrispondente a (e 1, e 2 )) è asintoticamente stabile nel caso 5 (come già sappiamo), è un punto di sella nei casi 1,3 e 6, ed è instabile nei casi 2 e 4; (0, 1) (corrispondente a (e 2, e 1 )) è, come già osservato, asintoticamente stabile nei casi 2 e 4; è invece un punto di sella negli altri casi; (1, 1) (corrispondente a (e 2, e 2 ))è asintoticamente stabile nei casi 4 e 6, un punto di sella nei casi 2, 3 e 5, instabile nel caso 1. Per quanto riguarda il punto (x, y) (corrispondente a (x, y)), abbiamo già detto che non può essere asintoticamente stabile, tuttavia possiamo dimostrare che è stabile nel caso 3, verificando che la funzione V (p, q) = b 1 ln p+b 2 ln(1 p) a 1 ln q a 2 ln(1 q) c, c tale che V (x, y) = 0 (3.2) è di Lyapunov non stretta per (x, y). Proposizione 3.1. Il punto (x, y) nel caso 3 è un punto di equilibrio stabile per la dinamica della replicazione. Dimostrazione. Per costruzione, V (x, y) = 0. Per mostrare che V (p, q) > 0 per ogni (p, q) (x, y), verifichiamo che V abbia un minimo stretto in (x, y). V (p,q) V (p,q) Con un semplice calcolo si verifica che le p e q si annullano in (x, y). La matrice Hessiana risulta: ( ) H = b1 + b p (1 p) 2 ( ) 0 a1 ; + a q 2 2 (1 q) 2 essendo definita positiva (H 11 > 0, H 11 H 22 > 0), V ha un minimo in (x, y). Sia ora B una palla aperta nel piano, che contiene (x, y). Dobbiamo verificare che dv (p,q) dv (x,y) dt 0 per ogni (p, q) {B (x, y)} e che dt = 0. Si trova dv (p, q) dt = p(1 p)(a 1 q(a 1 + a 2 )) b 1(1 p) b 2 p + p(1 p) + q(1 q)(b 1 p(b 1 + b 2 )) a 1(1 q) + a 2 q = 0 q(1 q) per ogni (p, q) (x, y). Possiamo quindi concludere che, per il caso 3, V è una funzione di Lyapunov non stretta per (x, y) che, pertanto, è stabile (ma non asintoticamente).

65 3.3. ALTRE DINAMICHE ED ESEMPI 65 Da tutte queste considerazioni, si possono trarre numerose conclusioni. Abbiamo visto che, se il costo per imparare la lingua del paese ospitante è basso e non c è nessuna prevenzione (da parte dello stato) contro il comportamento aggressivo dei cittadini (caso 1), man man nel tempo entrambe le popolazioni tendono a diventare monomorfe, ossia ad usare ciascuna una sola strategia. In particolare, in questa situazione, i cittadini tendono a diventare accoglienti e gli immigrati tendono ad integrarsi completamente. Ciò accade più facilmente quando gli immigrati provengono da un paese di cultura molto simile a quella del paese ospitante. Nel caso in cui il costo per l integrazione è molto alto (caso 5), di nuovo si ha un evoluzione verso popolazioni monomorfe dove però i cittadini si comportano tutti in modo ostile e gli immigrati non si integrano. Se, invece, il costo per l integrazione non è né troppo alto né troppo basso (caso 3), nel tempo entrambe le popolazioni rimangono polimorfe, e l uso di una strategia o l altra ha un andamento oscillatorio di generazione in generazione. Nelle situazioni in cui si può prevenire un atteggiamento ostile da parte dei cittadini (a 1 < 0), a meno che il costo per l integrazione sia basso (caso 2), gli immigrati non si integrano, anche se la popolazione locale tende ad abbandonare le ostilità nei loro confronti (casi 4 e 6). Per esempi storici e di attualità, si consulti [1]. 3.3 Altre Dinamiche ed Esempi Consideriamo la dinamica definita dalla (2.16). Ricordiamo che, per k 0, viene approssimata la dinamica della replicazione, mentre per k + si ottiene la dinamica di risposta ottima. Scriviamo la dinamica del gioco: {ṗ = p(1 p) ( e ka 1 (1 q) e ka 2q ) q = q(1 q) ( e kb 1(1 p) e kb 2p ) (3.3) Come ci aspettiamo dal teorema 2.9, i punti di equilibrio del sistema sono gli stessi della dinamica della replicazione. Nelle figure seguenti mostriamo delle simulazioni dei vari casi, in blu sono le traiettorie del sistema (3.3) con k = 1, in verde quelle del sistema della replicazione. I parametri utilizzati sono i seguente: fissato (1 α)f(p ) = 1.5, per avere a 1 > 0 abbiamo scelto f(x) = 0.6 e per a 1 < 0 f(x) = 2. Nei casi in cui b 1 > 0 e b 2 < 0 sono stati fissati f(k) = 0.5 e f(c) = 0.4. Per avere b 1 < 0 e b 2 < 0, f(k) = 0.2 e f(c) = 0.55 e per b 1 < 0 e b 2 > 0, f(k) = 0.2 e f(c) = 1.8.

66 66 CAPITOLO 3. UN APPLICAZIONE Figura 3.1: Caso 1 Figura 3.2: Caso 2 Figura 3.3: Caso 3 Figura 3.4: Caso 4 Figura 3.5: Caso 5 Figura 3.6: Caso 6

Teoria dei Giochi: lezione del 15 Maggio 2017: Strategie Evolutivamente Stabili

Teoria dei Giochi: lezione del 15 Maggio 2017: Strategie Evolutivamente Stabili Teoria dei Giochi: lezione del 15 Maggio 2017: Strategie Evolutivamente Stabili Chiara Mocenni Corso di Teoria dei Giochi e Giochi Evolutivi Strategie Evolutivamente Stabili (ESS) Una strategia si dice

Dettagli

MATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI. Anna TORRE

MATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI. Anna TORRE MATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI Anna TORRE Dipartimento di Matematica, Università di Pavia, Via Ferrata 1, 27100, Pavia, Italy. E-mail: anna.torre@unipv.it 1 SOLUZIONI:

Dettagli

Esistenza ed unicità per equazioni differenziali

Esistenza ed unicità per equazioni differenziali Esistenza ed unicità per equazioni differenziali Per concludere queste lezioni sulle equazioni differenziali vogliamo dimostrare il teorema esistenza ed unicità per il problema di Cauchy. Faremo la dimostrazione

Dettagli

2.6 Calcolo degli equilibri di Nash

2.6 Calcolo degli equilibri di Nash 92 2 Giochi non Cooperativi Per queste estensioni di giochi non finiti si possono provare risultati analoghi a quelli visti per i giochi finiti. Rimandiamo alla bibliografia per uno studio più approfondito

Dettagli

1 Equilibri Correlati

1 Equilibri Correlati Strumenti della Teoria dei Giochi per l Informatica A.A. 29/ Lecture 4: Ottobre 2 Equilibri Correlati, Bayesian Games Docente Prof. Vincenzo Auletta Note redatte da: Michele Nasti Equilibri Correlati Gli

Dettagli

Una prima distinzione nell ambito della teoria dei giochi è quella tra: Giochi cooperativi (si possono fare accordi vincolanti)

Una prima distinzione nell ambito della teoria dei giochi è quella tra: Giochi cooperativi (si possono fare accordi vincolanti) Una prima distinzione nell ambito della teoria dei giochi è quella tra: Giochi cooperativi (si possono fare accordi vincolanti) Giochi non cooperativi (non si possono fare accordi vincolanti) Ci occuperemo

Dettagli

MATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI. Anna TORRE

MATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI. Anna TORRE MATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI Anna TORRE Dipartimento di Matematica, Università di Pavia, Via Ferrata 1, 27100, Pavia, Italy. E-mail: anna.torre@unipv.it 1 EQUILIBRI

Dettagli

Le derivate parziali

Le derivate parziali Sia f(x, y) una funzione definita in un insieme aperto A R 2 e sia P 0 = x 0, y 0 un punto di A. Essendo A un aperto, esiste un intorno I(P 0, δ) A. Preso un punto P(x, y) I(P 0, δ), P P 0, possiamo definire

Dettagli

LEZIONE 2. ( ) a 1 x 1 + a 2 x a n x n = b, ove a j, b R sono fissati.

LEZIONE 2. ( ) a 1 x 1 + a 2 x a n x n = b, ove a j, b R sono fissati. LEZIONE 2 2 Sistemi di equazioni lineari Definizione 2 Un equazione lineare nelle n incognite x, x 2,, x n a coefficienti reali, è un equazione della forma (2 a x + a 2 x 2 + + a n x n = b, ove a j, b

Dettagli

I teoremi della funzione inversa e della funzione implicita

I teoremi della funzione inversa e della funzione implicita I teoremi della funzione inversa e della funzione implicita Appunti per il corso di Analisi Matematica 4 G. Mauceri Indice 1 Il teorema della funzione inversa 1 Il teorema della funzione implicita 3 1

Dettagli

LEZIONE 11. s V : V V V (v 1, v 2 ) v 1 + v 2 = s V (v 1, v 2 ), p V : k V V. per cui valgono:

LEZIONE 11. s V : V V V (v 1, v 2 ) v 1 + v 2 = s V (v 1, v 2 ), p V : k V V. per cui valgono: LEZIONE 11 11.1. Spazi vettoriali ed esempi. La nozione di spazio vettoriale generalizza quanto visto nelle lezioni precedenti: l insieme k m,n delle matrici m n a coefficienti in k = R, C, l insieme V

Dettagli

Teoria dei Giochi. Anna Torre

Teoria dei Giochi. Anna Torre Teoria dei Giochi Anna Torre Almo Collegio Borromeo 17 marzo 2015 email: anna.torre@unipv.it sito web del corso:www-dimat.unipv.it/atorre/borromeo2015.html SOMMA ZERO Un gioco non cooperativo a due giocatori

Dettagli

Capitolo IV SPAZI VETTORIALI EUCLIDEI

Capitolo IV SPAZI VETTORIALI EUCLIDEI Capitolo IV SPAZI VETTORIALI EUCLIDEI È ben noto che in VO 3 si possono considerare strutture più ricche di quella di spazio vettoriale; si pensi in particolare all operazioni di prodotto scalare di vettori.

Dettagli

Teoria dei Giochi: lezione del 27 Marzo 2017

Teoria dei Giochi: lezione del 27 Marzo 2017 Teoria dei Giochi: lezione del 27 Marzo 2017 Chiara Mocenni Corso di Teoria dei Giochi e Giochi Evolutivi Giochi simmetrici a due giocatori Un gioco è simmetrico quando i due giocatori hanno lo stesso

Dettagli

LEZIONE 3. a + b + 2c + e = 1 b + d + g = 0 3b + f + 3g = 2. a b c d e f g

LEZIONE 3. a + b + 2c + e = 1 b + d + g = 0 3b + f + 3g = 2. a b c d e f g LEZIONE 3 3.. Matrici fortemente ridotte per righe. Nella precedente lezione abbiamo introdotto la nozione di soluzione di un sistema di equazioni lineari. In questa lezione ci poniamo il problema di descrivere

Dettagli

Sviluppi e derivate delle funzioni elementari

Sviluppi e derivate delle funzioni elementari Sviluppi e derivate delle funzioni elementari In queste pagine dimostriamo gli sviluppi del prim ordine e le formule di derivazioni delle principali funzioni elementari. Utilizzeremo le uguaglianze lim

Dettagli

Alcune nozioni di calcolo differenziale

Alcune nozioni di calcolo differenziale Alcune nozioni di calcolo differenziale G. Mastroeni, M. Pappalardo 1 Limiti per funzioni di piu variabili Supporremo noti i principali concetti algebrici e topologici relativi alla struttura dello spazio

Dettagli

Teoria evolutiva dei giochi.

Teoria evolutiva dei giochi. Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di Laurea Specialistica in Matematica Tesi di Laurea Specialistica Teoria evolutiva dei giochi. Candidato: Alessandro Maddaloni Relatore: Prof.Paolo

Dettagli

Teoria dei Giochi. Anna Torre

Teoria dei Giochi. Anna Torre Teoria dei Giochi Anna Torre Almo Collegio Borromeo 21 marzo 2017 email: anna.torre@unipv.it sito web del corso:www-dimat.unipv.it/atorre/borromeo2017.html Teoria dei giochi evolutivi La moneta è sostituita

Dettagli

Il Gioco dell'evasione Fiscale

Il Gioco dell'evasione Fiscale Il Gioco dell'evasione Fiscale Laureando Matteo Galliani Relatore Raffaele Mosca Il ruolo della Teoria Dei Giochi Un gioco è una situazione in cui: 1)ogni individuo può scegliere un certo comportamento

Dettagli

8. Completamento di uno spazio di misura.

8. Completamento di uno spazio di misura. 8. Completamento di uno spazio di misura. 8.1. Spazi di misura. Spazi di misura completi. Definizione 8.1.1. (Spazio misurabile). Si chiama spazio misurabile ogni coppia ordinata (Ω, A), dove Ω è un insieme

Dettagli

INTRODUZIONE ALLA TEORIA DEI GIOCHI

INTRODUZIONE ALLA TEORIA DEI GIOCHI Corso di Identificazione dei Modelli e Controllo Ottimo Prof. Franco Garofalo INTRODUZIONE ALLA TEORIA DEI GIOCHI A cura di Elena Napoletano elena.napoletano@unina.it Teoria dei Giochi Disciplina che studia

Dettagli

Geometria e Topologia I (U1-4) 2006-mag-10 61

Geometria e Topologia I (U1-4) 2006-mag-10 61 Geometria e Topologia I (U1-4) 2006-mag-10 61 (15.9) Teorema. Consideriamo il piano affine. Se A A 2 (K) è un punto e r una retta che non passa per A, allora esiste unica la retta per A che non interseca

Dettagli

11. Misure con segno.

11. Misure con segno. 11. Misure con segno. 11.1. Misure con segno. Sia Ω un insieme non vuoto e sia A una σ-algebra in Ω. Definizione 11.1.1. (Misura con segno). Si chiama misura con segno su A ogni funzione ϕ : A R verificante

Dettagli

TEORIA DEI SISTEMI SISTEMI LINEARI

TEORIA DEI SISTEMI SISTEMI LINEARI TEORIA DEI SISTEMI Laurea Specialistica in Ingegneria Meccatronica Laurea Specialistica in Ingegneria Gestionale Indirizzo Gestione Industriale TEORIA DEI SISTEMI SISTEMI LINEARI Ing. Cristian Secchi Tel.

Dettagli

1. Funzioni implicite

1. Funzioni implicite 1. Funzioni implicite 1.1 Il caso scalare Sia X R 2 e sia f : X R. Una funzione y : (a, b) R si dice definita implicitamente dall equazione f(x, y) = 0 in (a, b) quando: 1. (x, y(x)) X x (a, b); 2. f(x,

Dettagli

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria.

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria. Capitolo 2 Campi 2.1 Introduzione Studiamo ora i campi. Essi sono una generalizzazione dell insieme R dei numeri reali con le operazioni di addizione e di moltiplicazione. Nel secondo paragrafo ricordiamo

Dettagli

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n NOTE DI ALGEBRA LINEARE 2- MM 9 NOVEMBRE 2 Combinazioni lineari e generatori Sia K un campo e V uno spazio vettoriale su K Siano v,, v n vettori in V Definizione Un vettore v V si dice combinazione lineare

Dettagli

Sistemi lineari. Lorenzo Pareschi. Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara

Sistemi lineari. Lorenzo Pareschi. Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara Sistemi lineari Lorenzo Pareschi Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara http://utenti.unife.it/lorenzo.pareschi/ lorenzo.pareschi@unife.it Lorenzo Pareschi (Univ. Ferrara)

Dettagli

0.1 Spazi Euclidei in generale

0.1 Spazi Euclidei in generale 0.1. SPAZI EUCLIDEI IN GENERALE 1 0.1 Spazi Euclidei in generale Sia V uno spazio vettoriale definito su R. Diremo, estendendo una definizione data in precedenza, che V è uno spazio vettoriale euclideo

Dettagli

Si consideri il sistema a coefficienti reali di m equazioni lineari in n incognite

Si consideri il sistema a coefficienti reali di m equazioni lineari in n incognite 3 Sistemi lineari 3 Generalità Si consideri il sistema a coefficienti reali di m equazioni lineari in n incognite ovvero, in forma matriciale, a x + a 2 x 2 + + a n x n = b a 2 x + a 22 x 2 + + a 2n x

Dettagli

Sistemi di equazioni differenziali

Sistemi di equazioni differenziali Capitolo 5 Sistemi di equazioni differenziali Molti problemi sono governati non da una singola equazione differenziale, ma da un sistema di più equazioni. Ad esempio questo succede se si vuole descrivere

Dettagli

Teoria dei Giochi. Anna Torre

Teoria dei Giochi. Anna Torre Teoria dei Giochi Anna Torre Almo Collegio Borromeo 16 marzo 2010 email: anna.torre@unipv.it sito web del corso:www-dimat.unipv.it/atorre/borromeo2010.html GIOCHI RIPETUTI: COLLUSIONE GIOCHI RIPETUTI:

Dettagli

Teoria dei Giochi. Anna Torre

Teoria dei Giochi. Anna Torre Teoria dei Giochi Anna Torre Almo Collegio Borromeo 4 aprile 2017 email: anna.torre@unipv.it sito web del corso:www-dimat.unipv.it/atorre/borromeo2017.html Giochi ripetuti GIOCHI RIPETUTI: COLLUSIONE Sorgere

Dettagli

3. Successioni di insiemi.

3. Successioni di insiemi. 3. Successioni di insiemi. Per evitare incongruenze supponiamo, in questo capitolo, che tutti gli insiemi considerati siano sottoinsiemi di un dato insieme S (l insieme ambiente ). Quando occorrerà considerare

Dettagli

Matematica per Analisi dei Dati,

Matematica per Analisi dei Dati, Matematica per Analisi dei Dati, 230209 1 Spazio vettoriale R n Sia n un intero positivo fissato Lo spazio vettoriale R n e l insieme delle n ple ordinate di numeri reali, che rappresenteremo sempre come

Dettagli

Programmazione Non Lineare

Programmazione Non Lineare Capitolo 1 Programmazione Non Lineare 1.1 Introduzione Un problema di ottimizzazione viene definito come la minimizzazione o la massimizzazione di una funzione a valori reali su un insieme specificato.

Dettagli

Caso, intelligenza e decisioni razionali

Caso, intelligenza e decisioni razionali Caso, intelligenza e decisioni razionali Anna Torre San Pellegrino Terme 8 settembre 2009 UN PO DI STORIA UN PO DI STORIA La teoria dei giochi è una disciplina matematica molto recente. La sua nascita

Dettagli

Teoria dei Giochi e delle Decisioni Prova del 24 Settembre Giocatore 2 a b Giocatore 1 a 8-12 b minz. ε ε 2 1 = 1.

Teoria dei Giochi e delle Decisioni Prova del 24 Settembre Giocatore 2 a b Giocatore 1 a 8-12 b minz. ε ε 2 1 = 1. Teoria dei Giochi e delle Decisioni Prova del 24 Settembre 2009 Cognome, Nome, Numero di Matricola: Esercizio Si consideri il gioco antagonista descritto dalla seguente matrice di payoff: Giocatore 2 a

Dettagli

misura. Adesso, ad un arbitrario punto P dello spazio associamo una terna di numeri reali x

misura. Adesso, ad un arbitrario punto P dello spazio associamo una terna di numeri reali x 4. Geometria di R 3. Questo paragrafo è molto simile al paragrafo : tratta infatti delle proprietà geometriche elementari dello spazio R 3. Per assegnare delle coordinate nello spazio, fissiamo innanzitutto

Dettagli

Teoria dei Giochi Prova del 30 Novembre 2012

Teoria dei Giochi Prova del 30 Novembre 2012 Cognome, Nome, Corso di Laurea, email: Teoria dei Giochi Prova del 30 Novembre 2012 Esercizio 1. Si consideri il seguente gioco. Il primo giocatore può scegliere un numero tra {3,4,8,16,38}; il secondo

Dettagli

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da NOTE INTEGRATIVE PER IL CORSO DI ANALISI MATEMATICA 2 ANNO ACCADEMICO 2012/13 NOTE SULLA CONTINUITÀ UNIFORME D.BARTOLUCCI, D.GUIDO Sia f(x) = x 3, x [ 1, 1]. Si ha 1. La continuità uniforme x 3 y 3 = x

Dettagli

FUNZIONI. }, oppure la

FUNZIONI. }, oppure la FUNZIONI 1. Definizioni e prime proprietà Il concetto di funzione è di uso comune per esprimere la seguente situazione: due grandezze variano l una al variare dell altra secondo una certa legge. Ad esempio,

Dettagli

LA STRUTTURA DEI PROBLEMI DI OTTIMIZZAZIONE. L'ipotesi di razionalità implica che un decisore cerchi di

LA STRUTTURA DEI PROBLEMI DI OTTIMIZZAZIONE. L'ipotesi di razionalità implica che un decisore cerchi di LA STRUTTURA DEI PROBLEMI DI OTTIMIZZAZIONE L'ipotesi di razionalità implica che un decisore cerchi di individuare la migliore tra tutte le alternative a sua disposizione. Problemi di ottimizzazione =

Dettagli

i) la somma e il prodotto godano delle proprietà associativa, commutativa e distributiva;

i) la somma e il prodotto godano delle proprietà associativa, commutativa e distributiva; 1 Spazi vettoriali 11 Definizioni ed assiomi Definizione 11 Un campo è un insieme K dotato di una operazione somma K K K, (x, y) x + y e di una operazione prodotto K K K, (x, y) xy tali che i) la somma

Dettagli

Queste note (attualmente, e probabilmente per un bel po ) sono altamente provvisorie e (molto probabilmente) non prive di errori.

Queste note (attualmente, e probabilmente per un bel po ) sono altamente provvisorie e (molto probabilmente) non prive di errori. ËÁËÌ ÅÁ ÈÁ ÆÁ ½ Queste note attualmente e probabilmente per un bel po ) sono altamente provvisorie e molto probabilmente) non prive di errori 41 Sistemi 2D Come abbiamo già detto tipicamente è impossibile

Dettagli

Dimostrazione. Indichiamo con α e β (finiti o infiniti) gli estremi dell intervallo I. Poniamo

Dimostrazione. Indichiamo con α e β (finiti o infiniti) gli estremi dell intervallo I. Poniamo C.6 Funzioni continue Pag. 114 Dimostrazione del Corollario 4.25 Corollario 4.25 Sia f continua in un intervallo I. Supponiamo che f ammetta, per x tendente a ciascuno degli estremi dell intervallo, iti

Dettagli

DIFFERENZIAZIONE. Sia f una funzione reale di variabile reale con dominio un intervallo. Se f è derivabile in un punto x 0, allora: f(x) f(x 0 ) lim

DIFFERENZIAZIONE. Sia f una funzione reale di variabile reale con dominio un intervallo. Se f è derivabile in un punto x 0, allora: f(x) f(x 0 ) lim DIFFERENZIAZIONE 1 Regola della catena Sia f una funzione reale di variabile reale con dominio un intervallo. Se f è derivabile in un punto x 0, allora: f(x) f(x 0 ) lim = f (x 0 ). x x 0 x x 0 Questa

Dettagli

Operazioni tra matrici e n-uple

Operazioni tra matrici e n-uple CAPITOLO Operazioni tra matrici e n-uple Esercizio.. Date le matrici 0 4 e dati λ = 5, µ =, si calcoli AB, BA, A+B, B A, λa+µb. Esercizio.. Per ognuna delle seguenti coppie di matrici A, B e scalari λ,

Dettagli

Spazi vettoriali euclidei.

Spazi vettoriali euclidei. Spazi vettoriali euclidei Prodotto scalare, lunghezza e ortogonalità in R n Consideriamo lo spazio vettoriale R n = { =,,, n R}, n con la somma fra vettori e il prodotto di un vettore per uno scalare definiti

Dettagli

MATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI. Anna TORRE

MATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI. Anna TORRE MATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI Anna TORRE Dipartimento di Matematica, Università di Pavia, Via Ferrata 1, 27100, Pavia, Italy. E-mail: anna.torre@unipv.it 1 GIOCHI

Dettagli

CORSO DI ANALISI MATEMATICA 2 SOLUZIONI ESERCIZI PROPOSTI 18/03/2013

CORSO DI ANALISI MATEMATICA 2 SOLUZIONI ESERCIZI PROPOSTI 18/03/2013 CORSO DI ANALISI MATEMATICA SOLUZIONI ESERCIZI PROPOSTI 8/03/03 D.BARTOLUCCI, D.GUIDO. La continuità uniforme I ESERCIZIO: Dimostrare che la funzione f(x) = x 3, x A = (, ] non è uniformemente continua

Dettagli

LEZIONE 12. Y = f(x) = f( x j,1 f(e j ) = x j,1 A j = AX = µ A (X),

LEZIONE 12. Y = f(x) = f( x j,1 f(e j ) = x j,1 A j = AX = µ A (X), LEZIONE 1 1.1. Matrice di un applicazione lineare. Verifichiamo ora che ogni applicazione lineare f: R n R m è della forma µ A per un unica A R m,n. Definizione 1.1.1. Per ogni j 1,..., n indichiamo con

Dettagli

Funzioni elementari: funzioni potenza

Funzioni elementari: funzioni potenza Funzioni elementari: funzioni potenza Lezione per Studenti di Agraria Università di Bologna (Università di Bologna) Funzioni elementari: funzioni potenza 1 / 36 Funzioni lineari Come abbiamo già visto,

Dettagli

La notazione usata è quella usuale nel caso scalare, ed è estesa al caso generale. Consideriamo una forma quadratica:

La notazione usata è quella usuale nel caso scalare, ed è estesa al caso generale. Consideriamo una forma quadratica: . SU ALCUNI OPERAORI DI DERIVAZIONE Alcune operazioni tipiche dell analisi matematica hanno un diretto riscontro in termini matriciali. Consideriamo ad esempio una forma lineare: f() l l + l +..l n n ;

Dettagli

LEZIONE 5. AX = 0 m,1.

LEZIONE 5. AX = 0 m,1. LEZIONE 5 5 isoluzione di sistemi Supponiamo che AX = B sia un sistema di equazioni lineari Ad esso associamo la sua matrice completa (A B Per quanto visto nella precedente lezione, sappiamo di poter trasformare,

Dettagli

Massimo limite e minimo limite di una funzione

Massimo limite e minimo limite di una funzione Massimo limite e minimo limite di una funzione Sia f : A R una funzione, e sia p DA). Per ogni r > 0, l insieme ) E f p r) = { fx) x A I r p) \ {p} } è non vuoto; inoltre E f p r ) E f p r ) se 0 < r r.

Dettagli

1 Relazione di congruenza in Z

1 Relazione di congruenza in Z 1 Relazione di congruenza in Z Diamo ora un esempio importante di relazione di equivalenza: la relazione di congruenza modn in Z. Definizione 1 Sia X = Z, a,b Z ed n un intero n > 1. Si dice a congruo

Dettagli

Esercizi svolti. delle matrici

Esercizi svolti. delle matrici Esercizi svolti. astratti. Si dica se l insieme delle coppie reali (x, y) soddisfacenti alla relazione x + y è un sottospazio vettoriale di R La risposta è sì, perchè l unica coppia reale che soddisfa

Dettagli

Elementi di Algebra e di Matematica Discreta Numeri interi, divisibilità, numerazione in base n

Elementi di Algebra e di Matematica Discreta Numeri interi, divisibilità, numerazione in base n Elementi di Algebra e di Matematica Discreta Numeri interi, divisibilità, numerazione in base n Cristina Turrini UNIMI - 2016/2017 Cristina Turrini (UNIMI - 2016/2017) Elementi di Algebra e di Matematica

Dettagli

In questo esempio, come in tutti gli altri, chiamiamo l individuo 1 giocatore di riga, perché deve scegliere di collocarsi in una delle due righe

In questo esempio, come in tutti gli altri, chiamiamo l individuo 1 giocatore di riga, perché deve scegliere di collocarsi in una delle due righe Teoria dei Giochi La teoria dei giochi è la scienza matematica che studia e analizza le decisioni individuali di più soggetti che mirano al massimo guadagno personale dalla scelta che essi prendono. Le

Dettagli

Corso di Laurea in Matematica Geometria 2. Foglio di esercizi n. 1 a.a Soluzioni

Corso di Laurea in Matematica Geometria 2. Foglio di esercizi n. 1 a.a Soluzioni Corso di Laurea in Matematica Geometria 2 Foglio di esercizi n. 1 a.a. 2015-16 Soluzioni Gli esercizi sono presi dal libro di Manetti. Per svolgere questi esercizi, studiare con cura i paragrafi 3.1, 3.2,

Dettagli

Appunti su Indipendenza Lineare di Vettori

Appunti su Indipendenza Lineare di Vettori Appunti su Indipendenza Lineare di Vettori Claudia Fassino a.a. Queste dispense, relative a una parte del corso di Matematica Computazionale (Laurea in Informatica), rappresentano solo un aiuto per lo

Dettagli

Parte 12b. Riduzione a forma canonica

Parte 12b. Riduzione a forma canonica Parte 2b. Riduzione a forma canonica A. Savo Appunti del Corso di Geometria 202-3 Indice delle sezioni. Coniche, 2. Esempio di riduzione, 4 3. Teoremi fondamentali, 6 4. Come determinare l equazione canonica,

Dettagli

Il teorema di Lagrange e la formula di Taylor

Il teorema di Lagrange e la formula di Taylor Il teorema di Lagrange e la formula di Taylor Il teorema del valor medio di Lagrange, valido per funzioni reali di una variabile reale, si estende alle funzioni reali di più variabili. Come si vedrà, questo

Dettagli

La dualità nella Programmazione Lineare

La dualità nella Programmazione Lineare Capitolo 3 La dualità nella Programmazione Lineare 3.1 Teoria della dualità Esercizio 3.1.1 Scrivere il problema duale del seguente problema di Programmazione Lineare: min x 1 x 2 + x 3 2x 1 +3x 2 3 x

Dettagli

Università degli Studi di Palermo Facoltà di Economia. Dipartimento di Scienze Economiche, Aziendali e Statistiche. Appunti del corso di Matematica

Università degli Studi di Palermo Facoltà di Economia. Dipartimento di Scienze Economiche, Aziendali e Statistiche. Appunti del corso di Matematica Università degli Studi di Palermo Facoltà di Economia Dipartimento di Scienze Economiche, Aziendali e Statistiche Appunti del corso di Matematica 03 - I Numeri Reali Anno Accademico 2015/2016 M. Tumminello,

Dettagli

LEZIONE i i 3

LEZIONE i i 3 LEZIONE 5 51 Determinanti In questo lezione affronteremo da un punto di vista prettamente operativo la nozione di determinante, descrivendone le proprietà ed i metodi di calcolo, senza entrare nei dettagli

Dettagli

ANALISI MATEMATICA 3. esercizi assegnati per la prova scritta del 31 gennaio 2011

ANALISI MATEMATICA 3. esercizi assegnati per la prova scritta del 31 gennaio 2011 esercizi assegnati per la prova scritta del 31 gennaio 2011 Esercizio 1. Per x > 0 e n N si ponga f n (x) = ln ( n 5 x ) a) Provare l integrabilità delle funzioni f n in (0, + ). 3 + n 4 x 2. b) Studiare

Dettagli

Registro Lezioni di Algebra lineare del 15 e 16 novembre 2016.

Registro Lezioni di Algebra lineare del 15 e 16 novembre 2016. Registro Lezioni di Algebra lineare del 15 e 16 novembre 2016 Di seguito si riporta il riassunto degli argomenti svolti; i riferimenti sono a parti del Cap8 Elementi di geometria e algebra lineare Par5

Dettagli

ANALISI 1 - Teoremi e dimostrazioni vari

ANALISI 1 - Teoremi e dimostrazioni vari ANALISI 1 - Teoremi e dimostrazioni vari Sommario Proprietà dell estremo superiore per R... 2 Definitivamente... 2 Successioni convergenti... 2 Successioni monotone... 2 Teorema di esistenza del limite

Dettagli

Esercizi di ottimizzazione vincolata

Esercizi di ottimizzazione vincolata Esercizi di ottimizzazione vincolata A. Agnetis, P. Detti Esercizi svolti 1 Dato il seguente problema di ottimizzazione vincolata max x 1 + x 2 x 1 4x 2 3 x 1 + x 2 2 0 x 1 0 studiare l esistenza di punti

Dettagli

Esempio 1 Si consideri il seguente gioco in forma estesa:

Esempio 1 Si consideri il seguente gioco in forma estesa: Best reply: strategie pure e miste c Fioravante Patrone Esempio Si consideri il seguente gioco in forma estesa: 5 T L R L R 4 4 B T B a) scriverne la forma strategica; b) determinarne gli equilibri di

Dettagli

Sistemi lineari e spazi vettoriali 1 / 14

Sistemi lineari e spazi vettoriali 1 / 14 Sistemi lineari e spazi vettoriali 1 / 14 Sistemi lineari 2 / 14 Studieremo sistemi lineari costituiti da m equazioni in n incognite (m,n N, m,n 1): cioè a 11 x 1 + +a 1n x n = b 1 a 21 x 1 + +a 2n x n

Dettagli

Università degli Studi di Palermo Facoltà di Economia. CdS Sviluppo Economico e Cooperazione Internazionale. Appunti del corso di Matematica

Università degli Studi di Palermo Facoltà di Economia. CdS Sviluppo Economico e Cooperazione Internazionale. Appunti del corso di Matematica Università degli Studi di Palermo Facoltà di Economia CdS Sviluppo Economico e Cooperazione Internazionale Appunti del corso di Matematica 02 - I Numeri Reali Anno Accademico 2013/2014 D. Provenzano, M.

Dettagli

(2) se A A, allora A c A; (3) se {A n } A, allora +

(2) se A A, allora A c A; (3) se {A n } A, allora + 1. Spazi di misura In questo paragrafo accenneremo alla nozione di spazio di misura. Definizione 1. Sia X un insieme non vuoto. Una famiglia A di sottoinsiemi di X è una σ-algebra se : (1) A; (2) se A

Dettagli

Tracce di soluzioni di alcuni esercizi di matematica 1 - gruppo 76-93

Tracce di soluzioni di alcuni esercizi di matematica 1 - gruppo 76-93 Tracce di soluzioni di alcuni esercizi di matematica 1 - gruppo 76-93 5. Funzioni continue Soluzione dell Esercizio 76. Osserviamo che possiamo scrivere p() = n (a n + u()) e q() = m (b m + v()) con lim

Dettagli

ANALISI B alcuni esercizi proposti

ANALISI B alcuni esercizi proposti ANALISI B alcuni esercizi proposti G.P. Leonardi Parte II 1 Limiti e continuità per funzioni di 2 variabili Esercizio 1.1 Calcolare xy log(1 + x ) lim (x,y) (0,0) 2x 2 + 5y 2 Esercizio 1.2 Studiare la

Dettagli

1 Successioni di funzioni

1 Successioni di funzioni Analisi Matematica 2 Successioni di funzioni CORSO DI STUDI IN SMID CORSO DI ANALISI MATEMATICA 2 CAPITOLO 6 SERIE DI POTENZE Supponiamo di associare ad ogni n N (rispettivamente ad ogni n p, per qualche

Dettagli

Massimi e minimi vincolati

Massimi e minimi vincolati Massimi e minimi vincolati Data una funzione G C 1 (D), dove D è un aperto di R 2, sappiamo bene dove andare a cercare gli eventuali punti di massimo e minimo relativi. Una condizione necessaria affinché

Dettagli

Caso, intelligenza e decisioni razionali:spunti didattici

Caso, intelligenza e decisioni razionali:spunti didattici Mathesis 9 febbraio 2006 Caso, intelligenza e decisioni razionali:spunti didattici A. Torre Università di Pavia 1 http://www-dimat.unipv.it/atorre/conferenza.pdf Motivazioni per cui la TEORIA DEI GIOCHI

Dettagli

Geometria della programmazione lineare

Geometria della programmazione lineare Geometria della programmazione lineare poliedri punti estremi, vertici, soluzioni di base esistenza di punti estremi rif. Fi 3.1; BT 2.1, 2.2, 2.5 Iperpiani, semispazi Definizione Sia a un vettore non

Dettagli

+1 i j i = j i = j 1 1 i j 2 Il problema di PL associato alla scelta della migliore strategia per te è quindi il seguente: min z

+1 i j i = j i = j 1 1 i j 2 Il problema di PL associato alla scelta della migliore strategia per te è quindi il seguente: min z Esercizio 1. Considera il seguente gioco. Tu e il tuo avversario potete scegliere un intero tra 1 e. Se il numero x che hai scelto è minore di quello y del tuo avversario, allora tu vinci un euro, a meno

Dettagli

Vettori applicati. Capitolo Richiami teorici. Definizione 1.1 Un sistema di vettori applicati Σ è un insieme

Vettori applicati. Capitolo Richiami teorici. Definizione 1.1 Un sistema di vettori applicati Σ è un insieme Capitolo 1 Vettori applicati 1.1 Richiami teorici Definizione 1.1 Un sistema di vettori applicati Σ è un insieme {(P i,v i ), P i E, v i V, i = 1,...,N}, (1.1) dove P i è detto punto di applicazione del

Dettagli

Rette e piani nello spazio Federico Lastaria, Analisi e Geometria 1. Politecnico di Milano Corso di Analisi e Geometria 1

Rette e piani nello spazio Federico Lastaria, Analisi e Geometria 1. Politecnico di Milano Corso di Analisi e Geometria 1 ette e piani nello spazio Federico Lastaria, Analisi e Geometria 1 Politecnico di Milano Corso di Analisi e Geometria 1 Federico Lastaria federico.lastaria@polimi.it ette e piani nello spazio. 9 Gennaio

Dettagli

Massimi e minimi relativi in R n

Massimi e minimi relativi in R n Massimi e minimi relativi in R n Si consideri una funzione f : A R, con A R n, e sia x A un punto interno ad A. Definizione: si dice che x è un punto di massimo relativo per f se B(x, r) A tale che f(y)

Dettagli

Similitudine (ortogonale) e congruenza (ortogonale) di matrici.

Similitudine (ortogonale) e congruenza (ortogonale) di matrici. Lezione del 4 giugno. Il riferimento principale di questa lezione e costituito da parti di: 2 Forme bilineari, quadratiche e matrici simmetriche associate, 3 Congruenza di matrici simmetriche, 5 Forme

Dettagli

Matematica. Corso integrato di. per le scienze naturali ed applicate. Materiale integrativo. Paolo Baiti 1 Lorenzo Freddi 1

Matematica. Corso integrato di. per le scienze naturali ed applicate. Materiale integrativo. Paolo Baiti 1 Lorenzo Freddi 1 Corso integrato di Matematica per le scienze naturali ed applicate Materiale integrativo Paolo Baiti 1 Lorenzo Freddi 1 1 Dipartimento di Matematica e Informatica, Università di Udine, via delle Scienze

Dettagli

Consideriamo il seguente sistema di equazioni differenziali ordinarie (ODE) ai valori iniziali:

Consideriamo il seguente sistema di equazioni differenziali ordinarie (ODE) ai valori iniziali: Capitolo 1 PROBLEMI INIZIALI PER ODE Consideriamo il seguente sistema di equazioni differenziali ordinarie (ODE) ai valori iniziali: { y (t) = f(t, y(t)), t t f (1.1) y( ) = y 0 dove f : [, t f ] R m R

Dettagli

Introduzione soft alla matematica per l economia e la finanza. Marta Cardin, Paola Ferretti, Stefania Funari

Introduzione soft alla matematica per l economia e la finanza. Marta Cardin, Paola Ferretti, Stefania Funari Introduzione soft alla matematica per l economia e la finanza Marta Cardin, Paola Ferretti, Stefania Funari Capitolo Sistemi di equazioni lineari.8 Il Teorema di Cramer Si consideri un generico sistema

Dettagli

Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana /16

Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana /16 Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana - 015/16 Esercizio 1 Per quali valori n Z \ {0} l espressione è un numero intero positivo? (n + 5)(n + 6) 6n Soluzione. Il problema

Dettagli

Complementi di Analisi Matematica Ia. Carlo Bardaro

Complementi di Analisi Matematica Ia. Carlo Bardaro Complementi di Analisi Matematica Ia Carlo Bardaro Capitolo 1 Elementi di topologia della retta reale 1.1 Intorni, punti di accumulazione e insiemi chiusi Sia x 0 IR un fissato punto di IR. Chiameremo

Dettagli

Appunti sul corso di Complementi di Matematica mod. Analisi prof. B.Bacchelli - a.a. 2010/2011.

Appunti sul corso di Complementi di Matematica mod. Analisi prof. B.Bacchelli - a.a. 2010/2011. Appunti sul corso di Complementi di Matematica mod. Analisi prof. B.Baccelli - a.a. 2010/2011. 06 - Derivate, differenziabilità, piano tangente, derivate di ordine superiore. Riferimenti: R.Adams, Calcolo

Dettagli

LEZIONE 23. ax 2 + bxy + cy 2 + dx + ey + f

LEZIONE 23. ax 2 + bxy + cy 2 + dx + ey + f LEZIONE 23 23.1. Riduzione delle coniche a forma canonica. Fissiamo nel piano un sistema di riferimento Oxy e consideriamo un polinomio di grado 2 in x, y a meno di costanti moltiplicative non nulle, diciamo

Dettagli

Algebra Lineare e Geometria. Il teorema fondamentale dell algebra. 1 Non c è un ordine totale sull insieme dei complessi

Algebra Lineare e Geometria. Il teorema fondamentale dell algebra. 1 Non c è un ordine totale sull insieme dei complessi Università di Bergamo Anno accademico 2008 2009 Primo anno di Ingegneria Algebra Lineare e Geometria Il teorema fondamentale dell algebra 1 Non c è un ordine totale sull insieme dei complessi Vogliamo

Dettagli

NOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE

NOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE NOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE ROBERTO GIAMBÒ 1. DEFINIZIONI E PRIME PROPRIETÀ In queste note saranno presentate alcune proprietà principali delle funzioni convesse di una variabile

Dettagli

5.2 Sistemi ONC in L 2

5.2 Sistemi ONC in L 2 5.2 Sistemi ONC in L 2 Passiamo ora a considerare alcuni esempi di spazi L 2 e di relativi sistemi ONC al loro interno. Le funzioni trigonometriche Il sistema delle funzioni esponenziali { e ikx 2π },

Dettagli

IL TEOREMA DEGLI ZERI Una dimostrazione di Ezio Fornero

IL TEOREMA DEGLI ZERI Una dimostrazione di Ezio Fornero IL TEOREMA DEGLI ZERI Una dimostrazione di Ezio Fornero Il teorema degli zeri è fondamentale per determinare se una funzione continua in un intervallo chiuso [ a ; b ] si annulla in almeno un punto interno

Dettagli

Appunti del Corso Analisi 1

Appunti del Corso Analisi 1 Appunti del Corso Analisi 1 Anno Accademico 2011-2012 Roberto Monti Versione del 5 Ottobre 2011 1 Contents Chapter 1. Cardinalità 5 1. Insiemi e funzioni. Introduzione informale 5 2. Cardinalità 7 3.

Dettagli