Intelligenza Artificiale 17 Marzo 2005 Nome e Cognome: Matricola: ESERCIZIO N 1 Ricerca Cieca 5 punti 1.A) Elencare in modo ordinato i nodi (dell'albero sotto) che vengono scelti per l'espansione dalle seguenti strategie di ricerca: Depth First G N V W Breadth First L K Q R J Iterative Deepening S A P B 1.B) Definire le proprietà di completezza, ottimalità e complessità di questi algoritmi. ESERCIZIO N 2 Ricerca Cieca In un albero finito di profondità massima m (la radice si trova a profondità 0) e fattore di ramificazione b il nodo obiettivo più superficiale si trova a profondità g m e g m/2. Dire qual è il numero di nodi massimo e minimo che le seguenti strategie di ricerca dovranno visitare (generare) per raggiungere la soluzione? Depth First: Breadth First: Iterative Deepening:
ESERCIZIO N 3 CSP: Il Quadrato Magico Data una matrice di 3x3 caselle vi viene dato il problema di inserire i numeri interi (da 1 a 9) in modo che le righe, le colonne e le diagonali sommino tutte quante a 15. A destra avete una soluzione al problema. Provate a definire il problema in 2 modi diversi secondo i formalismi del CSP ed illustrare quali potrebbero essere i vantaggi e gli svantaggi di entrambi. 2 7 6 9 5 1 4 3 8 ESERCIZIO N 4 QUIZ 5 punti Dire se le seguenti affermazioni sono vere o false. 1. 2. Con un ordinamento perfetto dei nodi Alfa-Beta Pruning permette (a parità di tempo e potenza di calcolo) di raddoppiare la profondità della ricerca MINIMAX. L introduzione di un elemento di fortuna nel gioco accresce sia l ampiezza che la profondità dell albero delle scelte. 3. La ricerca bidirezionale dimezza il numero di nodi espansi. 4. Se h 1 e h 2 sono entrambe euristiche ammissibili e h 1 domina h 2 allora tutti i nodi espansi da A* con l euristica h 1 sono anche espansi da A* usando h 2. 5. A* non è completo su alberi infiniti. 6. 7. 8. Se A* usa la seguente funzione di costo f(n) = g(n) + w h(n) troverà soluzioni con costo maggiore di wc*,dove C* è il costo della soluzione ottima. IDA* è il migliore algoritmo Best-First per i puzzle con operatori a costo uniforme e in domini discreti. Dato un problema con soluzione ottima a profondità 8 e costo 5, SMA* risulterà ottimale pur potendo contenere solo 6 nodi. 9. I problemi CSP, a differenza dei problemi di percorso, sono commutativi. 10 CSP: nel Backtracking Search conviene scegliere per l espansione la variabile meno vincolante.
ESERCIZIO N 5 Game Playing Osservate il seguente albero in cui MAX muove per primo. A B C D E F G H I J K L M N O P Q R S T U V W X Y 2 3 8 5 7 6 0 1 5 2 8 4 10 2 5.A) Qual è la mossa che MAX dovrà effettuare? E quale la contromossa di MIN? 5.B) Qual è l ordine dei nodi esaminati dall algoritmo MINIMAX 5.C) Quali sono i nodi che la potatura alfa-beta non visita? 5.D) Motivare la risposta a 5.C) mostrando sull albero i valori assunti da alfa e beta. ESERCIZIO N 6 Composizione di euristiche Date due euristiche ammissibili h 1 e h 2 stabilire quale delle seguenti euristiche ottenute per composizione permette di ottimizzare l'efficienza dell'algoritmo A*. Motivare l affermazione. A. max{h 1, h 2 } B. min{h 1, h 2 } C. α h 1 + β h 2 dove (α + β) 1 (combinazione convessa)
ESERCIZIO N 7 Algoritmo di Rosenblatt Per un determinato training set l'algoritmo di Rosenblatt converge in "n" passi. Cosa succede al numero di iterazioni se: a) tutti gli esempi sono scalati del fattore costante 2 (raddoppiati). Motivare la risposta. b) si aggiungono al training set "m" esempi ottenuti per combinazione convessa di esempi del training set originario (esempi +/- sono ottenuti per combinazione di esempi +/-). Motivare la risposta.
ESERCIZIO N 8 (FACOLTATIVO) Il paradosso delle euristiche 3 punti Dato un problema formulato nello schema del problem solving si consideri la generazione di un'euristica h costruita nel modo seguente: h = min { h1,..., hi,..., hn} (1) i dove h i ( ) è un numero random a distribuzione uniforme con probabilità di sovrastima p s. Proposition: Comunqe scelgo p ε > 0 se si prende n log p ε / log p s allora la probabilità che h sovrastimi è non superiore a p ε. Proof: La proposizione deriva immediatamente dal fatto che la probabilità che tutte le n euristiche h i sovrastimino è pari a p n s. Imponendo p n s p ε si deriva la tesi. Ovvero, comunque si prenda un p ε arbitrariamente piccolo si può sempre prendere una collezione di funzioni random h i sufficientemente numerosa in modo che la funzione h, determinata secondo l'equazione 1, sia una funzione quasi-ammissibile. Questo appare un paradosso in quanto, con sole funzioni random, in ogni caso, senza euristica sul problema, si costruisce un'euristica quasi-ammissibile. Il ragionamento precedente nasconde tuttavia un elemento fondamentale che vanifica la costruzione dell'euristica secondo lo schema dell'equazione 1. Quale? Motivare la risposta. ESERCIZIO N 9 (FACOLTATIVO) Algoritmo di Rosenblatt 3 punti Se nell'algoritmo di Rosenblatt si mette una costante di learning rate in modo che l'aggiornamento dei pesi avvenga secondo lo schema w = w + µ u invece che semplicemente w = w + u (w sono i pesi, u è l'ingresso) cosa succede al numero di iterazioni per raggiungere la convergenza nel caso di lineare separabilità degli esempi?