Strutture dati. (parte II: alberi e grafi)

Documenti analoghi
Strutture Dati. Parte II: alberi e grafi

Alberi rosso-neri. Le operazioni sugli alberi binari di ricerca hanno complessità proporzionale all altezza h dell albero.

Come aumentare gli alberi La soluzione di alcuni problemi algoritmici richiede la progettazione di una struttura dati appropriata.

algoritmi e strutture di dati

In questa lezione Alberi binari di ricerca

Algoritmi e Strutture Dati

Sommario. Rappresentazione dei grafi. Ordinamento topologico. Visita in ampiezza Visita in profondità

Esercizi su ABR. Prof. E. Fachini - Intr. Alg.!1

Dipartimento di Elettronica, Informazione e Bioingegneria API 2013/4

Alberi rosso neri. API a.a. 2013/2014 Gennaio 23, 2014 Flavio Mutti, PhD

Algoritmi e Strutture di Dati

Algoritmi e Strutture di Dati II 2. Visite di grafi

Algoritmi e Strutture Dati

Esercitazione 7. Grafi. Rappresentazione e algoritmi di visita

Algoritmi e Strutture Dati

Grafi. V = {a, b, c, d} E = {(a, b), (a, c), (c, a), (d, d), (b, d)}

Algoritmi e Strutture Dati

Algoritmi e Strutture Dati

Esempi. non. orientato. orientato

Esercitazione 6. Alberi binari di ricerca

Bioinformatica. Grafi. a.a Francesca Cordero. Grafi Bioinformatica

Grafi: visita generica

Alberi binari di ricerca

Esercizio 1. E vero che in un AVL il minimo si trova in una foglia o nel penultimo livello? FB = -1. livello 0 FB = -1. livello 1 FB = -1.

Visite in Grafi BFS e DFS

Problema del cammino minimo

Algoritmi e Strutture Dati

Algoritmi e Strutture Dati

Algoritmi e Strutture Dati. Capitolo 3 Strutture dati elementari

Esame di Algoritmi e Strutture Dati Corso di Laurea in Ingegneria Informatica Canali A-L, M-Z

Struttura di dati che può essere usata sia come dizionario, sia come coda con priorità

Strutture dati - Parte 2

Alberi binari e alberi binari di ricerca

Alberi Rosso-Neri: definizione

In questa lezione Alberi rosso-neri

Algoritmi e Strutture Dati. Capitolo 3 Strutture dati elementari

Alberi binari e alberi binari di ricerca

Alberi binari e alberi binari di ricerca

Progettazione di algoritmi

Soluzioni della settima esercitazione di Algoritmi 1

In questa lezione Alberi binari di ricerca: la cancellazione

Multi-way search trees

Esercizio Per quali valori di t l albero in figura è un B-Albero legale?

Algoritmi e Strutture Dati

In questa lezione Strutture dati elementari: Pila Coda Loro uso nella costruzione di algoritmi.

Esercitazione 6 Algorithmi e Strutture Dati (Informatica) A.A 2015/2016

Implementazione di dizionari

Algoritmi e Strutture Dati

Dipartimento di Elettronica e Informazione API 2012/3

Algoritmo di ordinamento sul posto che ha tempo di esecuzione :

Algoritmi e Strutture Dati Grafi. Daniele Loiacono

Alberi Binari di Ricerca e Alberi Rosso-Neri

Algoritmi e strutture dati 16 Dicembre 2004 Canali A L e M Z Cognome Nome Matricola

Prova di Algoritmi e s.d. (1o anno) 17 Settembre TESTO e RISPOSTE

Ordinamenti. Grafo : definizione. Un grafo G = (V,E)è composto da: V: insieme di vertici E V V: insieme di archi (edge) che connettono i vertici

uscente entrante adiacente Figure B.2 (a) (b) (c) incident from leaves incident to enters incident on adjacent degree isolated

Grafi: visite. Una breve presentazione. F. Damiani - Alg. & Lab. 04/05 (da C. Demetrescu et al - McGraw-Hill)

Alberi ed Alberi Binari di Ricerca

Esempi. Albero di interi. Struttura che non è un albero!

Alberi. Gli alberi sono una generalizzazione delle liste che consente di modellare delle strutture gerarchiche come questa: Largo. Fosco.

Visite in Grafi BFS e DFS. PDF created with FinePrint pdffactory trial version

Algoritmi e Strutture Dati (Mod. B) Algoritmi su grafi Ricerca in profondità (Depth-First Search) Parte II

Ordinamento parziale

Ordinamenti. Vittorio Maniezzo Università di Bologna

Alberi e alberi binari I Un albero è un caso particolare di grafo

Alberi e alberi binari I Un albero è un caso particolare di grafo

d. Cancellazione del valore 5 e. Inserimento del valore 1

In questa lezione. Alberi binari: [CLRS09] cap. 12 per la visita inorder. visite e esercizi su alberi binari. Prof. E. Fachini - Intr. Alg.

Alberi. Se x è il genitore di y, allora y è un figlio di x. Un albero binario è un albero in cui ogni nodo ha al massimo due figli.

Esercizi su alberi binari

PROBLEMA DEI CAMMINI MINIMI [CORMEN ET AL. CAP. 24] Il costo di cammino minimo da un vertice u ad un vertice v è definito nel seguente modo:

Struttura dati Dizionario

K 4 è planare? E K 3,3 e K 5 sono planari? Sì! No! (Teorema di Kuratowski) K 5. Camil Demetrescu, Irene Finocchi, Giuseppe F.

Alberi. Definizione, realizzazione e algoritmi elementari. Ugo de' Liguoro - Algoritmi e Sperimentazioni 03/04 - Lez. 7

Cammini Minimi. Algoritmo di Dijkstra. Cammino in un grafo

Alberi Binari di Ricerca

Alberi. Gli alberi sono una generalizzazione delle liste che consente di modellare delle strutture gerarchiche come questa: Largo. Fosco.

Algoritmi e Strutture Dati

Il tipo astratto coda con priorità: specifiche sintattiche e semantiche. Realizzazioni.

Alberi Binari di Ricerca

Cammini Minimi. Algoritmo di Dijkstra

Problemi di ordinamento

LABORATORIO DI ALGORITMI E STRUTTURE DATI A-L. Ingegneria e scienze informatiche Cesena A.A: 2016/2017 Docente: Greta Sasso

Università Roma Tre - PAS Classe A048 "Matematica Applicata" - Corso di Informatica a.a. 2013/2014

LE STRUTTURE DATI DINAMICHE: GLI ALBERI. Cosimo Laneve

Alberi di ricerca binari

Algoritmi e Strutture Dati. Capitolo 6 Il problema del dizionario

Albero binario. Alberi binari (introduzione) Terminologia. Alberi di ricerca binaria (BST)

2 OTTIMIZZAZIONE SU GRAFI. E. Amaldi Fondamenti di R.O. Politecnico di Milano 1

QuickSort Università degli Studi di Milano

Note per la Lezione 22 Ugo Vaccaro

Dati e Algoritmi I (Pietracaprina) Esercizi su Alberi Binari di Ricerca e (2,4)-Tree

Algoritmi e Strutture di Dati

Algoritmi e Strutture Dati

Esercizi BST - AVL. E. Fachini

Alberi. Alberi: definizioni. Alberi Binari. Esercizi su alberi binari: metodi ricorsivi. Struttura dati per alberi generici. ASD-L - Luca Tesei

Esercizi su ABR. Prof. E. Fachini - Intr. Alg. 1

Transcript:

Strutture dati (parte II: alberi e grafi) 1

Alberi binari Un albero binario è fatto di 3 elementi: un nodo radice; un albero binario che è il sottoalbero sinistro, ed un albero binario che è il sottoalbero destro è una definizione ricorsiva un sottoalbero può essere vuoto (NIL) Ad ogni nodo dell'albero associamo un oggetto con una chiave 2

Esempio di albero binario radice sottoalbero sinistro 3 2 7 4 1 5 6 sottoalbero destro 3

Rappresentazione di alberi binari Tipicamente si rappresentano alberi binari mediante strutture dati concatenate abbiamo però anche visto la rappresentazione mediante array Ogni nodo dell'albero è rappresentato da un oggetto che ha i seguenti attributi key, la chiave del nodo (che per noi ne rappresenta il contenuto) tipicamente ci sono anche i dati satelliti p, che è il (puntatore al) nodo padre left, che è il (puntatore al) sottoalbero sinistro left è la radice del sottoalbero sinistro right che è il (puntatore al) sottoalbero destro è la radice del sottoalbero destro ogni albero T ha un attributo, T.root, che è il puntatore alla radice dell'albero 4

Si noti che: se il sottoalbero sinistro (destro) di un nodo x è vuoto, allora x.left = NIL (x.right = NIL) x.p = NIL se e solo se x è la radice (cioè x = T.root) Per esempio: T.root 3 2 7 4 1 5 6 5

Ricorsiva La ricerca in alberi binari Generalizza la ricerca ricorsiva in liste lineari Ma molto più comoda del codice esplicito non ricorsivo Differenza tra linearità e non linearità della struttura (e.g. merge-sort vs. sort by minimum extraction) O(n) Nel caso di array ordinati si può usare la ricerca binaria O(log(n)) E per le liste ordinate? Allora invece di usare liste lineari ordinate Usiamo strutture ordinate già spezzate : gli alberi binari 6

Alberi binari di ricerca (Binary Search Trees) Un albero binario di ricerca (Binary Search Tree, BST) è un albero binario che soddisfa la seguente proprietà: per tutti i nodi x del BST, se l è un nodo nel sottoalbero sinistro, allora l.key x.key; se r è un nodo del sottoalbero destro, allora x.key r.key tutti i nodi l del sottoalbero sinistro di un nodo x sono tali che, per tutti i nodi r nel sottoalbero destro di x vale l.key r.key 7

esempio 5 3 7 2 5 8 8

Una tipica operazione che viene fatta su un albero è di attraversarlo (walk through) Lo scopo dell'attraversamento di un albero è di produrre (le chiavi associate a) gli elementi dell'albero Ci sono diversi modi di attraversare un albero; un modo è l'attraversamento simmetrico (inorder tree walk) prima si visita il sottoalbero sinistro e si restituiscono i suoi nodi quindi si restituisce la radice quindi si visita il sottoalbero destro e si restituiscono i suoi nodi Si noti che: come spesso accade con gli algoritmi sugli alberi (che è una struttura dati inerentemente ricorsiva), l'attraversamento simmetrico è un algoritmo ricorsivo con l'attraversamento simmetrico gli elementi di un albero sono restituiti ordinati per esempio, l'attraversamento simmetrico sull'albero precedente produce le chiavi seguenti: 2, 3, 5, 5, 7, 8 9

Algoritmi di attraversamento INORDER-TREE-WALK(x) 1 if x NIL 2 INORDER-TREE-WALK(x.left) 3 print x.key 4 INORDER-TREE-WALK(x.right) Se T è un BST, INORDER-TREE-WALK(T.root) stampa tutti gli elementi di T in ordine crescente Se n è il numero di nodi nel (sotto)albero, il tempo di esecuzione per INORDER-TREE-WALK è (n) se l'albero è vuoto, è eseguito in tempo costante c se l'albero ha 2 sottoalberi di dimensioni k e n-k-1, T(n) è dato dalla ricorrenza T(n) = T(k) + T(n-k-1) + d, che ha soluzione (c+d)n+c lo si può vedere sostituendo la soluzione nell'equazione 10

Altre possibili strategie di attraversamento: anticipato (preorder tree walk), e posticipato (postorder tree walk) in preorder, la radice è restituita prima dei sottoalberi in postorder, la radice è restituita dopo i sottoalberi Esercizi: scrivere lo pseudocodice per PREORDER-TREE-WALK e POSTORDER-TREE-WALK scrivere lo pseudocodice per Breadth-first-TREE- WALK (il cui risultato per l albero precedente deve essere:5, 3, 7, 2, 5, 8) 11

Operazioni sui BST Sfruttiamo la proprietà di essere un BST per realizzare la ricerca: confronta la chiave della radice con quella cercata se sono uguali, l'elemento è quello cercato se la chiave della radice è più grande, cerca nel sottoalbero sinistro se la chiave della radice è più piccola, cerca nel sottoalbero destro 12

TREE-SEARCH(x, k) 1 if x = NIL or k = x.key 2 return x 3 if k < x.key 4 return TREE-SEARCH(x.left, k) 5 else return TREE-SEARCH(x.right, k) Il tempo di esecuzione è O(h), con h l'altezza dell'albero 13

L'elemento minimo (risp. massimo) in un BST è quello che è più a sinistra (risp. destra) Sfruttiamo questa proprietà per definire il seguente algoritmo, che semplicemente scende nell'albero MINIMUM scende a sinistra, mentre MAXIMUM scende a destra gli algoritmi restituiscono l'oggetto nell'albero con la chiave minima, non la chiave stessa TREE-MINIMUM(x) 1 while x.left NIL 2 x := x.left 3 return x TREE-MAXIMUM(x) 1 while x.right NIL 2 x := x.right 3 return x Entrambi gli algoritmi hanno tempo di esecuzione che è O(h), con h l'altezza dell'albero 14

Operazioni sui BST (2) Il successore (risp. predecessore) di un oggetto x in un BST è l'elemento y del BST tale che y.key è la più piccola (risp. più grande) tra le chiavi che sono più grandi (risp. piccole) di x.key di fatto, se il sottoalbero destro di un oggetto x dell'albero non è vuoto, il successore di x è l'elemento più piccolo (cioè il minimo) del sottoalbero destro di x x succ(x) 15

se il sottoalbero destro di x è vuoto, il successore di x è il primo elemento y che si incontra risalendo nell'albero da x tale che x è nel sottoalbero sinistro di y left y right right right right Molto informalmente: per trovare y mi basta salire dai "right" fino a quando risalgo un "left" TREE-SUCCESSOR(x) 1 if x.right NIL 2 return TREE-MINIMUM(x.right) 3 y := x.p 4 while y NIL and x = y.right 5 x := y 6 y := y.p 7 return y x Il tempo di esecuzione per TREE-SUCCESSOR è O(h) Esercizio: scrivere l'algoritmo TREE-PREDECESSOR e darne la complessità 16

Inserimento Idea di base per l'inserimento: scendere nell'albero fino a che non si raggiunge il posto in cui il nuovo elemento deve essere inserito, ed aggiungere questo come foglia Supponiamo, per esempio, di volere inserire un nodo con chiave 7 nell'albero seguente: 5 3 8 1 4 9 17

eseguiamo i seguenti passi: confrontiamo 5 con 7 e decidiamo che il nuovo elemento deve essere aggiunto al sottoalbero destro di 5 confrontiamo 8 con 7 e decidiamo che 7 deve essere aggiunto al sottoalbero sinistro di 8 notiamo che il sottoalbero sinistro di 8 è vuoto, e aggiungiamo 7 come sottoalbero sinistro di 8 quindi, otteniamo il nuovo albero: 5 3 8 1 4 7 9 18

Insert: pseudocodice TREE-INSERT(T, z) 1 y := NIL 2 x := T.root 3 while x NIL 4 y := x 5 if z.key < x.key 6 x := x.left 7 else x := x.right 8 z.p := y 9 if y = NIL 10 T.root := z //l'albero T e' vuoto 11 elsif z.key < y.key 12 y.left := z 13 else y.right := z Si noti che inseriamo un oggetto, z, che assumiamo sia stato inizializzato con la chiave desiderata Il tempo di esecuzione di TREE-INSERT è O(h) infatti, scendiamo nell'albero nel ciclo while (che al massimo richiede tante ripetizioni quanta è l'altezza dell'albero), e il resto (linee 8-13) si fa in tempo costante 19

Cancellazione Quando cancelliamo un oggetto z da un albero, abbiamo 3 possibili casi (a seconda che z sia una foglia o un nodo interno): il nodo z da cancellare non ha sottoalberi il nodo z da cancellare ha 1 sottoalbero il nodo z da cancellare ha 2 sottoalberi Il caso 1 è quello più facile, basta mettere a NIL il puntatore del padre di z che puntava a z: 5 3 8 5 3 8 1 4 9 1 9 20

Nel caso 2, dobbiamo spostare l'intero sottoalbero di z su di un livello: 5 3 7 5 3 9 1 4 9 1 4 8 10 8 10 21

Nel caso 3 dobbiamo trovare il successore del nodo da cancellare z, copiare la chiave (il contenuto) del successore in z, quindi cancellare il successore cancellare il successore potrebbe richiedere di spostare un (il) sottoalbero del successore un livello su si noti che in questo caso l'oggetto originario z non è cancellato, ma il suo attributo key viene modificato (l'oggetto effettivamente cancellato è quello con il successore di z) 5 3 7 5 3 8 1 4 6 12 1 4 6 12 8 14 9 14 9 22

Delete: pseudocodice TREE-DELETE(T, z) 1 if z.left = NIL or z.right = NIL 2 y := z 3 else y := TREE-SUCCESSOR(z) 4 if y.left NIL //y non è il successore di z 5 x := y.left 6 else x := y.right 7 if x NIL 8 x.p := y.p 9 if y.p = NIL 10 T.root := x 11 elsif y = y.p.left 12 y.p.left := x 13 else y.p.right := x 14 if y z 15 z.key := y.key 16 return y Nota: y è il nodo da eliminare x è quello con cui lo sostituiamo 23

In TREE-DELETE, y è il nodo effettivamente da cancellare Se z ha non più di un sottoalbero, allora il nodo y da cancellare è z stesso; altrimenti (se z ha entrambi i sottoalberi) è il suo successore (linee 1-3) Si noti che y non può avere più di un sottoalbero nelle linee 4-6, ad x viene assegnata la radice del sottoalbero di y se y ne ha uno, NIL se y non ha sottoalberi le linee 7-13 sostituiscono y con il suo sottoalbero (che ha x come radice) nelle linee 14-15, se z ha 2 sottoalberi (che corrisponde caso in cui il nodo y da cancellare è il successore di z, non z stesso), la chiave di z è sostituita con quella del suo successore y 24

Analisi di complessità (1) Il tempo di esecuzione per TREE-DELETE è O(h) TREE-SUCCESSOR è O(h), il resto è fatto in tempo costante Tutte le operazioni sui BST (SEARCH, MINIMUM, MAXIMUM, SUCCESSOR, PREDECESSOR, INSERT, DELETE) hanno tempo di esecuzione che è O(h) cioè, alla peggio richiedo di scendere nell'albero Quindi... quanto vale l'altezza di un BST (rispetto al numero dei suoi nodi)? 25

Analisi di complessità (2) Per un albero completo, h = (log(n)) un albero è completo se e solo se, per ogni nodo x, o x ha 2 figli, o x è una foglia, e tutte le foglie hanno la stessa profondità 5 3 7 2 5 7 8 Nel caso pessimo, però, che si ha se tutti i nodi sono in linea, abbiamo h = (n) 2 4 5 9 26

Analisi di complessità (3) Tuttavia, un BST non deve per forza essere completo per avere altezza h tale che h = (log(n)) abbiamo per esempio visto che questa proprietà vale anche per alberi quasi completi Abbiamo che h = (log(n)) anche per un albero bilanciato informalmente, diciamo che un albero è bilanciato se e solo se non ci sono 2 foglie nell'albero tali che una è molto più lontana dalla radice dell'altra (se si trovano a profondità molto diverse) ci potrebbero essere diverse nozioni di "molto più lontano" una possibile definizione di albero bilanciato (Adelson-Velskii e Landis) è la seguente: un albero è bilanciato se e solo se, per ogni nodo x dell'albero, le altezze dei 2 sottoalberi di x differiscono al massimo di 1 27

Esempi: 5 2 9 Ma anche: 1 4 28

Ci sono diverse tecniche per mantenere un albero bilanciato alberi rosso-neri (red-black) alberi AVL etc. Inoltre, si può dimostrare che l'altezza attesa di un albero è O(log(n)) se le chiavi sono inserite in modo casuale, con distribuzione uniforme 29

Alberi rosso-neri (red-black) Gli alberi rosso-neri (RB) sono BST abbastanza bilanciati, cioè l'altezza dell'albero h = O(log(n)) ed è possibile realizzare tutte le operazioni più importanti in tempo O(log(n)) Negli alberi RB non si ha mai che un ramo dell'albero sia lungo più del doppio di un altro ramo è una nozione di bilanciamento diversa da quella degli alberi AVL, ma dà comunque h = O(log(n)) Idea alla base degli alberi RB: ogni nodo ha un colore, che può essere solo rosso o nero i colori sono distribuiti nell'albero in modo da garantire che nessun ramo dell'albero sia 2 volte più lungo di un altro 30

Ogni nodo di un albero RB ha 5 attributi: key, left, right, p, e color convenzione: le foglie sono i nodi NIL, tutti i nodi non NIL (che hanno quindi una chiave associata) sono nodi interni Un BST è un albero RB se soddisfa le seguenti 5 proprietà: 1) ogni nodo è o rosso o nero 2) la radice è nera 3) le foglie (NIL) sono tutte nere. 4) i figli di un nodo rosso sono entrambi neri 5) per ogni nodo x tutti i cammini da x alle foglie sue discendenti contengono lo stesso numero bh(x) di nodi neri bh(x) è la altezza nera (black height) del nodo x Il nodo x non è contato in bh(x) anche se nero. 31

Esempi di alberi RB 26 17 41 14 21 30 47 10 16 19 23 28 38 7 12 15 20 35 39 3 32

Per comodità, per rappresentare tutte le foglie NIL, si usa un unico nodo sentinella T.nil è un nodo particolare accessibile come attributo dell'albero T tutti i riferimenti a NIL (compreso il padre della radice) sono sostituiti con riferimenti a T.nil 26 17 41 14 21 30 47 10 16 19 23 28 38 7 12 15 20 35 39 3 T.nil 33

Proprietà degli alberi RB Un albero rosso-nero con n nodi interni (n nodi con chiavi, per la convenzione usata) ha altezza h 2 log 2 (n+1) il numero di nodi interni di un (sotto)albero con radice x è 2 bh(x)-1, (si dimostra per induzione sull'altezza di x) per la proprietà 4, almeno metà dei nodi dalla radice x (esclusa) ad una foglia sono neri, quindi bh(x) h/2, e n 2 h/2-1, da cui discende che h 2 log 2 (n+1) Come conseguenza di questa proprietà, SEARCH, MINIMUM, MAXIMUM, SUCCESSOR e PREDECESSOR richiedono tempo O(log(n)) se applicate ad un albero RB con n nodi queste operazioni non modificano l'albero, che viene semplicemente trattato come un BST il loro pseudocodice è come quello visto in precedenza 34

INSERT e DELETE si possono anch'esse fare con complessità O(log(n)), ma devono essere modificate rispetto a quelle viste prima devono essere tali da mantenere le 5 proprietà degli alberi RB Il meccanismo fondamentale per realizzare INSERT e DELETE è quello delle rotazioni: verso sinistra (LEFT-ROTATE) o verso destra (RIGHT-ROTATE) x LEFT-ROTATE(T,x) y y RIGHT-ROTATE(T,y) x 35

Pseudocodice per rotazioni x LEFT-ROTATE(T,x) y y RIGHT-ROTATE(T,y) x LEFT-ROTATE(T,x) 1 y := x.right 2 x.right := y.left //il sottoalbero sinistro di y 3 if y.left T.nil 4 y.left.p := x //diventa quello destro di x 5 y.p := x.p //attacca il padre di x a y 6 if x.p = T.nil 7 T.root := y 8 elsif x = x.p.left 9 x.p.left := y 10 else x.p.right := y 11 y.left := x //mette x a sinistra di y 12 x.p := y Una rotazione su un BST mantiene la proprietà di essere BST Esercizio per casa: scrivere lo pseudocodice per RIGHT-ROTATE 36

RB-INSERT L'inserimento è fatto in modo analogo a quello dei BST, ma alla fine occorre ristabilire le proprietà dagli alberi RB se queste sono state violate per ristabilire le proprietà si usa un algoritmo RB- INSERT-FIXUP (che vedremo dopo) Uguale a TREE-INSERT, salvo che per l'uso di T.nil al posto di NIL e l'aggiunta delle righe 14-17: 37

RB-INSERT(T, z) 1 y := T.nil // y padre del nodo considerato 2 x := T.root // nodo considerato 3 while x T.nil 4 y := x 5 if z.key < x.key 6 x := x.left 7 else x := x.right 8 z.p := y 9 if y = T.nil 10 T.root := z //l'albero T e' vuoto 11 elsif z.key < y.key 12 y.left := z 13 else y.right := z 14 z.left := T.nil 15 z.right := T.nil 16 z.color := RED 17 RB-INSERT-FIXUP(T, z) Uguale a TREE-INSERT, salvo che per l'uso di T.nil al posto di NIL e l'aggiunta delle righe 14-17 38

RB-INSERT-FIXUP(T, z) 1 if z = T.root 2 T.root.color = BLACK 3 else x := z.p // x e' il padre di z 4 if x.color = RED 5 if x = x.p.left // se x e' figlio sin. 6 y := x.p.right // y e' fratello di x 7 if y.color = RED 8 x.color := BLACK // Caso 1 9 y.color := BLACK // Caso 1 10 x.p.color := RED // Caso 1 11 RB-INSERT-FIXUP(T,x.p) // Caso 1 12 else if z = x.right 13 z := x // Caso 2 14 LEFT-ROTATE(T, z) // Caso 2 15 x := z.p // Caso 2 16 x.color := BLACK // Caso 3 17 x.p.color := RED // Caso 3 18 RIGHT-ROTATE(T, x.p) // Caso 3 19 else (come 6-18, scambiando right left ) 39

RB-INSERT-FIXUP è invocato sempre su un nodo z tale che z.color = RED per questo motivo, se la condizione alla linea 4 è non verificata (cioè se il padre di z è di colore nero) non ci sono ulteriori modifiche da fare Ora vediamo come funziona: 40

Funzionamento: Caso 1: y rosso x.p 7 x.p 7 x 5 9 y x 5 9 y z 3 z 3 x.p 7 x.p 7 x 3 9 y x 3 9 y z 5 z 5 quindi ripeto la procedura su x.p, in quanto il padre di x.p potrebbe essere di colore rosso, nel qual caso la proprietà 4 degli alberi RB non sarebbe (ancora) verificata 41

Caso 2: y nero e z figlio destro di x x.p 7 x.p 7 x 3 9 y x' = z 5 9 y 5 d e z' = x g d e z b g a b 3 a questo punto ci siamo messi nel caso 3 42

Caso 3: y nero e z figlio sinistro di x x.p 7 x.p 7 5 x 5 9 y x 5 9 y 3 7 z 3 z 3 9 b b d Ogni volta che RB-INSERT-FIXUP viene invocato esso può o terminare (casi 2 e 3), o venire applicato ricorsivamente risalendo 2 livelli nell'albero (caso 1) quindi può essere invocato al massimo O(h) volte, cioè O(log(n)) si noti che una catena di invocazioni di RB-INSERT-FIXUP esegue al massimo 2 rotazioni (l'ultima chiamata) 43

RB-DELETE(T, z) 1 if z.left = T.nil or z.right = T.nil 2 y := z 3 else y := TREE-SUCCESSOR(z) 4 if y.left T.nil 5 x := y.left 6 else x := y.right 7 x.p := y.p 8 if y.p = T.nil 9 T.root := x 10 elsif y = y.p.left 11 y.p.left := x 12 else y.p.right := x 13 if y z 14 z.key := y.key 15 if y.color = BLACK 16 RB-DELETE-FIXUP(T,x) 17 return y 44

Uguale a TREE-DELETE, salvo che per l'uso di T.nil al posto di NIL (che permette l'eliminazione dell'if alla linea 7), e l'aggiunta delle righe 15-16 Se viene cancellato un nodo rosso (cioè se y.color = RED) non c'è bisogno di modificare i colori dei nodi per come è fatto RB-DELETE, viene cancellato un nodo (y) che ha al massimo un figlio diverso da T.nil, e se y.color = RED il nodo x che prende il posto di y è per forza nero 45

RB-DELETE-FIXUP(T, x) 1 if x.color = RED or x.p = T.nil 2 x.color := BLACK // Caso 0 3 elsif x = x.p.left // x e' figlio sinistro 4 w := x.p.right // w e' fratello di x 5 if w.color = RED 6 w.color := BLACK // Caso 1 7 x.p.color := RED // Caso 1 8 LEFT-ROTATE(T,x.p) // Caso 1 9 w := x.p.right // Caso 1 10 if w.left.color = BLACK and w.right.color = BLACK 11 w.color := RED // Caso 2 12 RB-DELETE-FIXUP(T,x.p) // Caso 2 13 else if w.right.color = BLACK 14 w.left.color := BLACK // Caso 3 15 w.color := RED // Caso 3 16 ROTATE-RIGHT(T,w) // Caso 3 17 w := x.p.right // Caso 3 18 w.color := x.p.color // Caso 4 19 x.p.color := BLACK // Caso 4 20 w.right.color := BLACK // Caso 4 21 LEFT-ROTATE(T,x.p) // Caso 4 19 else (come 4-21, scambiando right left ) Idea: il nodo x passato come argomento si porta dietro un nero in più, che, per fare quadrare i conti, può essere eliminato solo a certe condizioni 46

Funzionamento di RB-DELETE-FIXUP Caso 0: x è un nodo rosso, oppure è la radice x 5 x 5 x 5 x 5 Caso 1: x è un nodo nero, il suo fratello destro w è rosso, e di conseguenza il padre x.p è nero 3 3 7 x 1 7 w x 1 7 w 3 9 5 9 5 9 x 1 5 w diventa o il caso 2, o il caso 3, o il caso 4 47

Caso 2: x è nero, suo fratello destro w è nero con figli entrambi neri 3 3 x 1 7 w 1 7 w 5 9 5 9 se arriviamo al caso 2 dal caso 1, allora x.p è rosso, e quando RB-DELETE-FIXUP viene invocato su di esso termina subito (arriva subito al caso 0) 48

Caso 3: x è nero, suo fratello destro w è nero con figlio sinistro rosso e figlio destro nero x 3 1 7 w x 3 1 7 w x 1 3 5 w 5 9 5 9 7 9 diventa il caso 4 49

Caso 4: x è nero, suo fratello destro w è nero con figlio destro rosso 3 3 7 x 1 7 w x 1 7 w 3 9 5 9 5 9 1 5 Ogni volta che RB-DELETE-FIXUP viene invocato esso può o terminare (casi 0, 1, 3 e 4), o venire applicato ricorsivamente risalendo un livello nell'albero (caso 2 non proveniente da 1) quindi può essere invocato al massimo O(h) volte, cioè O(log(n)) si noti che una catena di invocazioni di RB-DELETE-FIXUP esegue al massimo 3 rotazioni (se il caso 1 diventa 3 e poi 4) 50

Richiamo sui grafi Un grafo è una coppia G = (V, E), in cui: V è un insieme di nodi (detti anche vertici) E è un insieme di archi (detti anche lati, o edges) Un arco è una connessione tra 2 vertici 2 vertici connessi da un arco sono detti adiacenti se un arco e connette 2 vertici u e v, può essere rappresentato dalla coppia (u, v) di vertici che connette quindi, E V 2 V è il numero di vertici nel grafo, mentre E è il numero di archi 0 E V 2 51

Ci sono 2 tipi di grafi: orientati e non orientati in un grafo non orientato, un arco (u, v) è lo stesso di (v, u) (non c'è nozione di direzione da un nodo all'altro) In un grafo orientato(u, v) "va dal" nodo u al nodo v, ed è diverso da (v, u) Esempio di grafo non orientato a d b c e V = {a, b, c, d, e} E = {(b, a) (a, c) (b, c) (d, c) (e, d) (b, e)} L'ordine dei vertici negli archi è irrilevante 52

esempio di grafo orientato a d c V = {a, b, c, d, e} E = {(a, b) (a, d) (d, a) (b, e) (c, e) (e, d), (e, e)} b e 53

Rappresentazione di grafi in memoria 2 tecniche principali: liste di adiacenza matrice di adiacenza Grafo orientato b a c d e a b c d e b e e a e d d Liste ad. V = {a, b, c, d, e} E = {(a, b) (a, d) (d, a) (b, e) (c, e) (e, d), (e, e)} a b c d e a b c d e [0 1 0 1 0 1] 0 0 0 0 1 0 0 0 0 1 1 0 0 0 0 0 0 0 1 Matrice ad. 54

Nel caso di liste di adiacenza abbiamo un array di liste c'è una lista per ogni nodo del grafo per ogni vertice v, la lista corrispondente contiene i vertici adiacenti a v In una matrice di adiacenza M, l'elemento mij è 1 se c'è un arco dal nodo i al nodo j, 0 altrimenti In entrambi i casi, dato un nodo u in un grafo G, l'attributo u.adj rappresenta l'insieme di vertici adiacenti a u Quanto è grande una rappresentazione con liste di adiacenza? il numero totale di elementi nelle liste è E il numero di elementi nell'array è V la complessità spaziale è ( V + E ) Quanto è grande la matrice di adiacenza? la dimensione della matrice è V 2, quindi la sua complessità è ( V 2 ) 55

Le liste di adiacenza sono in generale migliori quando E ( V 2 ), cioè quando il grafo è sparso (quando il numero di nodi connessi non è tanto grande ) si ricordi che E V 2, cioè E = O( V 2 ) Se il grafo è completo (o quasi), tanto vale usare una matrice di adiacenza un grafo orientato è completo se, per ogni coppia di nodi u e v, sia l'arco (u, v) che l'arco (v, u) sono in E 56

Quale è la complessità temporale per determinare se un arco (u, v) appartiene al grafo: quando il grafo è rappresentato mediante liste di adiacenza? quando il grafo è rappresentato con una matrice di adiacenza? Quale è la complessità temporale per determinare il numero di archi che escono da un nodo u del grafo quando il grafo è rappresentato mediante liste di adiacenza? quando il grafo è rappresentato con una matrice di adiacenza? 57

Rappresentazione di grafi (cont.) Possiamo rappresentare un arco (u, v) di un grafo non orientato come 2 archi orientati, uno che va da u a v, ed uno che va da v ad u es: a d b c V = {a, b, c, d, e} E = {(b, a) (a, c) (b, c) (d, c) (e, d) (b, e)} e a b c d e a b c d e b c b e b c a a c d a b c d e [0 1 1 0 0 0] 1 0 1 0 1 1 1 0 1 0 0 0 1 0 1 0 1 0 1 e d la matrice di adiacenza è simmetrica, quindi tutta l'informazione che serve per descrivere il grafo si trova sopra la diagonale principale 58

Visita in ampiezza (Breadth-First Search) Problema: input: un grafo G, e un nodo s (la sorgente) di G output: visitare tutti i nodi di G che sono raggiungibili da s (un nodo u è raggiungibile da s se c'è un cammino nel grafo che va da s a u) Algoritmo: Breadth-First Search (BFS) Idea dell'algoritmo: prima visitiamo tutti i nodi che sono a distanza 1 da s (cioè che hanno un cammino di lunghezza 1 da s), quindi visitiamo quelli a distanza 2, quindi quelli a distanza 3, e così via Quando visitiamo un nodo u, teniamo traccia della sua distanza da s in un attributo u.dist 59

Mentre visitiamo i nodi, li coloriamo (cioè li marchiamo per tenere traccia della progressione dell'algoritmo) un nodo è bianco se deve essere ancora visitato un nodo è grigio se lo abbiamo già visitato, ma dobbiamo ancora completare la visita dei nodi ad esso adiacenti un nodo è nero dopo che abbiamo visitato tutti i suoi nodi adiacenti L'algoritmo in breve: all'inizio tutti i nodi sono bianchi, tranne s (la sorgente), che è grigio manteniamo i nodi di cui dobbiamo ancora visitare i nodi adiacenti in una coda (che è gestita con politica FIFO!) all'inizio la coda contiene solo s a ogni iterazione del ciclo, eliminiamo dalla coda un elemento u, e ne visitiamo i nodi adiacenti che sono ancora bianchi (cioè che devono essere ancora visitati) Si noti che, se u.dist è la distanza del nodo u da s, la distanza dei nodi bianchi adiacenti ad u è u.dist+1 (a meno che non mettiamo dei pesi agli archi ) 60

Esempio di utilizzo: G = [[1,2],[7,4],[7],[1],[3,5,6],[6],[4],[8,6],[2]] BFS(G, 0) distanze dal nodo 0 [0, 1, 1, 3, 2, 3, 3, 2, 3] d=0 d=1 d=2 2 0 1 7 3 4 5 d=3 8 6 61

BFS: pseudocodice BFS(G, s) 1 for each u G.V {s} 2 u.color := WHITE 3 u.dist := 4 s.color := GREY 5 s.dist := 0 6 Q := 7 ENQUEUE(Q, s) 8 while Q 9 u := DEQUEUE(Q) 10 for each v u.adj 11 if v.color = WHITE 12 v.color := GRAY 13 v.dist := u.dist +1 14 ENQUEUE(Q, v) 15 u.color := BLACK 62

Le linee 1-7 sono la fase di inizializzazione dell'algoritmo (che ha complessità O( V )) Le linee 8-15 sono quelle che effettivamente visitano i nodi; ogni nodo nel grafo G è accodato (e tolto dalla coda) al massimo una volta, quindi, nel ciclo for della linea 10, ogni lato è visitato al massimo una volta; quindi, la complessità del ciclo while è O( E ) La complessità totale di BFS è O( V + E ) 63

BFS: osservazioni ed esercizi Versione «astratta»: pseudocodice valido per entrambe le rappresentazioni dei grafi La complessità è la stessa nei due casi? Valido sia per grafi orientati che per grafi non orientati (nel caso orientato) che cosa succede se ci sono autoanelli? Esercizio: si dia un «peso» agli archi (positivo o anche negativo?) e si modifichi l algoritmo per costruire i cammini «ottimi» 64

Ricerca in profondità (Depth-First Search) BFS si basa sull'idea di visitare i nodi con una politica FIFO (che è realizzata mediante una coda) Come alternativa possiamo usare una politica LIFO Se usiamo una politica LIFO, otteniamo un algoritmo di visita in profondità (depth-first search, DFS) l'idea in questo caso è che, ogni volta che mettiamo un nodo in cima allo stack, immediatamente cominciamo a visitare i nodi a lui adiacenti cioè continuiamo con la visita dei nodi che sono adiacenti a quello che da meno tempo è nello stack in BFS non è così: visitiamo i nodi che sono adiacenti a quello che da più tempo è nella coda 65

In linea di principio è quindi sufficiente, per ottenere un algoritmo di DFS, cambiare ENQUEUE con PUSH, e DEQUEUE con POP nell'algoritmo di BFS, con qualche differenza importante: non appena visitiamo un nodo, dobbiamo ripetere DFS su di esso... DFS è implementato in modo naturale in modo ricorsivo 66

In realtà, l'algoritmo DFS che vediamo risolve un problema leggermente diverso da BFS Problema risolto dall'algoritmo DFS input: un grafo G output: visitare tutti i nodi di G nell'algoritmo BFS di prima visitiamo solo i nodi che sono raggiungibili dalla sorgente s! DFS è spesso usato come parte (cioè come sottoalgoritmo) di un algoritmo più complesso (da cui il problema leggermente diverso da quello risolto da BFS) in realtà sia BFS che DFS sono algoritmi di servizio per molteplici problemi sui grafi e possono/devono essere adattati di volta in volta agli scopi da raggiungere (problemi principali) 67

DFS: considerazioni Come in BFS, in DFS coloriamo i nodi di bianco, grigio e nero (con lo stesso significato che in BFS) Come detto in precedenza, questa volta usiamo una politica di visita LIFO, quindi usiamo un meccanismo analogo a quello dello stack in questo caso, il meccanismo a pila viene dal fatto che l'algoritmo è ricorsivo: push = invochiamo l'algoritmo ricorsivamente pop = la chiamata ricorsiva termina L'algoritmo DFS tiene traccia di quando i nodi sono messi sullo stack ed anche di quando sono tolti da esso c'è una variabile (globale), time, che è messa a 0 nella fase di inizializzazione dell'algoritmo, e che è incrementata di 1 sia appena dopo un nodo è messo sullo stack che appena prima di togliere un nodo dallo stack usiamo la variabile time per tenere traccia di 2 altri valori: il tempo di quando inizia la scoperta (discovery) di un nodo, ed il tempo di quando la scoperta termina l'inizio della scoperta di un nodo u è memorizzato nell'attributo u.d, mentre la sua fine nell'attributo u.f 68

DFS(G) 1 for each u G.V 2 u.color := WHITE 3 time := 0 4 for each u G.V 5 if u.color = WHITE 6 DFS-VISIT(u) DFS-VISIT(u) 1 u.color := GRAY 2 time := time + 1 3 u.d := time 4 for each v u.adj 5 if v.color = WHITE 6 DFS-VISIT(v) 7 u.color := BLACK 8 u.f := time := time + 1 Le linee 1-3 di DFS inizializzano i nodi colorandoli tutti di bianco, e mette il tempo a 0: tempo di esecuzione ( V ) L'algoritmo DFS-VISIT è ripetuto (linee 4-6 di DFS) fino a che non ci sono più nodi da visitare come in BFS, ogni nodo è messo sullo stack (che in questo caso corrisponde ad invocare DFS-VISIT sul nodo) solo una volta quindi, ogni lato è visitato esattamente una volta durante l'esecuzione del ciclo for delle linee 4-6 di DFS, quindi queste prendono tempo ( E ) In tutto, la complessità di DFS è ( V + E ) 69

Esempio: per ogni nodo: d, f 0 1 3 2 1 4 5 6 7 70

0 1 3 2 1 2 4 5 6 7 71

0 1 3 2 1 2 4 3, 4 5 6 7 72

0 1 3 2 1 2 4 3, 4 5, 6 5 6 7 73

0 1 3 2 1 2, 7 4 3, 4 5, 6 5 6 7 74

0 1 8 3 2 1 2, 7 4 3, 4 5, 6 5 6 7 75

0 1 8 3 2 1 2, 7 9, 10 4 3, 4 5, 6 5 6 7 76

0 1 8, 11 3 2 1 2, 7 9, 10 4 3, 4 5, 6 5 6 7 77

0 1, 12 8, 11 3 2 1 2, 7 9, 10 4 3, 4 5, 6 5 6 7 78

0 3 1, 12 8, 11 13 2 1 2, 7 9, 10 4 3, 4 5, 6 5 6 7 79

0 3 1, 12 8, 11 13 2 1 2, 7 9, 10 4 3, 4 5, 6 14, 15 5 6 7 80

0 3 1, 12 8, 11 13, 16 2 1 2, 7 9, 10 4 3, 4 5, 6 14, 15 5 6 7 81

Ordinamento Topologico Supponiamo di avere un grafo orientato aciclico (directed acyclic graph, DAG) che rappresenta le precedenze tra eventi Come questo, per esempio mutande pantaloni calze scarpe orologio cintura camicia cravatta giacca 82

O, se preferite, come questo (che rappresenta un Network Part Program di un Flexible Manufacturing System) begin O11 O2 O1 O4 O3 O10 O9 O8 O6 O5 O7 end 83

Ordinamento topologico (2) Un ordinamento topologico di un DAG è un ordinamento lineare dei nodi del grafo tale che, se nel DAG c'è un arco (u, v), allora il nodo u precede v nell'ordinamento Per esempio, un ordinamento topologico del primo DAG della slide precedente potrebbe dare il seguente ordinamento calze mutande pantaloni scarpe orologio camicia cintura cravatta giacca si noti che questo non è l'unico possibile ordinamento ammissibile... 84

Di fatto, un ordinamento topologico restituisce un ordinamento che rispetta le precedenze tra eventi per esempio, nel caso del network part program, un ordinamento topologico restituisce una sequenza di operazioni che è compatibile con le precedenze tra di esse cioè tale che, quando eseguiamo O i, tutte le operazioni preparatorie necessarie sono state completate Il problema dell'ordinamento topologico di un DAG è il seguente: input: un DAG G output: una lista che è un ordinamento topologico di G si ricordi che una lista è un ordinamento lineare, in cui l'ordine è dato da come gli oggetti nella lista sono connessi tra loro Idea per l'algoritmo: visitiamo il DAG con un algoritmo DFS quando coloriamo un nodo u di G di nero (cioè ogni volta che finiamo di visitare un nodo di G), inseriamo u in testa alla lista dopo che abbiamo visitato tutti i nodi di G, la lista che abbiamo costruito è un ordinamento topologico di G, e lo restituiamo 85

TOPOLOGICAL-SORT(G) 1 L := 2 for each u G.V 3 u.color := WHITE 4 for each u G.V 5 if u.color = WHITE 6 TOPSORT-VISIT(L, u) 7 return L TOPSORT-VISIT(L, u) 1 u.color := GRAY 2 for each v u.adj 3 if v.color = WHITE 4 TOPSORT-VISIT(L, v) 5 crea l'elemento di lista x 6 x.key := u 7 LIST-INSERT(L, x) 8 u.color := BLACK Il tempo di esecuzione di TOPSORT è lo stesso di DFS, cioè ( V + E ) le linee 5-7 di TOPSORT-VISIT impiegano tempo (1) (come le linee 2-3 e 7-8 di DFS-VISIT), ed il resto dell'algoritmo è come DFS tranne la gestione della variabile time, che possiamo evitare 86

Approfondimento: cammini minimi Si vuole ottenere il cammino minimo tra due nodi (es. problema delle distanze tra stazioni ferroviarie) Ingresso: G = (V, E) diretto, funzione di peso w : E R Peso di un cammino: p v, v,..., v W ( p) peso cammino minimo da u a v: 0 1 k i1 k w( v i1, v i ) ( u, v) min{ w( p) : u, altrimenti p v}, se esiste cammino p da u a v 87

Ok pesi negativi, ma non cicli negativi! (come mai?) Inoltre calcoliamo i cammini minimi da un nodo fissato s (detto sorgente) (anch'esso fornito in ingresso) Uscita: vv: d[v] = (s,v) all'inizio d[v] = viene ridotto al procedere dell'algoritmo. Però sempre d[v] (s,v) d[v] viene anche detto stima di cammino minimo (dalla sorgente s a v) Pi[v] = predecessore di v nel cammino min da s se non esiste: = NIL 88

Gli algoritmi di questo tipo si basano sul concetto di rilassamento Rilassamento di un lato (u,v): se d[v] > d[u]+w(u,v) allora d[v] := d[u]+w(u,v) e Pi[v] := u (cioe` vediamo che "costa di meno" passare per il lato (u,v)) RELAX(u, v, adj, d, Pi) if d[v] > d[u] + adj[u][v]: d[v] := d[u] + adj[u][v] Pi[v] := u 89

BELLMAN-FORD(adj, s) V := vector of nodes of adj allocate vectors d, Pi of size adj for i from 0 to adj -1 d[i] := Algoritmo di Bellman-Ford d[s] := 0 repeat for V -1 times for u in V for v in adj[u] RELAX(u, v, adj, d, Pi) return [d, Pi] In pratica rilasso, un passo alla volta, partendo da s. Ad ogni passo avanzo di un passo nei miei cammini al V -1-esimo passo sicuramente avrò toccato tutti i nodi raggiungibili (chiaramente non converge se ci sono cicli negativi...) 90

Esempio: Adj = [{1:2, 2:2, 3:3}, {2:-3}, {0:1, 3:5}, {}, {0:-1,3:4}] d, Pi = bellmanford(adj, 0); Distanze (4 e` irraggiungibile): d: [0, 2, -1, 3, ] -1 0 2 Predecessori (codifica i cammini minimi): Pi: [NIL, 0, 1, 0, NIL] 4 4 3 1 2-3 1 3 5 2 Costo: ciclo su tutte le adiacenze innestato in un ciclo su V ; relax costo costante => ( V E ) 91