Data Mining. M. Brescia - Data Mining - lezione 6 1

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Data Mining. M. Brescia - Data Mining - lezione 6 1"

Transcript

1 Data Mining M. Brescia - Data Mining - lezione 6 1

2 Vector Quantization The goal here is to have the network "discover" structure in the data by finding how the data is clustered. The results can be used for data encoding and compression. One such method for doing this is called vector quantization In vector quantization, we assume there is a codebook which is defined by a set of M prototype vectors. (M is chosen by the user and the initial prototype vectors are chosen arbitrarily). An input belongs to cluster i if i is the index of the closest prototype (closest in the sense of the normal euclidean distance). This has the effect of dividing up the input space into a Voronoi tesselation M. Brescia - Data Mining - lezione 6 2

3 VQ Algorithm 1. Choose the number of clusters M 2. Initialize the prototypes w *1,... w *m (one simple method for doing this is to randomly choose M vectors from the input data) 3. Repeat until stopping criterion is satisfied: a) Randomly pick an input x b) Determine the "winning" node k by finding the prototype vector that satisfies w *k -x <= w *i -x (for all i ) note: if the prototypes are normalized, this is equivalent to maximizing w *i x c) Update only the winning prototype weights according to w *k (new) = w *k (old) + m( x - w *k (old) ) LVQ (Learning Vector Quantization) is a supervised version of vector quantization. Classes are predefined and we have a set of labeled data. The goal is to determine a set of prototypes the best represent each class. Ogni neurone dello strato di output rappresenta un prototipo indipendente dagli altri Aggiornamento dei pesi non esteso al vicinato ma limitato al neurone vincente. A differenza della SOM non dà luogo ad una mappa Problemi relativi alla scelta del numero di neuroni: Overfitting Pattern diversi nello stesso Cluster M. Brescia - Data Mining - lezione 6 3

4 LVQ for data compression M. Brescia - Data Mining - lezione 6 4

5 LVQ + SOM: hybrid classification LVQ+SOM network: is a hybrid supervised network where the clustered space (through SOM) is used to take a classification decision, in order to compress (categorize) the input information FUEL RESEARCH Flaming fire: fuoco con fiamme Smoldering fire: fuoco con fumo Nuisance: sorgente tossica M. Brescia - Data Mining - lezione 6 5

6 K-Means Tecnica di partitional clustering più semplice e nota 1. Generazione Casuale Cluster 2. Assegnazione punti ai Cluster Generazione casuale di K Cluster ALGORITMO Individuazione centroide di ogni Cluster Aggiornamento di almeno un centroide Nessun aggiornamento di centroidi STOP 3. Individuazione nuovi centroidi 4. Aggiornamento centroidi Assegnazione punti al Cluster con centroide più vicino M. Brescia - Data Mining - lezione 6 6

7 SOM + K-Means si può scegliere di non selezionare i centri iniziali dei cluster in base alla distribuzione dei punti del dataset, bensì tra i BMU calcolati da una SOM. Questo tipo di approccio permette di ridurre la sensibilità al rumore, in quanto i BMU sono medie locali dei dati e quindi meno sensibili a variazioni degli stessi. Anche gli outlier non sono un problema poichè, per definizione, rappresentano solo una piccolissima percentuale del numero di dati e in quanto tali incapaci di influenzare il processo. Tuttavia, se il nostro intento fosse quello di individuare effettivamente gli outlier, allora l utilizzo di questo approccio sarebbe controproducente. la suddivisone in partizioni avviene tra i nodi BMU dello strato di Kohonen. Affinché questo processo sia applicabile, è quindi necessario individuare un numero di cluster attesi inferiore al numero di BMU individuati dalla SOM M. Brescia - Data Mining - lezione 6 7

8 Neural Gas Neuroni come particelle gassose : non fissi all interno di una struttura ma liberi e attratti da zone ad alta densità di dati. Funzione di vicinato non statica Aggiornamento dei pesi in base alla vicinanza al pattern in input Intero indicante la posizione nella classifica di vicinanza al pattern in input I valori numerici indicano la posizione del neurone nella classifica di vicinanza al pattern in input La gradazione di rosso indica la quantità di aggiornamento, ovvero di avvicinamento dei neuroni al pattern in input M. Brescia - Data Mining - lezione 6 8

9 Hybrid: Competitive HebbianLearning Combina la due tecniche per la costruzione di Topology Preserving Maps Il CHL introduce l aspetto competitivo nel principio fondamentale per l aggiornamento dei pesi sinaptici introdotto da Hebb La connessione delle unità neurali secondo il CHL crea una struttura che corrisponde alla triangolazione di Delanuay Definizione: due punti Pi e Pj si dicono contigui se le due regioni Vi e Vj hanno un lato di contorno in comune. La triangolazione di Delaunay si ottiene connettendo punti contigui La triangolazione di Delaunay è lato del diagramma di Voronoi univocamente determinata dall insieme vertice del diagramma di Voronoi di punti dato. CHL basa la competizione sull attività di output correlata tra due unità i e j definita come segue: Y ij =y i *y j Anziché modificare i pesi in accordo con la regola generale proposta da Hebb se ne utilizza una versione competitiva: M. Brescia - Data Mining - lezione 6 9

10 Distanza Euclidea favorisce Cluster circolari Distances for Clustering Distanza di Mahalanobis favorisce Cluster iperellissoidali µ è il vettore delle medie dei vettori x e S la matrice di covarianza. Se S è la matrice identità, la distanza di Mahalanobis si riduce a quella euclidea. Distanza geodetica definita come il percorso di minor lunghezza che unisce due nodi di un grafo, permette di estendere la distanza euclidea su superfici curve. Il modo più semplice per calcolare la distanza geodetica è trovare l angolo tra due punti e moltiplicarlo per la circonferenza della superficie. angle = arccos(point1 * point2) G_distance = angle * π * radius Nell immagine è mostrata una classica situazione che scaturisce dall uso della distanza di Mahalanobis. In termini di distanza Euclidea, B è nettamente più vicino al punto (x,y), mentre invece è l opposto considerando la sopraccitata distanza. M. Brescia - Data Mining - lezione 6 10

11 Principal Probabilistic Surfaces Questo metodo appartiene alla famiglia dei cosiddetti metodi delle variabili latenti, partendo dal metodo classico dell analisi delle componenti principali si nota facilmente che le PCA hanno un limite: la riduzione lineare non è sempre efficace come si può vedere nel semplice esempio dove vediamo come la stessa aggregazione di punti viene vista da una PCA, da varie PCA e con una soluzione non lineare Le PPS in prima istanza si preoccupano di fornire una soluzione a questo problema. In pratica una PPS viene addestrata a riconoscere le migliori funzioni di proiezione dallo spazio N-dimensionale dei parametri ad una superfice sferica in uno spazio tridimensionale; questa superficie è ricoperta da una griglia di variabili latenti, ovvero punti, ognuno dei quali rappresenta il picco di una gaussiana nello spazio N-parametrico. Questo permette di visualizzare il tutto con un grafico tridimensionale indipendentemente dal numero di parametri iniziali e in questo modo l'essere umano può iniziare a controllare l'esistenza o meno di strutture, strutture che così riesce a visualizzare ma che non riuscirebbe neanche ad immaginare senza fare questo lavoro. M. Brescia - Data Mining - lezione 6 11

12 Principal Probabilistic Surfaces L'obiettivo di ogni modello basato sulle variabili latenti è quello di esprimere la distribuzione p(t) delle variabili t=(t 1,,t D ) in R D in termini di un numero di variabili latenti minore di quello originario x=(x 1,,x D ) in R Q dove Q<D. Per raggiungere questo scopo, la distribuzione di congiunzione p(t,x) viene decomposta nel prodotto della distribuzione di margine p(x) delle variabili latenti e la distribuzione condizionata p(t x). E'conveniente esprimere la distribuzione condizionata come la fattorizzazione sulle variabili originarie, in questo caso la distribuzione di congiunzione diviene: La distribuzione condizionata p(t x) viene quindi espressa in termini di una mappatura dalle variabili latenti alle variabili originarie, cosicchè t = y(x;w) + u dove t è una funzione delle variabili latenti x con parametri w. u è un noise indipendente dalle x. Il problema è trovare la migliore forma funzionale delle y(x;w) Le PPS definiscono una mappatura parametrica non lineare y(x;w), dove y è continua e derivabile, che proietta ogni punto nello spazio delle variabili latenti in un punto dello spazio originario. Poichè lo spazio delle variabili latenti è Q-dimensionale, questi punti saranno confinati in una varietà inclusa, non linearmente, nello spazio D-dimensionale delle variabili originarie. Questo implica che i punti proiettati vicino a un nodo della superficie avranno maggior influenza su questo nodo dei punti proiettati lontano da esso M. Brescia - Data Mining - lezione 6 12

13 Principal Probabilistic Surfaces Dal punto di vista analitico, ciascun punto latente y(x;w) ha una covarianza espressa da: σ[y(x;w)] è il set di vettori ortonormali tangenti alla varietà in y(x;w) è il set di vettori ortonormali ortogonali alla varietà in y(x;w) è il set completo di vettori ortonormali appartenente a R D e i parametri α e β sono fattori che determinano l'orientamento della matrice di covarianza σ[y(x;w)] M. Brescia - Data Mining - lezione 6 13

14 Principal Probabilistic Surfaces In uno spazio latente 3D, allora, una varietà sferica può essere costruita utilizzando una PPS con nodi disposti regolarmente sulla superfice di una sfera nello spazio latente R 3. (a) Rappresentazione schematica della varietà sferica nello spazio latente tridimensionale R 3, (b) la stessa varietà distorta nello spazio dei parametri R D con i punti associati ai dati, (c) la proiezione della distribuzione dei punti sulla superficie della varietà sferica sullo spazio latente R 3. M. Brescia - Data Mining - lezione 6 14

15 Principal Probabilistic Surfaces Una questione interessante è la stima dell'incidenza di ogni parametro dei dati di ingresso sulle variabili latenti che aiuta a comprendere la relazione tra il parametro e i cluster trovati. L'incidenza dei parametri è calcolata valutando la densità di probabilità delle componenti dei vettori di ingresso rispetto a ogni variabile latente set dei dati di ingresso D-dimensionali set delle variabili latenti con Per ogni dato vogliamo calcolare La formula si ottiene semplicemente poichè il numeratore è semplicemente il m-esimo termine della gaussiana ricavata dal modello delle PPS centrato su y(x m ;W), mentre il denominatore è lo stesso componente Gaussiano in cui l'i-esimo termine manca. Questo spiega perchè le PPS sferiche possono essere utilizzate come varietà di riferimento per classificare dati a molte dimensioni M. Brescia - Data Mining - lezione 6 15

16 Principal Probabilistic Surfaces Durante la fase di addestramento viene creata una varietà di riferimento. Nella fase di test, un dato mai visto dalla rete viene attribuito alla varietà sferica più vicina. Ovviamente il concetto di più vicino implica il calcolo di una distanza tra un punto e il nodo dello spazio. Di solito si può fare usando uno di questi 3 criteri: Nearest Neighbour: trova la minima distanza quadra da tutti i nodi della varietà; Grid Projections: trova la più corta distanza di proiezione sulla griglia della varietà; Nearest Triangulation: trova la proiezione più vicina alle possibili triangolazioni; Per lo più viene utilizzato Nearest Neighbour poiché permette di valutare le distanze da ogni dato nello spazio dei parametri a tutti i nodi chiusi sulla varietà sferica. Anche se è più pesante in termini di elaborazione dei dati rispetto agli altri due metodi, in pratica fornisce la più affidabile scelta del nodo (o dei nodi, qualora più di uno si trovi alla stessa distanza da un punto) Le PPS sono un algoritmo non supervisionato per ridurre la dimensionalità al fine di rendere visibile l esistenza di strutture nei dati. La motivazione che spinge a utilizzare questo metodo è che le PPS sferiche sono particolarmente adatte a gestire, per dataset particolarmente corposi, dati che si trovano sparsi pur avendo una complessità computazionale estremamente elevata. M. Brescia - Data Mining - lezione 6 16

17 NegEntropy Clustering Utilizzando una PPS per pre-clustering si ottiene un numero di cluster prefissato; in un primo stadio questo numero conviene venga tenuto alto, essendo ovviamente meglio avere un cluster ridondante. Il passo successivo è quello di accorpare questi cluster. Si può fare con una NEC. Cos'è la Negentropia? E' una quantità che si definisce in teoria dei segnali come la distanza dalla normalità. Il segnale viene detto normale se è una gaussiana. La Negentropia è nulla se il segnale è normale, altrimenti ha un valore maggiore di zero. La Negentropia è una quantità invariante per ogni cambio di coordinate lineare. In pratica una NEC altro non è che una tecnica agglomerativa che serve per passare dal pre-clustering prodotto ad esempio da una PPS al clustering desiderato. NEC è in pratica un modello di clustering bottom-up M. Brescia - Data Mining - lezione 6 17

18 NegEntropy Clustering Il prodotto di una PPS può essere utile visualizzarlo disponendo da sinistra a destra i cluster che si accorpano con valori di soglia diverse (quelli a sinistra si accorperanno con bassi valori della soglia, quelli a destra con alti valori della soglia). Si ottiene dunque un dendogramma. La scelta di quale grado di accorpamento considerare dipende dallo scopo della sua ricerca. Un esempio di possibile scelta è quello della ricerca dei plateau: graficando il numero di cluster in funzione del valore della soglia, la curva decrescente ottenuta potrebbe avere dei plateau, il cui significato è evidente: in quelle zone i cluster risultano ben separati e quindi è probabile che la classificazione così fatta abbia un forte significato. A questo punto abbiamo delle divisioni, ma resta da capire cosa rappresentino e qui entra in gioco la nostra conoscenza del campione utilizzato per addestrare la rete; infatti controllando gli oggetti di cui abbiamo informazioni note, possiamo dare un senso fisico ai vari cluster M. Brescia - Data Mining - lezione 6 18

19 NegEntropy Clustering Si deve quindi stabilire una definizione di distanza e un criterio di accorpamento, grazie ai quali si possa stabilire se due cluster vadano uniti o meno. Ovviamente il processo può andare avanti accorpando i cluster figli del primo accorpamento dando così luogo al dendogramma. La NEC utilizza il discriminante lineare di Fisher che prima proietta i dati su una retta, e quindi svolge la regressione sullo spazio lineare La proiezione si attua massimizzando la distanza tra le medie di due classi e minimizzando la varianza all'interno di ogni classe. Se voleste, potreste usare anche una PCA M. Brescia - Data Mining - lezione 6 19

20 NegEntropy Clustering si definisce l'entropia differenziale H di un vettore casuale con densità f(y) come cosicchè la negentropia J può essere definita come: Dove y Gauss è un vettore casuale Gaussiano con la stessa matrice di covarianza di y La Negentropia è una misura della non "Gaussianeità" e, poichè è invariante per trasformazioni lineari, è ovvio che trovare una trasformazione che minimizza la mutua informazione è praticamente equivalente a trovare la direzione in cui la Negentropia è massimizzata. L'algoritmo del NEC può quindi essere usato per condurre un'agglomerazione non supervisionata dei cluster trovati tramite le PPS. L'unica informazione a priori richiesta dal NEC è il valore della soglia di dissimilarità. Supponiamo di avere n D-dimensionali precluster X i con i=1,,n determinati dalle PPS; questi cluster sono passati alla NEC che in pratica controlla se ogni coppia di cluster contigui (secondo il discriminante lineare di Fisher) può essere o meno efficientemente rappresentata da una singola distribuzione Gaussiana multivariata. In altre parole, la NEC determina se due cluster appartenenti a una data coppia si possano considerare sostanzialmente distinti o parti di un cluster più grande M. Brescia - Data Mining - lezione 6 20

21 Multi Dimensional Scaling Basato su criteri di similarità fra coppie di oggetti Non riorganizza gli elementi in modo esatto ma approssima il più possibile la similarità osservata nello spazio originale * Minimizza una funzione di errore chiamata anche di Stress d d * ij è la distanza calcolata nello spazio multidimensionale d ij è la distanza calcolata nello spazio a dimensionalità ridotte La tabella sopra mostra la distanza tra 10 città degli Stati Uniti e può essere usata come matrice di similarità per l applicazione dell MDS i cui risultati sono mostrati nella figura in basso I punti che rappresentano città con un alto grado di similarità sono rappresentati vicini fra loro. Viceversa quelli con bassa similarità sono lontani M. Brescia - Data Mining - lezione 6 21

22 Dimensional reduction: Sammon Projection Estensione dell MDS Utilizza la funzione di Stress proposta da Sammon Parte da una configurazione casuale di pattern nello spazio a dimensionalità ridotte e usa il metodo del gradiente discendente per minimizzare la funzione di errore Funzione di Stress proposta da Sammon d * ij è la distanza calcolata nello spazio multidimensionale d ij è la distanza calcolata nello spazio a dimensionalità ridotte M. Brescia - Data Mining - lezione 6 22

23 Isomap Estensione dell MDS Utilizza distanza geodetica calcolata su un grafo pesato costruito sullo spazio dei dati Vertici del grafo scelti casualmente ed archi creati con k-rule: arco tra x e y se y è uno dei k nodi più vicini ad x Distanza geodetica tra due punti calcolata sul grafo costruito su una swiss roll Confronto tra distanza geodetica ed Euclidea dopo la proiezione su uno spazio a dimensionalità ridotta M. Brescia - Data Mining - lezione 6 23

24 Hybrid reduced mapping: RBF-NDR Radial Basis Function Nonlinear dimensionality reduction(rbf-ndr) NDR si può basarlo su metodi come Neural Gas e Competitive Hebbian Learning Caratteristiche: Preservazione delle correlazioni tra i dati su differenti scale Proiezione online di nuovi dati Possibilità di processare dati non lineari Si compone di due moduli: Pre-clustering dei dati Riduzione della dimensionalità 1. Trasforma spazio dei punti iniziale in grafo con vertici (rappresentativi); 2. Connettere topologicamente il grafo precedentemente creato con Euclidean Minimum Spanning Tree (EMST); 3. Calcola distanze geodetiche tra vertici; 4. Inizializza RBF con ηw, ηc,ησ, error_threshold, max_iterations, p input, k hidden e m output; 5. Seleziona random coppia di vertici input; 6. Fase forward della RBF; 7. Calcola errore (STRESS); RBF-NDR - Algoritmo 8. Fase backward della RBF; 9. Se raggiunta max_iterations o error_threshold STOP else goto 5; M. Brescia - Data Mining - lezione 6 24

25 Euclidean Minimum Spanning Tree Given n points in the plane, we can construct a graph with these points as nodes and an edge between every pair of nodes. The weight on any edge is the Euclidean distance between the two points. Finding a minimum spanning tree for this graph is known as the Euclidean minimum spanning tree problem. The problem is to find a minimum spanning tree for this graph in a time lower than O(n 2 ). The following is a O(nlogn) solution algorithm: Let V be the set of given input points. E :=. for every point p Vdo Identify the set Q of points that are within a distance of C1/ n from p (for some constant C1 > 1). Q is identified using the grid that has been created. for every q Qdo Add (p, q) to E. Employ any algorithm to identify the spanning forest F of G(V,E). Let T(V, E ) be the largest tree (i.e., the tree with the largest number of nodes) in F. Also, let V = V V and r = (C2*log n)/ n, C2 being a constant > 1. repeat Let E1 = E. for every point p V do Identify the set R of points that are within a distance of r from p. for every q R do Add (p, q) to E1. Find the minimum spanning forest F of G1(V,E1). If F has only one tree T1, output T1 and quit; else let r := 2r. forever M. Brescia - Data Mining - lezione 6 25

26 NG-CHL (NDR) + RBF Usiamo la combinazione di NG (Neural Gas) e CHL (Competitive Hebbian Learning) per mappare lo spazio dei dati in uno a dimensioni ridotte e topologicamente connesso RBF-NDR - Algoritmo 1. Trasforma spazio dei punti iniziale in grafo con vertici (rappresentativi); 2. Connettere topologicamente il grafo precedentemente creato con Euclidean Minimum Spanning Tree (EMST) ; 3. Calcola distanze geodetiche tra vertici; 4. Inizializza RBF con ηw, ηc,ησ, error_threshold, max_iterations, p input, k hidden e m output; 5. Seleziona random coppia di vertici input; 6. Fase forward della RBF; 7. Calcola errore (STRESS); 8. Fase backward della RBF; 9. Se raggiunta max_iterations o error_threshold STOP else goto 5; M. Brescia - Data Mining - lezione 6 26

27 RBF after NDR (NG+CHL) RBF-NDR - Algoritmo 1. Trasforma spazio dei punti iniziale in grafo con vertici (rappresentativi); 2. Connettere topologicamente il grafo precedentemente creato con Euclidean Minimum Spanning Tree (EMST) ; 3. Calcola distanze geodetiche tra vertici; 4. Inizializza RBF con ηw, ηc,ησ, error_threshold, max_iterations, p input, k hidden e m output; 5. Seleziona random coppia di vertici input; 6. Fase forward della RBF; 7. Calcola errore (STRESS); 8. Fase backward della RBF; 9. Se raggiunte max_iterations o error_threshold STOP else goto 5; K Radial basis functions Theoretical STRESS FINAL STRESS M. Brescia - Data Mining - lezione 6 27

28 RBF-NDR: example L algoritmo RBF-NDR viene applicato ad una Swiss Roll Il primo modulo (NG-CHL) produce i pattern di riferimento corrispondenti ai vertici del grafo, ovvero la mappa topologica Proiezione stimata dal secondo modulo (RBF) LA NDR consente di rispettare la topologia dello spazio di partenza (Topology Preserving Map, TPM), consentendo alla RBF di approssimare la corretta forma della funzione nello spazio ridotto di arrivo. Vantaggio? Pensate a dover ricostruire una swiss roll a 20 dimensioni in 3D!!!! M. Brescia - Data Mining - lezione 6 28

29 U-matrix con componenticonnesse In dataset multi-dimensionali di grandi dimensioni, visualizzare i cluster sulla U-Matrix può risultare un compito non facile. Esiste un metodo per migliorare l interpretazione della mappa di Kohonen, immaginando i nodi della stessa come vertici di un grafo in cui delle componenti connesse (CC) siano identificative di altrettanti cluster. Il procedimento con cui le CC sono identificate si basa sul concetto che, per ognuna di esse, esisterà un nodo, definito nodo interno ad una CC, il cui gradiente sarà inferiore rispetto a quello di tutti gli altri. In questo caso per gradiente di un nodo si intende il suo valore output dell equazione. Sperimentalmente gli autori del metodo hanno osservato che l utilizzo di una tecnica in grado di eliminare inutili frammentazioni della U-Matrix rendendola più omogenea, migliora notevolmente i risultati ottenuti nella ricerca delle CC. Questo effetto è ottenibile tramite l applicazione alla mappa, di un filtro di sfocatura comunemente utilizzato in diversi software grafici. L idea di base di questo filtro è che ogni pixel diventi una media pesata dei pixel attorno ad esso. Il peso di ogni pixel è maggior in proporzione alla vicinanza al pixel che si sta attualmente sfocando. L equazione gaussiana che si utilizza per il calcolo dei pesi è la seguente, i pixel in fase di sfocatura J Pixel di cui calcolare il peso distanza tra coordinate di i e j σ ampiezza gaussiana del grado di sfocatura M. Brescia - Data Mining - lezione 6 29

30 U-matrix con componenticonnesse Per ogni nodo della mappa quindi verranno valutati i gradienti di tutti i suoi nodi adiacenti. Se il nodo esaminato non è quello con il minimo gradiente, allora ci si potrà muovere lungo un percorso attraversando di volta in volta il nodo con gradiente minimo, seguendo i suoi vicini e connettendo tutti i nodi attraversati. Nel caso di un nodo interno ad una CC, la procedura termina, passando ad esaminare un nodo successivo. Mostrando le CC così create, al di sopra della U- Matrix, l appartenenza di un nodo ad un cluster piuttosto che ad un altro, diventa evidente. A sinistra la U-Matrix standard e a destra quella ottenuta con le componenti connesse M. Brescia - Data Mining - lezione 6 30

31 U-matrix con componenticonnesse L applicazione di questa funzione, a tutti i pixel circostanti il pixel considerato per la sfocatura, fornirà una matrice dei pesi. Le dimensioni di questa matrice dipenderanno dal numero di pixel considerati vicini. Tale parametro, noto come kernel, può essere l intera immagine o avere un raggio più piccolo. A questo punto, il nuovo valore del pixel correntemente analizzato sarà la somma dei valori dei pixel compresi nel raggio di sfocatura moltiplicati per il rispettivo peso. E bene notare che i risultati ottenuti con il metodo Umat-CC possono variare, in alcuni dettagli, proprio in base al grado di sfocatura applicato, il quale dipenderà dal parametro σ dell equazione peso gaussiana. Poiché non esiste una regola per il calcolo di questo parametro, in quanto dipendente dalle caratteristiche dello specifico esperimento configurato, esso dovrà essere settato di volta in volta qualora il risultato ottenuto non sia ritenuto soddisfacente. In questo procedimento di regolazione può essere utile far ricorso alla U-Matrix, che verrà mostrata in output senza l applicazione del filtro. In tal modo, ove l utente si renda conto di possibili errori, potrà ripetere il post-processing settando un livello di sfocatura più basso o più alto a seconda dei casi. Utilizzo del grado di sfocatura della U-Matrix osservando i gradienti dei nodi e ricordando come Umat-CC li raggruppa, si intuisce che l attribuzione ad un cluster isolato del nodo colorato in azzurro (sinistra), può essere un errore dovuto ad un livello di sfocatura eccessivo. A destra è mostrato il risultato ottenuto con un filtro di sfocatura meno invasivo. M. Brescia - Data Mining - lezione 6 31

32 Two-winners linkage Il Two Winners Linkage (TWL) è un metodo di clustering, post-processing dello strato di Kohonen, che si ispira alla tecnica per il calcolo del vicinato usata nel modello Evolving SOM, che vedremo fra poco. Tale meccanismo consiste nell instaurare una connessione tra i due BMU di ogni pattern in modo che, al termine dell algoritmo, le componenti connesse rivelino i cluster individuati. A differenza di quanto avviene nell Evolving SOM, le connessioni in questo caso non hanno un peso. E necessario introdurre un meccanismo per evitare la connessione di nodi troppo lontani. A tal fine sfruttiamo il duale del concetto di nodo interno ad una CC, visto prima, dove un nodo interno di una CC è stato definito come quel nodo che sulla U-Matrix risulta avere un gradiente inferiore a quello di tutti i nodi ad esso adiacenti. Ciò si verifica nel caso in cui i suddetti nodi siano molto vicini al nodo interno. In virtù di questo, possiamo quindi definire come nodo esterno ad una CC quel nodo il cui gradiente è maggiore rispetto a quello di tutti i nodi ad esso adiacenti. Per come è stato definito, un nodo esterno individuerà quindi un nodo isolato nello spazio dei pesi. M. Brescia - Data Mining - lezione 6 32

33 Two-winners linkage Un nodo esterno può essere interpretato in diversi modi. Il caso più semplice si verifica quando tale nodo non è risultato BMU di alcun pattern, individuando quindi una zona vuota dello spazio dei dati. Tali nodi sono quelli che in pratica rendono la U- Matrix un potente strumento di visualizzazione, distinguendo le zone ad alta densità di pattern. Se viceversa, il nodo esterno è risultato BMU per qualche pattern, possono essersi verificate due situazioni. In primo luogo, il nodo può identificare degli outliers e, in quest ottica, l isolamento di tale nodo permette la loro individuazione. NODI ESTERNI In secondo luogo, nel caso di dati particolarmente complessi, un nodo esterno può essere frutto di una particolare disposizione dei pattern. Quando i cluster non sono infatti nettamente distinguibili, i nodi esterni possono configurarsi come dei separatori, che si posizionano a metà tra un cluster ed un altro, permettendo quindi al metodo di distinguerli. M. Brescia - Data Mining - lezione 6 33

34 Two-winners linkage Nella seguente immagine è mostrato il ruolo che i suddetti nodi esterni possono avere nel processo di clustering con il metodo illustrato. Il nodo celeste e i due nodi di tonalità arancione si configurano nettamente come separatori di classe, mentre i pattern individuati dal nodo verde potrebbero essere outliers. NO NO YES NO YES YES Alla luce delle considerazioni fatte, il filtro di sfocatura gaussiana della U-Matrix, esposto in precedenza, dovrà assumere valori molto bassi, al fine di evitare di uniformare troppo la mappa, non riconoscendo i nodi esterni come tali. M. Brescia - Data Mining - lezione 6 34

35 Strategy for Two stage clustering Il sistema software è pensato per venire incontro alle esigenze di diversi utenti, in base alla loro conoscenza sui dati e/o dei modelli. La strategia è suddividere in tipologie di esecuzione differenti il processo. SINGLE-STAGE: no post-processing, rendendo definitivo il proto-clustering effettuato dalla SOM; AUTOMATIC: In tal caso sarà il software stesso, in base a dei parametri interni prestabiliti, a selezionare la tecnica di postprocessing più opportuna tra K-means e Umat-CC; nel caso in cui l utente abbia a disposizione delle informazioni sui dati, potrà utilizzarle selezionando il numero di cluster attesi; EXPERT: caso d uso riservato all utenza esperta, in cui spetterà all utente la scelta del metodo da utilizzare e, nel caso il metodo lo richieda, il numero di cluster attesi. M. Brescia - Data Mining - lezione 6 35

36 Limitidel modellosom SOM e Dimensionality Reduction : problema della griglia SOM parte da un grafo preimpostato i cui vertici si dispongono sullo spazio dei dati SOM costruisce una mappatura inversa, dal grafo allo spazio dei dati, che preserva la vicinanza SOM non assicura la costruzione di una Topology Preserving Map Grafo bi-dimensionale rappresentate lo strato di Kohonen che si distribuisce su uno spazio dei dati di forma quadrata M. Brescia - Data Mining - lezione 6 36

37 Limitidel modellosom Il grafo consiste in un reticolo 1D. La sua mappatura sullo spazio dei dati preserva la vicinanza, infatti vertici adiacenti nel grafo sono vicini sullo spazio dei dati. Al contrario la relazione duale non sussiste in quanto punti vicini sullo spazio dei dati non sono vertici adiacenti nel grafo. Ne consegue che la mappatura non è una Topology Preserving Map Il grafo consiste in un reticolo 3D. Ne consegue la situazione opposta a quella precedente. La mappatura dallo spazio dei dati al grafo preserva la vicinanza in quanto punti vicini sullo spazio dei dati sono assegnati a vertici adiacenti ma, a causa della riduzione di dimensionalità dovuta alla proiezione del grafo, non tutti i suoi vertici adiacenti sono assegnati a locazioni vicine Qui il grafo consiste di un reticolo 2D. In tal caso sia la mappatura dallo spazio dei dati al grafo, che l inversa preservano la vicinanza. Solo in questo caso quindi la mappa è una Topology Preserving Map M. Brescia - Data Mining - lezione 6 37

38 Evoluzione topologia Global Strategy SOM Evoluzione apprendimento Self Organizing Maps TWL Two Winners Linkage K-Means Umat-CC U-matrix a Componenti Connesse E-TREE Evolving Tree 2-stage Clustering E-SOM Evolving SOM M. Brescia - Data Mining - lezione 6 38

39 Evolving SOM (ESOM) Una delle principali limitazioni del modello SOM originario è la staticità della dimensione e della struttura topologica della griglia output. Questo aspetto ha un impatto particolarmente negativo nel caso di problemi di clustering dinamico (on-line clustering) o incrementale, in cui è altresì desiderabile che la struttura della rete e la sua dimensione possa evolvere con l andamento dei dati acquisiti. Questo avviene per il modello Evolving Self Organizing Map (E- SOM), basato sulla legge di apprendimento e di preservazione della topologia della rete delle SOM, in grado di evolvere dinamicamente l estensione dello strato di Kohonen. Da notare che tale modello rappresenta una delle due più interessanti varianti del modello SOM. In generale, infatti, evoluzioni della SOM possono essere derivate partendo da un elemento comune (estensione dinamica del numero di nodi dello strato di Kohonen), ma direzionate su criteri distinti: (i) mantenere la legge di apprendimento di Kohonen invariata, modificandone la topologia; oppure (ii) modificare la legge di apprendimento, mantenendo inalterata la topologia. Al primo criterio appartiene ad esempio il modello Evolving Tree (E- TREE), in cui la topologia dello strato di Kohonen è strutturata sottoforma di albero di ricerca, in cui nuovi nodi sono creati in base alla soglia del numero di volte in cui un nodo ha assunto il ruolo di BMU. Il modello E-SOM invece appartiene al secondo filone di varianti evolute della SOM. Di seguito viene descritto il funzionamento interno e la relativa implementazione. M. Brescia - Data Mining - lezione 6 39

40 Evolving Trees (Etree) Evoluzione supervisionata della SOM con struttura incrementale ad albero che supera il problema della griglia statica e aumenta prestazioni Inizialmente rete costituita da un singolo nodo che subisce una fase displitting con cui vengono creati i figli Ogni nodo ha associata una variabile che conta il numero di volte in cui è stato BMU (Best Matching Unit), quando supera una certa soglia si procede allo splitting del nodo incrementando la struttura dell albero Per aggiornare la posizione delle foglie utilizza la legge di apprendimento di Kohonen, Durante la costruzione dell albero si impone una legge di decay del contatore del numero di volte che un nodo è risultato il BMU per un pattern Clustering supervised Legge di Kohonen invariata Topologia ad albero La ricerca del BMU avviene partendo dalla radice e scendendo fino ad un nodo foglia Trattandosi di un albero la distanza tra neuroni è data dal numero di archi che intercorrono tra i due nodi M. Brescia - Data Mining - lezione 6 40

41 Evolving SOM (ESOM) L algoritmo inizia con una rete vuota, senza cioè nodi e connessioni. I nodi vengono creati incrementalmente con l avvicendarsi dei dati input. Quando viene presentato un pattern input, i nodi presenti nella rete competono tra loro e si aggiornano le connessioni dei vincitori (BMU). In particolare quando i primi due BMU non sono interconnessi, viene creata una connessione diretta tra loro. Un nuovo nodo nella rete viene creato quando nessun altro nodo preesistente risulta candidato a rappresentare un pattern input. In tal caso il nuovo nodo stabilisce anche delle connessioni con i primi due BMU. M. Brescia - Data Mining - lezione 6 41

42 Evolving SOM (ESOM) Flow Chart del loop di training del modello E-SOM Poiché nel modello E-SOM i neuroni non sono inseriti all interno di una struttura rigida come la griglia dello strato di Kohonen, è evidente l impossibilità di utilizzare la classica U-Matrix come strumento di visualizzazione. Tuttavia, al fine di fornire un metodo di visualizzazione del risultato del clustering, è stata implementata una U-Matrix modificata, in cui i neuroni sono disposti sulla griglia non in base all effettiva posizione nello spazio dei pesi, bensì raggruppati per cluster di appartenenza. M. Brescia - Data Mining - lezione 6 42

43 Evolving SOM (ESOM) Implementa una tecnica di self-creating superando i limiti imposti da una struttura fissa Parte da una griglia vuota Clustering unsupervised Legge di Kohonen modificata Topologia simile alla SOM Se l input corrente non trova corrispondenza adeguata, ovvero la distanza supera una certa soglia ε, viene aggiunto un nuovo nodo alla rete Nodo aggiunto relativo al pattern in input: allocazione più semplice che migliora le performance di una SOM statica Legge di apprendimento Per ogni pattern si calcolano i migliori due BMU e se una connessione tra loro esiste, quest ultima viene aggiornata, altrimenti viene creata (CHL) Attivazione M. Brescia - Data Mining - lezione 6 43

44 Remind: indicidi qualitàclustering Errore di quantizzazione Similarità degli input assegnati al medesimo BMU Errore topografico Dissimilarità degli input assegnati a BMU differenti Indice di Davies-Bouldin Rapporto tra distanza intra-cluster ed inter-cluster Distanza intra-cluster Distanza inter-cluster Indice di accuratezza Rapporto tra cluster attesi ed individuati Indice di completezza Disgiunzione dei cluster M. Brescia - Data Mining - lezione 5 44

45 IRIS Confronto tra K-Means standard e modelli di clustering proposti PARAMETRI SOM Numero di nodi input 4 Righe dello strato di kohonen 7 Colonne dello strato di kohonen 7 Numero massimo di iterazioni 200 Learning rate iniziale 0.7 Soglia di learning rate decay Diametro iniziale del vicinato 14 Normalizzazione dei dati input No PARAMETRI post-processing (K-means) Numero di cluster attesi 3 PARAMETRI post-processing (Umat-CC ) Grado di sfocatura della U-matrix 1.5 PARAMETRI post-processing (TWL) Grado di sfocatura della U-matrix 0.5 Il dataset è composto da 50 pattern per ogni specie di Iris (Setosa, Virginica e Versicolor) per un totale di 150 pattern. Per ognuno di essi sono state misurate 4 feature: lunghezza e larghezza dei petali e dei pistilli. PARAMETRI E-SOM Numero di nodi input 4 Epsilon (soglia minima di distanza tra 0.5 pattern e BMU) Pruning time (Intervallo di tempo dopo il 10 quale effettuare il taglio della connessione più debole) Learning rate 0.05 Normalizzazione dei dati input no M. Brescia - Data Mining - lezione 6 45

46 IRIS Confronto tra K-Means standard e modelli di clustering proposti Il dataset è composto da 50 pattern per ogni specie di Iris (Setosa, Virginica e Versicolor) per un totale di 150 pattern. Per ognuno di essi sono state misurate 4 feature: lunghezza e larghezza dei petali e dei pistilli. SOM Single-Stage SOM + K-Means SOM + Umat-CC SOM + TWL (nodo azzurro falso outlier; in arancione un nodo separatore di classi) M. Brescia - Data Mining - lezione 6 E-SOM 46

47 IRIS Confronto tra K-Means standard e modelli di clustering proposti Il dataset è composto da 50 pattern per ogni specie di Iris (Setosa, Virginica e Versicolor) per un totale di 150 pattern. Per ognuno di essi sono state misurate 4 feature: lunghezza e larghezza dei petali e dei pistilli. CONFRONTO STATISTICO SU PRESTAZIONI DI CLUSTERING MODELLO SOM SOM+K-means SOM+UmatCC SOM+TWL E-SOM errore di quantizzazione errore topografico indice di Davies-Bouldin SOM + K-Means SOM + TWL SOM + Umat-CC E-SOM CLASSE trovati persi % Iris Setosa % Iris Virginica % Iris Versicolor % Percentuale associazione SOM + K-Means M. Brescia - Data Mining - lezione 6 CLASSE trovati persi % Iris Setosa % Iris Virginica % Iris Versicolor % Percentuale associazione SOM + TWL 47

48 Hepta Confronto tra modelli di clustering proposti dataset3d contenente 212 pattern appartenenti a 7 classi non sovrapposte SOM + K-Means SOM + Umat-CC SOM + TWL E-SOM E-TREE M. Brescia - Data Mining - lezione 6 48

49 Hepta Confronto tra modelli di clustering proposti SOM single stage SOM + K-Means SOM + Umat-CC SOM + TWL E-SOM E-TREE CONFRONTO STATISTICO SU PRESTAZIONI DI CLUSTERING (Chainlink) MODELLO E-TREE SOM SOM+K-means SOM+UmatCC SOM+TWL E-SOM errore di quantizzazione errore topografico indice di Davies-Bouldin Accuratezza Completezza M. Brescia - Data Mining - lezione 6 49

50 Chainlink Confronto tra modelli di clustering proposti Dataset composto da due cluster con la caratteristica di essere non linearmente divisibili SOM + K-Means SOM + TWL SOM + Umat-CC E-SOM E-TREE CONFRONTO STATISTICO SU PRESTAZIONI DI CLUSTERING (Chainlink) MODELLO E-TREE SOM SOM+K-means SOM+UmatCC SOM+TWL E-SOM errore di quantizzazione errore topografico indice di Davies-Bouldin Accuratezza Completezza M. Brescia - Data Mining - lezione 6 50

51 Target Confronto tra modelli di clustering proposti Dataset composto da cluster non linearmente divisibili e con quattro gruppi di outliers agli angoli dell immagine SOM + K-Means SOM + TWL SOM + Umat-CC E-SOM E-TREE CONFRONTO STATISTICO SU PRESTAZIONI DI CLUSTERING (Target) MODELLO E-TREE SOM SOM+K-means SOM+UmatCC SOM+TWL E-SOM errore di quantizzazione errore topografico indice di Davies-Bouldin Accuratezza Completezza M. Brescia - Data Mining - lezione 6 51

52 Golfball Confronto tra modelli di clustering proposti dataset composto da 4002 pattern 3D con la caratteristica di appartenenti tutti ad un unico cluster SOM + TWL SOM + Umat-CC E-SOM E-TREE CONFRONTO STATISTICO SU PRESTAZIONI DI CLUSTERING (Golfball) MODELLO E-TREE SOM SOM+UmatCC SOM+TWL E-SOM errore di quantizzazione errore topografico indice di Davies-Bouldin Accuratezza Completezza M. Brescia - Data Mining - lezione 6 52

53 CFHT Immagine astronomica multibanda di un campo con HST Un immagine multi-banda è un file FITS composto da un insieme di immagini in singola banda dello spettro elettromagnetico, la cui sovrapposizione produce un immagine a colori (relativi ai tipi di banda usati). Per il test si è scelto un campo deep field osservato dallo strumento CFHT nelle bande del visibile UGRIZ, in cui ogni singola immagine monocromatica ha dimensioni 700x700 pixel cnrc.gc.ca/community/cfhtls- SG/docs/cfhtlsD1.html M. Brescia - Data Mining - lezione 6 53

54 CFHT Immagine astronomica multibanda di un campo con HST SOM Single-Stage Istogramma di distribuzione cluster output M. Brescia - Data Mining - lezione 6 54

55 CFHT Immagine astronomica multibanda di un campo con HST SOM + K-Means Istogramma di distribuzione cluster output M. Brescia - Data Mining - lezione 6 55

56 CFHT Immagine astronomica multibanda di un campo con HST SOM + Umat-CC Istogramma di distribuzione cluster output M. Brescia - Data Mining - lezione 6 56

57 CFHT Immagine astronomica multibanda di un campo con HST SOM + TWL Istogramma di distribuzione cluster output M. Brescia - Data Mining - lezione 6 57

58 CFHT Immagine astronomica multibanda di un campo con HST E-SOM Istogramma di distribuzione cluster output M. Brescia - Data Mining - lezione 6 58

59 CFHT Immagine astronomica CONFRONTO STATISTICO SU PRESTAZIONI DI CLUSTERING multibanda di un MODELLO SOM SOM+K-means SOM+UmatCC SOM+TWL E-SOM campo con errore HST di quantizzazione errore topografico indice di Davies-Bouldin SOM Single-Stage SOM + K-Means Il migliore risultato è palesemente ottenuto dal modello E-SOM. Il valore del parametro DB tuttavia, indica che vi è una sovrastima del numero di cluster identificati. Ciò infatti deriva dal notevole numero di raggruppamenti evidenziati all interno di alcuni degli oggetti celesti. SOM + Umat-CC SOM + TWL E-SOM M. Brescia - Data Mining - lezione 6 59

60 M101 Immagine astronomica monocromatica di una Galassia a spirale SOM (Single Stage) SOM + K-Means (k = 6) SOM + Umat-CC SOM + TWL E-SOM CONFRONTO STATISTICO SU PRESTAZIONI DI CLUSTERING (Img M101) MODELLO SOM SOM+K-means SOM+UmatCC SOM+TWL E-SOM errore di quantizzazione errore topografico indice di Davies-Bouldin M. Brescia - Data Mining - lezione 6 60

61 M101 Immagine astronomica monocromatica di una Galassia a spirale SOM (Single Stage) SOM + K-Means (k = 6) SOM + Umat-CC SOM + TWL E-SOM SOM Single-Stage produce eccessivi raggruppamenti. Nell immagine M101, le variazioni dinamiche del background sono indotte dagli aloni dei rami della spirale. I test evidenziano similarità di SOM + K-Means ed E-SOM, che individua lo stesso numero di cluster del K-Means, pur non avendo a priori alcuna conoscenza sul numero. TWL individua un numero inferiore di cluster, inglobando in cluster unici alcuni degli aloni che gli oggetti celesti presentano. Umat-CC è pagonabile al TWL ma, per sua natura, non è in grado di lavorare correttamente su una U-Matrix generata da una così particolare configurazione dei nodi della rete. Il metodo riconosce i nuclei degli oggetti e gran parte dello sfondo, confondendone gli aloni. 61 M. Brescia - Data Mining - lezione 6

62 Confronto prestazioni tra metodi SOM + K-Means SOM + Umat-CC SOM + TWL E-SOM E-TREE Dimensione dello strato di output Outliers Dimensionalità dataset Dati linearmente non divisibili Dipendenza dai parametri input Ininfluente Grande numero di nodi migliora i risultati Grande numero di nodi aumenta la densità del clustering Grande numero di nodi aumenta la densità del clustering Poco robusto Poco robusto Robusto Robusto (dipendente da parametri) Ininfluente poco adatto su dataset 1D ininfluente Robusto Ininfluente Ininfluente Ininfluente Inefficace Poco efficace Efficace Efficace Efficace Alta Media Media Alta Alta Le diverse combinazioni di tecniche, nel clustering a due stadi, presentano caratteristiche tali da renderli adatti in diverse situazioni. Le evoluzioni incrementali del modello SOM possono essere usate in maniera ottimale sia per clustering che per classificazione M. Brescia - Data Mining - lezione 6 62

63 Configurazioni parametri esempi SOM Hepta Chainlink Target Golfball M101 CFHT-D1 Nodi input Colonne grid output Righe grid output Vicinato iniziale N max iterazioni Normalizzazione No No No No No Si Modalità postprocessing SOM + K-Means HEPTA Chainlink Target M101 CFHT-D1 Nodi input Colonne grid output Righe grid output Vicinato iniziale N max iterazioni Normalizzazione No No No Si Si Modalità post-processing Metodo di post-processing N clusters attesi (k) M. Brescia - Data Mining - lezione 6 63

64 Configurazioni parametri esempi SOM + Umat-CC Hepta Chainlink Target Golfball M101 CFHT-D1 Nodi input Colonne grid output Righe grid output Vicinato iniziale N max iterazioni Normalizzazione No No No No Si Si Modalità post-processing Metodo di post-processing Grado sfocatura U-matrix SOM + TWL Hepta Chainlink Target Golfball M101 CFHT-D1 Nodi input Colonne grid output Righe grid output Vicinato iniziale N max iterazioni Normalizzazione No No No No Si Si Modalità post-processing Metodo di post-processing Grado sfocatura U-matrix M. Brescia - Data Mining - lezione 6 64

65 Configurazioni parametri esempi E-SOM Hepta Chainlink Target Golfball M101 CFHT-D1 Nodi input Soglia di distanza minima Pruning time Normalizzazione No No No No Si Si E-TREE Hepta Chainlink Target Golfball Soglia di splitting Numero di nodi generati per splitting η 0 tasso di apprendimento iniziale σ 0 diametro iniziale del vicinato τ 1 costante temporale τ 2 costante temporale Fattore di decadimento occorrenze BMU Numero di esecuzioni del K-Means M. Brescia - Data Mining - lezione 6 65

66 References Martinetz, T. M., & Schulten, K. J. (1994). Topology representing networks. Neural Networks, 7, Torgerson, W. S. (1958). Theory and methods of scaling. New York, NY: John Wiley & Sons Sammon, J. W. (1969). A nonlinear mapping for data structure analysis. IEEE Transactions on Computers, 18(5), Tenenbaum, J. B., De Silva, V., & Langford, J. C. (2000). A global geometric framework for nonlinear dimensionality reduction. Science, 290, Tomenko, V. (2010). Online dimensionality reduction using competitive learning and radial basis function network. Unpublished doctoral dissertation. University of Wales. UK Pakkanen, J.; Livarinen, J.; Oja, E.; The Evolving Tree A Novel Self-Organizing Network for Data Analysis. Neural Processing Letters 20, , Kluwer Academic Publishers Deng, D., & Kasabov, N. (2000). ESOM: an algorithm to evolve self-organizing maps from online data streams. In Proceedings of IEEE-INNS-ENNS international joint conference on neural networks. Vol. 6 (pp. 3 8) M. Brescia - Data Mining - lezione 6 66

Riepilogo indici di qualità clustering

Riepilogo indici di qualità clustering Data Mining Riepilogo indici di qualità clustering Errore di quantizzazione Similarità degli input assegnati al medesimo BMU P QE = 1 2N j=1 x n BMU j n BMU j 2 Errore topografico Dissimilarità degli input

Dettagli

CLUSTERING CON MODELLI SOM DINAMICI F. ESPOSITO

CLUSTERING CON MODELLI SOM DINAMICI F. ESPOSITO CLUSTERING CON MODELLI SOM DINAMICI F. ESPOSITO INTRODUZIONE Du, K.L., 2010. Clustering: A neural network approach. Neural Networks, Elsevier, Vol. 23, 89-107 Apprendimento Competitivo Panoramica metodi

Dettagli

Tecniche di Clustering basate sul Machine Learning

Tecniche di Clustering basate sul Machine Learning UNIVERSITÀ DEGLI STUDI DI NAPOLI FEDERICO II Scuola Politecnica e delle Scienze di base Area didattica Scienze Matematiche Fisiche e Naturali Corso di Laurea in Informatica Tecniche di Clustering basate

Dettagli

Riconoscimento automatico di oggetti (Pattern Recognition)

Riconoscimento automatico di oggetti (Pattern Recognition) Riconoscimento automatico di oggetti (Pattern Recognition) Scopo: definire un sistema per riconoscere automaticamente un oggetto data la descrizione di un oggetto che può appartenere ad una tra N classi

Dettagli

Sistemi di Elaborazione dell Informazione 170. Caso Non Separabile

Sistemi di Elaborazione dell Informazione 170. Caso Non Separabile Sistemi di Elaborazione dell Informazione 170 Caso Non Separabile La soluzione vista in precedenza per esempi non-linearmente separabili non garantisce usualmente buone prestazioni perchè un iperpiano

Dettagli

Algoritmi di classificazione supervisionati

Algoritmi di classificazione supervisionati Corso di Bioinformatica Algoritmi di classificazione supervisionati Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di apprendimento supervisionato per problemi di biologia computazionale

Dettagli

Intelligenza Artificiale. Clustering. Francesco Uliana. 14 gennaio 2011

Intelligenza Artificiale. Clustering. Francesco Uliana. 14 gennaio 2011 Intelligenza Artificiale Clustering Francesco Uliana 14 gennaio 2011 Definizione Il Clustering o analisi dei cluster (dal termine inglese cluster analysis) è un insieme di tecniche di analisi multivariata

Dettagli

Stima dei Redshift Fotometrici tramite il network SOM + K-NN

Stima dei Redshift Fotometrici tramite il network SOM + K-NN Stima dei Redshift Fotometrici tramite il network + K-NN Università di Napoli Federico II December 21, 2016 Corso Astroinformatica Federico II Napoli Overview 1 Introduzione Obiettivo Scientifico PhotoZ

Dettagli

Esplorazione grafica di dati multivariati. N. Del Buono

Esplorazione grafica di dati multivariati. N. Del Buono Esplorazione grafica di dati multivariati N. Del Buono Scatterplot Scatterplot permette di individuare graficamente le possibili associazioni tra due variabili Variabile descrittiva (explanatory variable)

Dettagli

Reti Neurali in Generale

Reti Neurali in Generale istemi di Elaborazione dell Informazione 76 Reti Neurali in Generale Le Reti Neurali Artificiali sono studiate sotto molti punti di vista. In particolare, contributi alla ricerca in questo campo provengono

Dettagli

Uso dell algoritmo di Quantizzazione Vettoriale per la determinazione del numero di nodi dello strato hidden in una rete neurale multilivello

Uso dell algoritmo di Quantizzazione Vettoriale per la determinazione del numero di nodi dello strato hidden in una rete neurale multilivello Tesina di Intelligenza Artificiale Uso dell algoritmo di Quantizzazione Vettoriale per la determinazione del numero di nodi dello strato hidden in una rete neurale multilivello Roberto Fortino S228682

Dettagli

Statistica per l Impresa

Statistica per l Impresa Statistica per l Impresa a.a. 207/208 Tecniche di Analisi Multidimensionale Analisi dei Gruppi 2 maggio 208 Indice Analisi dei Gruppi: Introduzione Misure di distanza e indici di similarità 3. Metodi gerarchici

Dettagli

SOM (feature mapping) Iuri Frosio

SOM (feature mapping) Iuri Frosio SOM (feature mapping) Iuri Frosio frosio@dsi.unimi.it 1 Clustering / Classificazione Clustering => Siano dati N dati, un algoritmo di clustering divide i dati in M classi diverse senza necessità di alcuna

Dettagli

L A B C di R. Stefano Leonardi c Dipartimento di Scienze Ambientali Università di Parma Parma, 9 febbraio 2010

L A B C di R. Stefano Leonardi c Dipartimento di Scienze Ambientali Università di Parma Parma, 9 febbraio 2010 L A B C di R 0 20 40 60 80 100 2 3 4 5 6 7 8 Stefano Leonardi c Dipartimento di Scienze Ambientali Università di Parma Parma, 9 febbraio 2010 La scelta del test statistico giusto La scelta della analisi

Dettagli

Misura della performance di ciascun modello: tasso di errore sul test set

Misura della performance di ciascun modello: tasso di errore sul test set Confronto fra modelli di apprendimento supervisionato Dati due modelli supervisionati M 1 e M costruiti con lo stesso training set Misura della performance di ciascun modello: tasso di errore sul test

Dettagli

Multi classificatori. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna

Multi classificatori. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Multi classificatori Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Combinazione di classificatori Idea: costruire più classificatori di base e predire la classe di appartenza di

Dettagli

Reti Neurali (Parte I)

Reti Neurali (Parte I) Reti Neurali (Parte I) Corso di AA, anno 2017/18, Padova Fabio Aiolli 30 Ottobre 2017 Fabio Aiolli Reti Neurali (Parte I) 30 Ottobre 2017 1 / 15 Reti Neurali Artificiali: Generalità Due motivazioni diverse

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

LEZIONE 1 E-SCIENCE e DATA WAREHOUSE CONCEPTS

LEZIONE 1 E-SCIENCE e DATA WAREHOUSE CONCEPTS LEZIONE 1 E-SCIENCE e DATA WAREHOUSE CONCEPTS 1. Quali sono i paradigmi concettuali su cui si basa l astroinformatica? Qual è il processo alla base di questa disciplina? 2. Qual è il concetto base del

Dettagli

Cluster Analysis. La Cluster Analysis è il processo attraverso il quale vengono individuati raggruppamenti dei dati. per modellare!

Cluster Analysis. La Cluster Analysis è il processo attraverso il quale vengono individuati raggruppamenti dei dati. per modellare! La Cluster Analysis è il processo attraverso il quale vengono individuati raggruppamenti dei dati. Le tecniche di cluster analysis vengono usate per esplorare i dati e non per modellare! La cluster analysis

Dettagli

Corso di Intelligenza Artificiale A.A. 2016/2017

Corso di Intelligenza Artificiale A.A. 2016/2017 Università degli Studi di Cagliari Corsi di Laurea Magistrale in Ing. Elettronica Corso di Intelligenza rtificiale.. 26/27 Esercizi sui metodi di apprendimento automatico. Si consideri la funzione ooleana

Dettagli

Ricerca di outlier. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna

Ricerca di outlier. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Ricerca di outlier Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Ricerca di Anomalie/Outlier Cosa sono gli outlier? L insieme di dati che sono considerevolmente differenti dalla

Dettagli

IL COMPETITIVE LEARNING E LE RETI NON SUPERVISIONATE

IL COMPETITIVE LEARNING E LE RETI NON SUPERVISIONATE IL COMPETITIVE LEARNING E LE RETI NON SUPERVISIONATE q1 q2 q3 Frosio Iuri Laboratorio MAVR frosio@dsi.unimi.it APPLICAZIONI PER LA RICOSTRUZIONE 3D Diverse tipologie di ANN SIGNAL-TRANSFER NETWORKS: multilayer

Dettagli

Video Analysis (cenni) Annalisa Franco

Video Analysis (cenni) Annalisa Franco 1 Video Analysis (cenni) Annalisa Franco annalisa.franco@unibo.it http://bias.csr.unibo.it/vr/ 2 Visual motion Un video è una sequenza di frame catturati nel corso del tempo Il valori dell immagine sono

Dettagli

Introduzione alle Reti Neurali

Introduzione alle Reti Neurali Introduzione alle Reti Neurali Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: stefano.gualandi@unipv.it @famo2spaghi http://stegua.github.com Reti Neurali Terminator

Dettagli

Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale

Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale Il presente lavoro, facente segiuto a quanto scritto precedentemente ha il fine di descrivere il codice di calcolo

Dettagli

Indicizzazione di feature locali. Annalisa Franco

Indicizzazione di feature locali. Annalisa Franco 1 Indicizzazione di feature locali Annalisa Franco annalisa.franco@unibo.it http://bias.csr.unibo.it/vr/ 2 Introduzione I descrittori locali sono vettori di uno spazio N- dimensionale (alta dimensionalità)

Dettagli

QUANTIZZATORE VETTORIALE

QUANTIZZATORE VETTORIALE QUANTIZZATORE VETTORIALE Introduzione Nel campo delle reti neurali, la scelta del numero di nodi nascosti da usare per un determinato compito non è sempre semplice. Per tale scelta potrebbe venirci in

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 9 Alberi di decisione Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr

Dettagli

ADDESTRAMENTO DI UNA RETE NEURALE ED EVENTUALI CONSIDERAZIONI PRESTAZIONALI. (a cura di Buttolo Marco).

ADDESTRAMENTO DI UNA RETE NEURALE ED EVENTUALI CONSIDERAZIONI PRESTAZIONALI. (a cura di Buttolo Marco). ADDESTRAMENTO DI UNA RETE NEURALE ED EVENTUALI CONSIDERAZIONI PRESTAZIONALI. (a cura di Buttolo Marco). Lalgoritmo più utilizzato per addestrare una rete neurale è lalgoritmo di bac-propagation. In sostanza

Dettagli

UTILIZZO DELL ANALISI DELLE COMPONENTI PRINCIPALI (PCA) DI DATI HVSR FINALIZZATO ALLA ZONAZIONE SISMICA

UTILIZZO DELL ANALISI DELLE COMPONENTI PRINCIPALI (PCA) DI DATI HVSR FINALIZZATO ALLA ZONAZIONE SISMICA UTILIZZO DELL ANALISI DELLE COMPONENTI PRINCIPALI (PCA) DI DATI HVSR FINALIZZATO ALLA ZONAZIONE SISMICA Terremoto de L Aquila, 2009 Gallipoli et al., 2011 Lo scopo di questo lavoro è quello di indagare

Dettagli

Reti Neurali. Corso di AA, anno 2016/17, Padova. Fabio Aiolli. 2 Novembre Fabio Aiolli Reti Neurali 2 Novembre / 14. unipd_logo.

Reti Neurali. Corso di AA, anno 2016/17, Padova. Fabio Aiolli. 2 Novembre Fabio Aiolli Reti Neurali 2 Novembre / 14. unipd_logo. Reti Neurali Corso di AA, anno 2016/17, Padova Fabio Aiolli 2 Novembre 2016 Fabio Aiolli Reti Neurali 2 Novembre 2016 1 / 14 Reti Neurali Artificiali: Generalità Due motivazioni diverse hanno spinto storicamente

Dettagli

Capitolo 1. Analisi Discriminante. 1.1 Introduzione. 1.2 Un analisi discriminante Descrizione del dataset

Capitolo 1. Analisi Discriminante. 1.1 Introduzione. 1.2 Un analisi discriminante Descrizione del dataset Capitolo 1 Analisi Discriminante 1.1 Introduzione L analisi discriminante viene condotta per definire una modalità di assegnazione dei casi a differenti gruppi, in funzione di una serie di variabili fra

Dettagli

Elaborazione statistica di dati

Elaborazione statistica di dati Elaborazione statistica di dati CONCETTI DI BASE DI STATISTICA ELEMENTARE Taratura strumenti di misura IPOTESI: grandezza da misurare identica da misura a misura Collaudo sistemi di produzione IPOTESI:

Dettagli

Analisi e implementazione dell algoritmo di Dijkstra (Parte 1)

Analisi e implementazione dell algoritmo di Dijkstra (Parte 1) Analisi e implementazione dell algoritmo di Dijkstra (Parte 1) Algoritmicamente August 1, 2009 http://algoritmicamente.wordpress.com/ 1 Concetti fondamentali Definizione 1 Un grafo è un insieme di vertici

Dettagli

Alberi di Decisione (2)

Alberi di Decisione (2) Alberi di Decisione (2) Corso di AA, anno 2018/19, Padova Fabio Aiolli 05 Novembre 2018 Fabio Aiolli Alberi di Decisione (2) 05 Novembre 2018 1 / 19 Apprendimento di alberi di decisione: Bias induttivo

Dettagli

Metodi supervisionati di classificazione

Metodi supervisionati di classificazione Metodi supervisionati di classificazione Giorgio Valentini e-mail: valentini@dsi.unimi.it DSI - Dipartimento di Scienze dell'informazione Classificazione bio-molecolare di tessuti e geni Diagnosi a livello

Dettagli

Unsupervised Learning

Unsupervised Learning Unsupervised Learning Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 21/05/2018 Unsupervised Learning Unsupervised learning Clustering Dimensionality reduction Data visualization

Dettagli

SOM (feature mapping)

SOM (feature mapping) SOM (feature mapping) Iuri Frosio frosio@dsi.unimi.it it 1 In questa lezione Review: clustering e discriminant analysis; Review: clustering parametrico non supervisionato (K-means); Reti neurali per il

Dettagli

Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità)

Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Clustering & feature mapping

Clustering & feature mapping Clustering & feature mapping Iuri Frosio frosio@dsi.unimi.it 146 Info La lezione di venerdi' 19 si terra' in aula GAMMA alle ore 15.30. 246 1 Classificazione Descrizione numerica dell oggetto: altezza,

Dettagli

9.3 Il metodo dei minimi quadrati in formalismo matriciale

9.3 Il metodo dei minimi quadrati in formalismo matriciale 9.3. IL METODO DEI MINIMI QUADRATI IN FORMALISMO MATRICIALE 121 9.3 Il metodo dei minimi quadrati in formalismo matriciale Per applicare il MMQ a funzioni polinomiali, ovvero a dipendenze di una grandezza

Dettagli

Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità

Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità Intelligenza Artificiale Soft Computing: Reti Neurali Generalità Neurone Artificiale Costituito da due stadi in cascata: sommatore lineare (produce il cosiddetto net input) net = S j w j i j w j è il peso

Dettagli

BLAND-ALTMAN PLOT. + X 2i 2 la differenza ( d ) tra le due misure per ognuno degli n campioni; d i. X i. = X 1i. X 2i

BLAND-ALTMAN PLOT. + X 2i 2 la differenza ( d ) tra le due misure per ognuno degli n campioni; d i. X i. = X 1i. X 2i BLAND-ALTMAN PLOT Il metodo di J. M. Bland e D. G. Altman è finalizzato alla verifica se due tecniche di misura sono comparabili. Resta da comprendere cosa si intenda con il termine metodi comparabili

Dettagli

Stima dei parametri. I parametri di una pdf sono costanti che caratterizzano la sua forma. r.v. parameter. Assumiamo di avere un campione di valori

Stima dei parametri. I parametri di una pdf sono costanti che caratterizzano la sua forma. r.v. parameter. Assumiamo di avere un campione di valori Stima dei parametri I parametri di una pdf sono costanti che caratterizzano la sua forma r.v. parameter Assumiamo di avere un campione di valori Vogliamo una funzione dei dati che permette di stimare i

Dettagli

Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò

Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò Kernel Methods Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 14/05/2018 Kernel Methods Definizione di Kernel Costruzione di Kernel Support Vector Machines Problema primale e duale

Dettagli

Algoritmi per il riconoscimento dell iride

Algoritmi per il riconoscimento dell iride Algoritmi per il riconoscimento dell iride 1 L O C A L B I N A R Y P A T T E R N - S C A L E I N V A R I A N T F E A T U R E T R A S F O R M - C U M U L A T I V E S U M S A cura di: Chiara Galdi http://biplab.unisa.it/

Dettagli

Learning and Clustering

Learning and Clustering Learning and Clustering Alberto Borghese Università degli Studi di Milano Laboratorio di Sistemi Intelligenti Applicati (AIS-Lab) Dipartimento di Informatica alberto.borghese@unimi.it 1/48 Riassunto I

Dettagli

ESERCIZIO 1. Vengono riportati di seguito i risultati di un analisi discriminante.

ESERCIZIO 1. Vengono riportati di seguito i risultati di un analisi discriminante. ESERCIZIO 1. Vengono riportati di seguito i risultati di un analisi discriminante. Test di uguaglianza delle medie di gruppo SELF_EFF COLL_EFF COIN_LAV IMPEGNO SODDISF CAP_IST COLLEGHI Lambda di Wilks

Dettagli

Esercitazione del

Esercitazione del Esercizi sulla regressione lineare. Esercitazione del 21.05.2013 Esercizio dal tema d esame del 13.06.2011. Si consideri il seguente campione di n = 9 osservazioni relative ai caratteri ed Y: 7 17 8 36

Dettagli

Metodi di classificazione

Metodi di classificazione I metodi di classificazione sono metodi utilizzati per trovare modelli statistici capaci di assegnare ciascun oggetto di provenienza incognita ad una delle classi esistenti. L applicazione di questi metodi

Dettagli

Clustering con Weka. L interfaccia. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna. Algoritmo utilizzato per il clustering

Clustering con Weka. L interfaccia. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna. Algoritmo utilizzato per il clustering Clustering con Weka Soluzioni degli esercizi Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna L interfaccia Algoritmo utilizzato per il clustering E possibile escludere un sottoinsieme

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Metodi Bayesiani Fabio Aiolli 11 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 11 Dicembre 2017 1 / 19 Metodi Bayesiani I metodi Bayesiani forniscono tecniche computazionali

Dettagli

Statistica. Capitolo 12. Regressione Lineare Semplice. Cap. 12-1

Statistica. Capitolo 12. Regressione Lineare Semplice. Cap. 12-1 Statistica Capitolo 1 Regressione Lineare Semplice Cap. 1-1 Obiettivi del Capitolo Dopo aver completato il capitolo, sarete in grado di: Spiegare il significato del coefficiente di correlazione lineare

Dettagli

Statistica. Alfonso Iodice D Enza

Statistica. Alfonso Iodice D Enza Statistica Alfonso Iodice D Enza iodicede@unicas.it Università degli studi di Cassino () Statistica 1 / 33 Outline 1 2 3 4 5 6 () Statistica 2 / 33 Misura del legame Nel caso di variabili quantitative

Dettagli

Regressione. Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting

Regressione. Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting Non lineare Variabile indipendente non lineare Ottimizzazione numerica (metodi iterativi) 1 Definizioni Nei

Dettagli

La media e la mediana sono indicatori di centralità, che indicano un centro dei dati.

La media e la mediana sono indicatori di centralità, che indicano un centro dei dati. La media e la mediana sono indicatori di centralità, che indicano un centro dei dati. Un indicatore che sintetizza in un unico numero tutti i dati, nascondendo quindi la molteplicità dei dati. Per esempio,

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Spazi Vettoriali e Vettori

Spazi Vettoriali e Vettori Spazi Vettoriali e Vettori Basilio Bona DAUIN-Politecnico di Torino 2007 2008 Basilio Bona (DAUIN-Politecnico di Torino) Spazi Vettoriali e Vettori 2007 2008 1 / 20 Vettori e Spazi vettoriali Il concetto

Dettagli

Alberi di Decisione (2)

Alberi di Decisione (2) Alberi di Decisione (2) Corso di AA, anno 2017/18, Padova Fabio Aiolli 25 Ottobre 2017 Fabio Aiolli Alberi di Decisione (2) 25 Ottobre 2017 1 / 18 Apprendimento di alberi di decisione: Bias induttivo Come

Dettagli

ANOVA. ANalysis Of VAriance. Federico Plazzi. 1 Dicembre 2015

ANOVA. ANalysis Of VAriance. Federico Plazzi. 1 Dicembre 2015 ANOVA ANalysis Of VAriance Federico Plazzi 1 Dicembre 2015 A che cosa serve? A che cosa serve? Applicazione L ANOVA ha finalità simili al test t: confrontare campioni. Al contrario del test t, però, è

Dettagli

Reti Neurali. Giuseppe Manco. References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop. Reti Neurali

Reti Neurali. Giuseppe Manco. References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop. Reti Neurali Giuseppe Manco References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop Perceptron Learning Unità neurale Gradiente Discendente Reti Multi-Layer Funzioni nonlineari Reti di funzioni nonlineari

Dettagli

Bag of (visual) Words. BoW. Input image. Dizionario visuale. Rappresentazione

Bag of (visual) Words. BoW. Input image. Dizionario visuale. Rappresentazione Bag of (visual) Words BoW Il modello è stato proposto con l obiettivo di rappresentare un immagine tramite un dizionario visuale. Il metodo BoW si ispira alle tecniche di rappresentazione dei documenti

Dettagli

Statistica per l Impresa

Statistica per l Impresa Statistica per l Impresa a.a. 2017/2018 Tecniche di Analisi Multidimensionale Analisi dei Gruppi 23 aprile 2018 Indice 1. Analisi dei Gruppi: Introduzione 2. Misure di distanza e indici di similarità 3.

Dettagli

Identificazione di modello

Identificazione di modello SE5 Prof. Davide Manca Politecnico di Milano Dinamica e Controllo dei Processi Chimici Esercitazione #5 Identificazione di modello ing. Sara Brambilla SE5 Identificazione di modello Nel definire un modello

Dettagli

Riconoscimento immagini con Keras e Tensorflow Gabriele Baldi

Riconoscimento immagini con Keras e Tensorflow Gabriele Baldi Riconoscimento immagini con Keras e Tensorflow Gabriele Baldi https://github.com/bnznamco/keras_model_and_slides_notabugconf Riconoscimento immagini Attività tipica del cervello umano Task molto difficile

Dettagli

Fisher Linear discriminant analysis (pag 228)

Fisher Linear discriminant analysis (pag 228) Fisher Linear discriminant analysis (pag 228) 1 Nell Analisi delle componenti proncipali PCA si trovano quelle componenti utili per la rappresentazione dei dati Tali componenti non sono utili a discriminare

Dettagli

Modellazione di sistemi ingegneristici (parte 2 di 2)

Modellazione di sistemi ingegneristici (parte 2 di 2) Corso di Teoria dei Sistemi Modellazione di sistemi ingegneristici (parte 2 di 2) Prof. Ing. Daniele Testi DESTeC, Dipartimento di Ingegneria dell Energia, dei Sistemi, del Territorio e delle Costruzioni

Dettagli

Distribuzione Normale. Dott. Claudio Verona

Distribuzione Normale. Dott. Claudio Verona Distribuzione Normale Dott. Claudio Verona Rappresentazione di valori ottenuti da misure ripetute Il primo problema che si riscontra nelle misure ripetute più volte è trovare un metodo conveniente per

Dettagli

Analisi multivariata per osservazioni appaiate. Analisi multivariata per osservazioni appaiate

Analisi multivariata per osservazioni appaiate. Analisi multivariata per osservazioni appaiate Introduzione Notazione Modello additivo Verifica d ipotesi Sia X una variabile q-dimensionale, a valori reali, non degenere, osservata in k tempi diversi (τ 1, τ 2,..., τ k ), sulle stesse n unità statistiche

Dettagli

SCHEDA DIDATTICA N 7

SCHEDA DIDATTICA N 7 FACOLTA DI INGEGNERIA CORSO DI LAUREA IN INGEGNERIA CIVILE CORSO DI IDROLOGIA PROF. PASQUALE VERSACE SCHEDA DIDATTICA N 7 LA DISTRIBUZIONE NORMALE A.A. 01-13 La distribuzione NORMALE Uno dei più importanti

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Comput per l inter naturale: macchine che apprendono Corso di Inter uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it http://boccignone.di.unimi.it/ium2_2014.html

Dettagli

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019 DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019 Nome: Cognome: Matricola: Riga: Colonna:

Dettagli

Statistica. Alfonso Iodice D Enza

Statistica. Alfonso Iodice D Enza Statistica Alfonso Iodice D Enza iodicede@gmail.com Università degli studi di Cassino () Statistica 1 / 24 Outline 1 2 3 4 5 () Statistica 2 / 24 Dipendenza lineare Lo studio della relazione tra caratteri

Dettagli

Problemi pratici teorici-sperimentali

Problemi pratici teorici-sperimentali Problemi pratici teorici-sperimentali 1. Se viene fatta una sola misura come si estrae la deviazione standard? Risposta: per convenzione si prende come deviazione standard la metà della sensibilità dello

Dettagli

Matematica Lezione 22

Matematica Lezione 22 Università di Cagliari Corso di Laurea in Farmacia Matematica Lezione 22 Sonia Cannas 14/12/2018 Indici di posizione Indici di posizione Gli indici di posizione, detti anche misure di tendenza centrale,

Dettagli

Reti Neurali (Parte I)

Reti Neurali (Parte I) Reti Neurali (Parte I) Corso di AA, anno 2018/19, Padova Fabio Aiolli 07 Novembre 2018 Fabio Aiolli Reti Neurali (Parte I) 07 Novembre 2018 1 / 16 Reti Neurali Artificiali: Generalità Due motivazioni diverse

Dettagli

DEFINIZIONE E UNA CLASSIFICAZIONE PER LE FUNZIONI n

DEFINIZIONE E UNA CLASSIFICAZIONE PER LE FUNZIONI n CAPITOLO : FUNZIONI DEFINIZIONE E UNA CLASSIFICAZIONE PER LE FUNZIONI n m Siano m, n { 1,, } Definiamo funzione, da R a R, una azione, n denominata f, che ad ogni punto P di R, ovvero di un suo sottoinsieme

Dettagli

Low Level Vision: Trasformata di Hough

Low Level Vision: Trasformata di Hough Low Level Vision: Trasformata di Hough Prof Sebastiano Battiato Rilevamento di linee Le linee sono feature importanti perché permettono di definire analiticamente o approssimare molte forme (in particolare

Dettagli

Esplorazione grafica di dati multivariati. N. Del Buono

Esplorazione grafica di dati multivariati. N. Del Buono Esplorazione grafica di dati multivariati N. Del Buono Scatterplot Scatterplot permette di individuare graficamente le possibili associazioni tra due variabili Variabile descrittiva (explanatory variable)

Dettagli

SOM (feature mapping)

SOM (feature mapping) SOM (feature mapping) Iuri Frosio frosio@dsi.unimi.it it 1 Clustering / Classificazione Clustering => Siano dati N dati, un algoritmo di clustering divide i dati in M classi diverse senza necessità di

Dettagli

POLITECNICO DI TORINO

POLITECNICO DI TORINO POLITECNICO DI TORINO III Facoltà di Ingegneria dell Informazione Corso di Laurea Magistrale in Ingegneria Informatica Tesina di Intelligenza Artificiale Clustering su dati climatici usando Kohonen map

Dettagli

Apprendimento Automatico (Feature Selection e Kernel Learning)

Apprendimento Automatico (Feature Selection e Kernel Learning) Apprendimento Automatico (Feature Selection e Kernel Learning) Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Servono tutti gli attributi? Gli

Dettagli

Metodi computazionali per i Minimi Quadrati

Metodi computazionali per i Minimi Quadrati Metodi computazionali per i Minimi Quadrati Come introdotto in precedenza si considera la matrice. A causa di mal condizionamenti ed errori di inversione, si possono avere casi in cui il e quindi S sarebbe

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica. Clustering: validazione. Manuele Bicego

Riconoscimento e recupero dell informazione per bioinformatica. Clustering: validazione. Manuele Bicego Riconoscimento e recupero dell informazione per bioinformatica Clustering: validazione Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario Definizione

Dettagli

Computazione per l interazione naturale: Regressione lineare

Computazione per l interazione naturale: Regressione lineare Computazione per l interazione naturale: Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it http://homes.dsi.unimi.it/~boccignone/l

Dettagli

Clustering. Clustering

Clustering. Clustering 1/40 Clustering Iuri Frosio frosio@dsi.unimi.it Approfondimenti in A.K. Jan, M. N. Murty, P. J. Flynn, Data clustering: a review, ACM Computing Surveys, Vol. 31, No. 3, September 1999, ref. pp. 265-290,

Dettagli

Computazione per l interazione naturale: Modelli dinamici

Computazione per l interazione naturale: Modelli dinamici Computazione per l interazione naturale: Modelli dinamici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

ESTRAZIONE DI DATI 3D DA IMMAGINI DIGITALI. (Visione 3D)

ESTRAZIONE DI DATI 3D DA IMMAGINI DIGITALI. (Visione 3D) ESTRAZIONE DI DATI 3D DA IMMAGINI DIGITALI () Structure From Motion Date m immagini di n punti 3D (fissi) Stimare le m matrici di proiezione P i e gli n vettori X j date le mn corrispondenze x ij SFM

Dettagli

Regressione Lineare Semplice e Correlazione

Regressione Lineare Semplice e Correlazione Regressione Lineare Semplice e Correlazione 1 Introduzione La Regressione è una tecnica di analisi della relazione tra due variabili quantitative Questa tecnica è utilizzata per calcolare il valore (y)

Dettagli

Naïve Bayesian Classification

Naïve Bayesian Classification Naïve Bayesian Classification Di Alessandro rezzani Sommario Naïve Bayesian Classification (o classificazione Bayesiana)... 1 L algoritmo... 2 Naive Bayes in R... 5 Esempio 1... 5 Esempio 2... 5 L algoritmo

Dettagli

Università di Pavia Econometria. Minimi quadrati ordinari Interpretazione geometrica. Eduardo Rossi

Università di Pavia Econometria. Minimi quadrati ordinari Interpretazione geometrica. Eduardo Rossi Università di Pavia Econometria Minimi quadrati ordinari Interpretazione geometrica Eduardo Rossi Università di Pavia Introduzione L econometria si interessa all analisi dei dati economici. I dati economici

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Clustering: validazione Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario Definizione

Dettagli

Introduzione al Metodo agli Elementi Finiti (FEM) (x, y) Γ Tale formulazione viene detta Formulazione forte del problema.

Introduzione al Metodo agli Elementi Finiti (FEM) (x, y) Γ Tale formulazione viene detta Formulazione forte del problema. Introduzione al Metodo agli Elementi Finiti (FEM) Consideriamo come problema test l equazione di Poisson 2 u x 2 + 2 u = f(x, y) u = f y2 definita su un dominio Ω R 2 avente come frontiera la curva Γ,

Dettagli

Metodi di Geometria Algebrica per la ricostruzione statistica degli alberi filogenetici Luigi Biondi

Metodi di Geometria Algebrica per la ricostruzione statistica degli alberi filogenetici Luigi Biondi Metodi di Geometria Algebrica per la ricostruzione statistica degli alberi filogenetici Luigi Biondi 20 Luglio 2011 Specie 1: ACGTACTACTGCAGTCCTAGCTGATCGT... Specie 2: ACTGTCGATCATGCTAATCGATGCATCG... Specie

Dettagli

Luigi Piroddi

Luigi Piroddi Automazione industriale dispense del corso (a.a. 2008/2009) 10. Reti di Petri: analisi strutturale Luigi Piroddi piroddi@elet.polimi.it Analisi strutturale Un alternativa all analisi esaustiva basata sul

Dettagli

Soluzioni della settima esercitazione di Algoritmi 1

Soluzioni della settima esercitazione di Algoritmi 1 Soluzioni della settima esercitazione di Algoritmi 1 Beniamino Accattoli 19 dicembre 2007 1 Grafi Un grafo è non orientato se descrivendo un arco come una coppia di vertici (i,j) l ordine è ininfluente

Dettagli

25 - Funzioni di più Variabili Introduzione

25 - Funzioni di più Variabili Introduzione Università degli Studi di Palermo Facoltà di Economia CdS Statistica per l Analisi dei Dati Appunti del corso di Matematica 25 - Funzioni di più Variabili Introduzione Anno Accademico 2013/2014 M. Tumminello

Dettagli

Elaborazione statistica di dati

Elaborazione statistica di dati Elaborazione statistica di dati 1 CONCETTI DI BASE DI STATISTICA ELEMENTARE 2 Taratura strumenti di misura IPOTESI: grandezza da misurare identica da misura a misura Per la presenza di errori casuali,

Dettagli

Ulteriori conoscenze di informatica Elementi di statistica Esercitazione3

Ulteriori conoscenze di informatica Elementi di statistica Esercitazione3 Ulteriori conoscenze di informatica Elementi di statistica Esercitazione3 Sui PC a disposizione sono istallati diversi sistemi operativi. All accensione scegliere Windows. Immettere Nome utente b## (##

Dettagli