Unsupervised Learning

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Unsupervised Learning"

Transcript

1 Unsupervised Learning Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò 21/05/2018

2 Unsupervised Learning Unsupervised learning Clustering Dimensionality reduction Data visualization

3 Unsupervised Learning Voglio modellizzare la distribuzione degli input Dati: un training set composto da soli input D = {x} (vettori), solitamente in numero molto elevato Trovare: un modo efficace per descrivere i dati in maniera concisa (ridurre le dimensioni) Clustering: ridurre il numero dei dati significativi Dimensionality reduction: ridurre il numero di dimensioni dei vettori di input Data visualization: proporre una visualizzazione dei dati che mantegna le posizione relative tra i dati

4 Quando usare tecniche di Unsupervised Learning Abbiamo a disposizione un set di dati molto grande Non riusciamo a gestirli tutti per prendere decisioni Vogliamo avere un modo di analizzare visivamente i dati Soluzione: riduciamone il numero Riduciamo il numero di sample (clustering) Riduciamo la dimensionalità di ognuno dei dati (dimensionality reduction)

5 Clustering Voglio estrarre dal dataset un sottoinsieme di sample che siano rappresentativi dell intero dataset Divido il dataset in sottonsiemi simili di sample Domande: Come valuto se due sample sono simili tra loro? Come valuto il risultato ottenuto? (non esiste una risposta condivisa)

6 K-means clustering Idea: uso un vettore media come rappresentativo di ogni cluster Necessito di vettori numerici (posso calcolare la distanza tra due di essi) Scelgo un numero di cluster (gruppi) K e minimizzo: Appartenenza del sample n al cluster k Rappresentante del cluster k (media) Nota: ho scelto la distanza euclidea tra due vettori

7 Algoritmo K-means Una procedura analitica per la minimizzazione non esiste Procedura iterativa: Parto con dei rappresentanti μ k 0 scelti a caso Ripeto fino a convergenza (nessun punto si sposta più) Assegno ogni sample x n ad un cluster Calcolo i nuovi rappresentanti μ k i come media dei sample appartenenti al cluster Poiché la procedura diminuisce il valore della funzione obbiettivo J ad ogni iterazione, la procedura converge Potrebbe convergere ad un minimo locale

8 Più in dettaglio Ogni sample viene assegnato ad un cluster se Dopodichè posso minimizzare la funzione di costo J, ponendo la sua derivata a zero Per questo stiamo non aumentando il valore della funzione obbiettivo ad ogni passo

9 Esempio di K-means

10 K-means per compressione di Immagini

11 Domande sul K-means È effettivamente un algoritmo efficiente? Possiamo pensare ad una preocedura che arrivi al minimo globale? Come definisco i suoi parametri? Come setto il valore K?

12 Potremmo fare di meglio Soluzione Brute Force: si potrebbe valutare tutti i possibili assegnamenti di K cluster e trovare la configurazione che minimizzi la funzione obbiettivo J Purtroppo richiederebbe K N possibili configurazioni L algoritmo K-means invece richiede solo KNi operazioni, dove i è il numero di iterazioni richieste per la convergenza

13 Come scegliere K Non esiste un valore corretto per il parametro K A volte il valore viene richiesto dall applicazione Valuto il risultato del clustering con differnti valori di K Se volessi valutare l algoritmo con tutti i possibili valori di K, l algoritmo scalerebbe come N 2, il che lo rende in pratica non applicabile

14 Problemi del K-means Utilizzando come misura di dissimilarità la distanza euclidea: Non è robusto agli outliers Non possiamo applicarlo a dati categorici (non esistono i rappresentanti medi) Potenziali soluzioni: Per quanto riguarda gli outliers, possiamo utilizzare altre misure di dissimilarità, ad esempio la distanza manhattan o di Mahalanobis Possiamo definire il rappresentante del cluster come quel sample che ha minore dissimilarità da tutti gli altri (K-medoids), l algoritmo risulta anche più robusto al rumore statistico e agli outliers

15 Altri problemi Il K-means assume che i cluster abbiano una forma ben precisa perchè funzioni adeguatamente I cluster devono essere sferici essere ben separati avere lo stesso volume avere lo stesso numero di punti

16 Esempi di clustering finito male

17 Ulteriori soluzioni Esistono altri metodi di clustering X-means: decide in maniera automatica il numero dei cluster Mixture models: approssimano i dati come una mistura (combinazione convessa) di distribuzioni DB-scan: considera l esistenza di alcuni punti non assegnati ad alcun cluster. Non richiede di specificare il numero di cluster Clustering gerarchico: raggruppa per primi i punti più vicin tra di loro, dopodichè continua fino a creare gruppi con distanza sempre più alta tra i punti Affinity propagation: basato sul concetto di message passing. Non richiede di specificare il numero di cluster Clustering spettrale: utilizzano degli indici calcolati sulla matrice di dissimilarità tra i sample

18 Esecuzione di DBScan

19 Clustering gerarchico

20 Dimensionality reduction Vogliamo trovare una buona approssimazione del dataset che non abbia una dimensionalità troppo elevata (sia per questioni di spazio che per questioni di informazione) Solitamente viene utilizzato per apprendre un modello di feature trasformate e poi viene utilizzato per fare apprendimento sui nuovi dati trasformati Per come è formulato esso si presenta come un problema non supervisionato Alcune delle tecniche sono: PCA: principal component analysis ICA: independent component analysis SOM: self-organizing maps (le vedremo più avanti)

21 Rispetto ad altri metodi Dato un dataset di N sample ognuno di dimensione M Clustering: diminuisco le dimensioni del dataset, scegliendo solo dei rappresentanti di ogni cluster (diminuisco N) Feature selection: diminuisco le feature a disposizione scartando quelle inutili (diminuisco M escludendo alcune feature) Dimensionality reduction: diminuisco le feature a disposizione creando un numero minore di nuove feature (diminuisco M generando k nuove feature)

22 Principal Component analysis Idea: vogliamo proiettare il nostro dataset nella direzione dove c è più varianza dei dati

23 Algoritmo Concettuale Cerchiamo una direzione in cui ci sia la maggiore varianza (first principal component) Dopodichè cerchiamo una seconda dimensione, ortogonale alla prima che abbia la massima varianza (second principal component) Itero fino alla dimensione M In due dimensioni scelta la prima ho che la seconda componente è fissata

24 Algoritmo Calcolo la media dei dati Calcolo la matrice di covarianza L autovettore e 1 corrispondente all autovalore più grande λ 1 è la direzione della prima componente principale L autovettore e 2 corrispondente al secondo autovalore più grande λ 2 è la direzione della seconda componente principale...

25 Scelta delle Componenti principali A questo punto ho una nuova base ortonormale per lo spazio delle feature Se scelgo solo le prime k componenti principali, ho una rappresentazione dei dati in uno spazio a dimensionalità più bassa Perdo in informazione, nello specifico con k componenti principali riesco k λ i a spiegare σ i=1 della varianza totale del fenomeno M λ i σ i=1 Proiettando nel vecchio spazio i nuovi sample ho dei vettori che ricostruiscono il dataset originale (con qualche grado di errore)

26 Pro e Contro Pro: Aiuta a ridurre la complessità computazionale riducendo le feature Può essere di supporto a metodi di supervised learning Solitamente le ultime componenti principali contengono solo rumore, quindi riesco a rimuoverlo facilmente Contro: Se ho molti cluster di dati potrei peggiorare la situazione Le proiezioni che considero sono su dei manifold lineari dello spazio originario dei dati

27 Simpson s Paradox

28 Formulazione della PCA come problema di minimizzazione Consideriamo una base ortonormale {u i } tale che u i T i j = δ ij (uno solo se gli indici sono uguali) Posso riscrivere Per avere una rappresentazione più concisa decompongo ogni vettore come Coefficienti dipendenti dal sample Coefficienti caratteristici del dataset

29 Un approssimazione M dimensionale Considero come errore di ricostruzione Derivando rispetto ai coefficienti z ni e successivamente rispetto ai coefficienti b i ho con un errore sul singolo vettore di L errore è interamente contenuto nello spazio ortogonale alle prime M dimensioni

30 Minimizzo la distorsione La funzione distorsione diventa A questo punto dobbiamo minimizzare J rispetto alla base u i Ad esempio volessimo trovare una soluzione M = 1 dimensionale ad un problema 2D dovremmo minimizzare Il lagrangiano è s.t.

31 Scopi della PCA Dimensionality reduction: tengo una percentuale di dimensioni per poter poi utilizzare i dati per fare apprendimento Data visualization: proietto i dati in uno spazio 2D o 3D così li posso visualizzare ed analizzare più facilmente Compressione: trovo un approssimazione dei dati originali che perda il minimo in termini distorsione

32 Scelta delle componenti principali Scegliere un numero di dimensioni troppo piccolo (k 3) potrebbe generare dei dati molto differenti da quelli originali Una buona regola è quella tenere una percentuale fissata della varianza totale (90%-99%) oppure di identificare un gomito nella curva della varianza cumulata

33 Independent Component Analysis Applicazione tipica: cocktail party problem Cerco di estrarre delle componenti che siano il più indipendenti tra di loro Posso estrarre un numero di componenti a mia scelta a patto che siano minori o uguali al numero delle osservazioni

34 Data visualization La PCA può essere usata per visualizzare un dataset (scelgo k = 2 o k = 3) Gli obbiettivi di un algoritmo di visualizzazione dei dati sono: Proiettare i punti in un piano Punti vincini nello spazio proiettato devono essere vicini in quello di partenza Punti lontani nello spazio proiettato devono essere lontani nello spazio di partenza Esiste la possibilità che non vengano specificati i punti di partenza ma solo le distanze tra coppie di punti

35 Metodi specifici Esistono dei metodi che sono specificatamente pensati per visualizzare i dati ad alta dimensionalità Multi Dimensional Scaling (Torgerson Scaling) Metric MDS Sammon mapping Non-metric MDS

36 MDS Supponiamo di avere vettori x a media nulla Per calcolare le componenti principali abbiamo bisogno della matrice di covarianza C = 1 n XT X che è un prodotto interno, quindi C è una Gram matrix La prima componente principale è l autovettore corrispondente al primo autovalore di C Se riusciamo allora a creare una Gram matrix dalle distanze allora possiamo estrarre le componenti principali

37 Algoritmo del MDS Per calcolare le componenti principali devo fare Data una matrice di distanze D = {d ij } Applicare il double centering B = 1 JDJ dove J = I n 1T Calcolare la gli autovettori e i e gli autovalori λ i della matrice B I dati sono ricostruibili come X = E Λ 1 2 La soluzione trova dei punti che hanno esattamente la distanza di partenza Il processo precendente assume che le distanze tra punti siano euclidee Esiste una generalizzazione di MDS che considera anche metriche non euclidee

38 Metric MDS Considero una funzione di stress che, date delle posizioni dei punti p i in uno spazio scelto, mi dice quanto sono vicino alle distanze iniziali Posso minimizzare lo stress n S 2 = i,j,i j ad esempio, facendo gradient descend d ij p i p j 2 Posso inizializzare i punti con la soluzione del MDS classico e poi iterativamente minimizzare lo stress Allontano due punti se d ij < p i p j e li avvicino se d ij > p i p j

39 Shepard plot Idealmente dovremmo avrere i punti ottenuti tutti sulla diagonale

40 Sammon s mapping Possiamo utilizzare anche altre funzioni di stress, ad esempio che pesano differentemente i punti a seconda che siano vicini o lontani n S 2 = i,j,i j d ij p i p j d ij 2 Se due punti erano vicini nel dataset iniziale, probabilmente lo saranno anche nel dataset proiettato Non mi curo troppo dei punti la cui distanza è grande

41 Dataset problematico: Swiss Roll

42 Criticità degli algoritmi PCA Analizza solo dei manifold lineari nello spazio delle feature MDS / Sammon Considera tutte le distanze tra punti, anche quelle molto distanti Dovremo quindi ridefinire il concetto di distanza oppure focalizzarci solo su di un intorno del punto considerato

43 ISOMAP Creo un grafo dei punti, ogni nodo è un punto e solo i k punti più vicini sono connessi Gli archi hanno peso pari alla distanza tra i due punti La nuova distanza è quella data dal percorrere lo shortest path tra due punti Applico MDS su questa nuova matrice Questo riesce a raddrizzare la curvatura del manifold Purtroppo anche un solo arco di differenza (ad esempio tra due livelli dello swiss roll) può portare ad una soluzione molto differente

44 Altri metodi Self Organizing Maps (SOM) Local Linear Embeddings (LLE) Hessian LLE Laplacian Eigenmaps

Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità)

Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò

Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò Kernel Methods Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 14/05/2018 Kernel Methods Definizione di Kernel Costruzione di Kernel Support Vector Machines Problema primale e duale

Dettagli

Constraint Satisfaction Problems

Constraint Satisfaction Problems Constraint Satisfaction Problems Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 19/03/2018 Constraint Satisfaction problem Fino ad ora ogni stato è stato modellizzato come una

Dettagli

Riduzione di dimensionalità

Riduzione di dimensionalità Riduzione di dimensionalità SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) Secondo Parziale - 11 Giugno 2018

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) Secondo Parziale - 11 Giugno 2018 DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) Secondo Parziale - 11 Giugno 2018 Nome: Cognome: Matricola:

Dettagli

Misura della performance di ciascun modello: tasso di errore sul test set

Misura della performance di ciascun modello: tasso di errore sul test set Confronto fra modelli di apprendimento supervisionato Dati due modelli supervisionati M 1 e M costruiti con lo stesso training set Misura della performance di ciascun modello: tasso di errore sul test

Dettagli

Computazione per l interazione naturale: clustering e riduzione di dimensionalità

Computazione per l interazione naturale: clustering e riduzione di dimensionalità Computazione per l interazione naturale: clustering e riduzione di dimensionalità Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Regressione Lineare. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò

Regressione Lineare. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò Regressione Lineare Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 23/04/2018 Regressione Lineare Supervised Learning Supervised Learning: recap È il sottocampo del ML più vasto

Dettagli

Riconoscimento automatico di oggetti (Pattern Recognition)

Riconoscimento automatico di oggetti (Pattern Recognition) Riconoscimento automatico di oggetti (Pattern Recognition) Scopo: definire un sistema per riconoscere automaticamente un oggetto data la descrizione di un oggetto che può appartenere ad una tra N classi

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Clustering: metodologie Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario Tassonomia

Dettagli

Intelligenza Artificiale. Clustering. Francesco Uliana. 14 gennaio 2011

Intelligenza Artificiale. Clustering. Francesco Uliana. 14 gennaio 2011 Intelligenza Artificiale Clustering Francesco Uliana 14 gennaio 2011 Definizione Il Clustering o analisi dei cluster (dal termine inglese cluster analysis) è un insieme di tecniche di analisi multivariata

Dettagli

Risoluzione di sistemi lineari sparsi e di grandi dimensioni

Risoluzione di sistemi lineari sparsi e di grandi dimensioni Risoluzione di sistemi lineari sparsi e di grandi dimensioni Un sistema lineare Ax = b con A R n n, b R n, è sparso quando il numero di elementi della matrice A diversi da zero è αn, con n α. Una caratteristica

Dettagli

Apprendimento Automatico (Feature Selection e Kernel Learning)

Apprendimento Automatico (Feature Selection e Kernel Learning) Apprendimento Automatico (Feature Selection e Kernel Learning) Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Servono tutti gli attributi? Gli

Dettagli

Ricerca di outlier. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna

Ricerca di outlier. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Ricerca di outlier Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Ricerca di Anomalie/Outlier Cosa sono gli outlier? L insieme di dati che sono considerevolmente differenti dalla

Dettagli

Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning)

Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Metodi per la riduzione della dimensionalità. Strumenti quantitativi per la gestione

Metodi per la riduzione della dimensionalità. Strumenti quantitativi per la gestione Metodi per la riduzione della dimensionalità Strumenti quantitativi per la gestione Emanuele Taufer file:///c:/users/emanuele.taufer/dropbox/3%20sqg/classes/6c_pca.html#(1) 1/25 Introduzione Gli approcci

Dettagli

Uso dell algoritmo di Quantizzazione Vettoriale per la determinazione del numero di nodi dello strato hidden in una rete neurale multilivello

Uso dell algoritmo di Quantizzazione Vettoriale per la determinazione del numero di nodi dello strato hidden in una rete neurale multilivello Tesina di Intelligenza Artificiale Uso dell algoritmo di Quantizzazione Vettoriale per la determinazione del numero di nodi dello strato hidden in una rete neurale multilivello Roberto Fortino S228682

Dettagli

ATTENZIONE: : giustificate le vostre argomentazioni! Geometria Canale 3. Lettere J-PE (Prof P. Piazza) Esame scritto del 12/02/2014. Compito A.

ATTENZIONE: : giustificate le vostre argomentazioni! Geometria Canale 3. Lettere J-PE (Prof P. Piazza) Esame scritto del 12/02/2014. Compito A. Geometria Canale. Lettere J-PE (Prof P. Piazza) Esame scritto del 12/02/2014. Compito A. Nome e Cognome: Numero di Matricola: Esercizio Punti totali Punteggio 1 7 2 6 6 4 6+1 5 6+2 Totale 1+ ATTENZIONE:

Dettagli

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza

Dettagli

Sistemi di Elaborazione dell Informazione 170. Caso Non Separabile

Sistemi di Elaborazione dell Informazione 170. Caso Non Separabile Sistemi di Elaborazione dell Informazione 170 Caso Non Separabile La soluzione vista in precedenza per esempi non-linearmente separabili non garantisce usualmente buone prestazioni perchè un iperpiano

Dettagli

Scheda n. 9: PCA - parte prima

Scheda n. 9: PCA - parte prima Scheda n. 9: PCA - parte prima November 22, 2008 1 Introduzione Supponiamo di esaminare n variabili aleatorie (gaussiane -anche se questa richiesta non è necessaria-) X 1,..., X n. Un esempio possono essere

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Rappresentazione dei dati con i kernel Abbiamo una serie di oggetti S

Dettagli

Università degli Studi di Roma Tor Vergata

Università degli Studi di Roma Tor Vergata Funzioni kernel Note dal corso di Machine Learning Corso di Laurea Specialistica in Informatica a.a. 2010-2011 Prof. Giorgio Gambosi Università degli Studi di Roma Tor Vergata 2 Queste note derivano da

Dettagli

Riduzione Dimensionalità

Riduzione Dimensionalità Introduzione Definizioni PCA vs LDA Principal Component Analysis (PCA) Linear Discriminant Analysis (LDA) t-sne 1 Definizioni Obiettivo dei metodi per la riduzione di dimensionalità (dimensionality reduction)

Dettagli

Capitolo 3: Ottimizzazione non vincolata parte III. E. Amaldi DEI, Politecnico di Milano

Capitolo 3: Ottimizzazione non vincolata parte III. E. Amaldi DEI, Politecnico di Milano Capitolo 3: Ottimizzazione non vincolata parte III E. Amaldi DEI, Politecnico di Milano 3.4 Metodi di ricerca unidimensionale In genere si cerca una soluzione approssimata α k di min g(α) = f(x k +αd k

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Comput per l inter naturale: macchine che apprendono Corso di Inter uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it http://boccignone.di.unimi.it/ium2_2014.html

Dettagli

Elementi di Algebra Lineare

Elementi di Algebra Lineare Elementi di Algebra Lineare Corso di Calcolo Numerico, a.a. 2009/2010 Francesca Mazzia Dipartimento di Matematica Università di Bari 13 Marzo 2006 Francesca Mazzia (Univ. Bari) Elementi di Algebra Lineare

Dettagli

Computazione per l interazione naturale: processi gaussiani

Computazione per l interazione naturale: processi gaussiani Computazione per l interazione naturale: processi gaussiani Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Cenni sui metodi iterativi per sistemi lineari. Analisi Numerica Prof. M. Lucia Sampoli a.a. 2014/2015

Cenni sui metodi iterativi per sistemi lineari. Analisi Numerica Prof. M. Lucia Sampoli a.a. 2014/2015 Cenni sui metodi iterativi per sistemi lineari Analisi Numerica Prof. M. Lucia Sampoli a.a. 2014/2015 Metodi numerici per sistemi lineari Nei metodi diretti la presenza di eventuali elementi nulli nella

Dettagli

Neural Networks. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò

Neural Networks. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò Neural Networks Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 28/05/2018 Neural Networks Struttura di una NN Backpropagation algorithm Altre strutture di rete Limiti dei sample-based

Dettagli

Possibile applicazione

Possibile applicazione p. 1/4 Assegnamento Siano dati due insiemi A e B entrambi di cardinalità n. Ad ogni coppia (a i,b j ) A B è associato un valore d ij 0 che misura la "incompatibilità" tra a i e b j, anche interpretabile

Dettagli

Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale

Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale Il presente lavoro, facente segiuto a quanto scritto precedentemente ha il fine di descrivere il codice di calcolo

Dettagli

Metodi computazionali per i Minimi Quadrati

Metodi computazionali per i Minimi Quadrati Metodi computazionali per i Minimi Quadrati Come introdotto in precedenza si considera la matrice. A causa di mal condizionamenti ed errori di inversione, si possono avere casi in cui il e quindi S sarebbe

Dettagli

Metodi di Ricerca Lineare

Metodi di Ricerca Lineare Metodi di Ricerca Lineare Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: stefano.gualandi@unipv.it @famo2spaghi http://stegua.github.com Metodi di Ottimizzazione

Dettagli

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza

Dettagli

Metodi e Modelli Matematici di Probabilità per la Gestione Prova scritta A 18/12/2009

Metodi e Modelli Matematici di Probabilità per la Gestione Prova scritta A 18/12/2009 Metodi e Modelli Matematici di Probabilità per la Gestione Prova scritta A 18/1/009 Esercizio 1. Un officina ha tre stazioni di lavoro uguali dove può essere effettuata la verniciatura, con un unica fila

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019 DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019 Nome: Cognome: Matricola: Riga: Colonna:

Dettagli

Sistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese

Sistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese Sistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese Università degli Studi di Milano Laboratory of Applied Intelligent Systems (AIS-Lab) Dipartimento di Informatica borghese@di.unimi.it

Dettagli

L A B C di R. Stefano Leonardi c Dipartimento di Scienze Ambientali Università di Parma Parma, 9 febbraio 2010

L A B C di R. Stefano Leonardi c Dipartimento di Scienze Ambientali Università di Parma Parma, 9 febbraio 2010 L A B C di R 0 20 40 60 80 100 2 3 4 5 6 7 8 Stefano Leonardi c Dipartimento di Scienze Ambientali Università di Parma Parma, 9 febbraio 2010 La scelta del test statistico giusto La scelta della analisi

Dettagli

Introduzione all Intelligenza Artificiale

Introduzione all Intelligenza Artificiale Introduzione all Intelligenza Artificiale Concetti base ed esempi di applicazione Prof. Francesco Trovò 12/05/2018 Chi sono Francesco Trovò Laureato @Polimi 2011 Laureato @Aalto 2011 Dottorato @Polimi

Dettagli

Parte V: Rilassamento Lagrangiano

Parte V: Rilassamento Lagrangiano Parte V: Rilassamento Lagrangiano Tecnica Lagrangiana Consideriamo il seguente problema di Programmazione Lineare Intera: P 1 min c T x L I Ax > b Cx > d x > 0, intera in cui A = matrice m x n C = matrice

Dettagli

(a) Si proponga una formulazione di programmazione nonlineare a variabili misto-intere per problema.

(a) Si proponga una formulazione di programmazione nonlineare a variabili misto-intere per problema. 6. Clustering In molti campi applicativi si presenta il problema del data mining, che consiste nel suddividere un insieme di dati in gruppi e di assegnare un centro a ciascun gruppo. Ad esempio, in ambito

Dettagli

Complementi di Matematica e Calcolo Numerico A.A Laboratorio 6 Metodi iterativi per sistemi lineari

Complementi di Matematica e Calcolo Numerico A.A Laboratorio 6 Metodi iterativi per sistemi lineari Complementi di Matematica e Calcolo Numerico A.A. 2017-2018 Laboratorio 6 Metodi iterativi per sistemi lineari Dati una matrice A R N N non singolare e un vettore b R N, un metodo iterativo per la risoluzione

Dettagli

Daniela Lera A.A

Daniela Lera A.A Daniela Lera Università degli Studi di Cagliari Dipartimento di Matematica e Informatica A.A. 2014-2015 Metodi per similitudine Matrici simili hanno gli stessi autovalori. Consideriamo trasformazioni per

Dettagli

Esplorazione grafica di dati multivariati. N. Del Buono

Esplorazione grafica di dati multivariati. N. Del Buono Esplorazione grafica di dati multivariati N. Del Buono Scatterplot Scatterplot permette di individuare graficamente le possibili associazioni tra due variabili Variabile descrittiva (explanatory variable)

Dettagli

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019 DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019 Nome: Cognome: Matricola: Riga: Colonna:

Dettagli

62 CAPITOLO 3. STATISTICA DESCRITTIVA

62 CAPITOLO 3. STATISTICA DESCRITTIVA 62 CAPITOLO 3. STATISTICA DESCRITTIVA Raccogliamo su una popolazione di n individui i dati relativi a m caratteri (variabili) e riportiamoli in una matrice, dove le righe (n) sono relative ad individui

Dettagli

Algoritmi di classificazione supervisionati

Algoritmi di classificazione supervisionati Corso di Bioinformatica Algoritmi di classificazione supervisionati Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di apprendimento supervisionato per problemi di biologia computazionale

Dettagli

Formulazioni. Consideriamo il seguente problema di Knapsack 0-1. max (5x x 2. ) st 3x x 2. < 6 x {0,1} 2

Formulazioni. Consideriamo il seguente problema di Knapsack 0-1. max (5x x 2. ) st 3x x 2. < 6 x {0,1} 2 Formulazioni Consideriamo il seguente problema di Knapsack 0-1 max (5x 1 + 2x 2 ) st 3x 1 + 4x 2 < 6 x {0,1} 2 Insiemi ammissibili F = {(0, 0), (0, 1), (1, 0)} Rappresentiamo sul piano gli insiemi ammissibili.

Dettagli

Clustering con Weka. L interfaccia. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna. Algoritmo utilizzato per il clustering

Clustering con Weka. L interfaccia. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna. Algoritmo utilizzato per il clustering Clustering con Weka Testo degli esercizi Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna L interfaccia Algoritmo utilizzato per il clustering E possibile escludere un sottoinsieme

Dettagli

Clustering con Weka Testo degli esercizi. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna

Clustering con Weka Testo degli esercizi. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Clustering con Weka Testo degli esercizi Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna L interfaccia Algoritmo utilizzato per il clustering E possibile escludere un sottoinsieme

Dettagli

Compito di MD 1 0 aprile 2014

Compito di MD 1 0 aprile 2014 Compito di MD aprile 24 IMPORTANTE: Non si possono consultare libri e appunti. Non si possono usare calcolatrici, computer o altri dispositivi elettronici. Non si può scrivere con il lapis. Motivare in

Dettagli

0.1 Spazi Euclidei in generale

0.1 Spazi Euclidei in generale 0.1. SPAZI EUCLIDEI IN GENERALE 1 0.1 Spazi Euclidei in generale Sia V uno spazio vettoriale definito su R. Diremo, estendendo una definizione data in precedenza, che V è uno spazio vettoriale euclideo

Dettagli

Data Journalism. Analisi dei dati. Angelica Lo Duca

Data Journalism. Analisi dei dati. Angelica Lo Duca Data Journalism Analisi dei dati Angelica Lo Duca angelica.loduca@iit.cnr.it Obiettivo L obiettivo dell analisi dei dati consiste nello scoprire trend, pattern e relazioni nascosti nei dati. di analisi

Dettagli

3. Elementi di Algebra Lineare.

3. Elementi di Algebra Lineare. CALCOLO NUMERICO Francesca Mazzia Dipartimento Interuniversitario di Matematica Università di Bari 3. Elementi di Algebra Lineare. 1 Sistemi lineari Sia A IR m n, x IR n di n Ax = b è un vettore di m componenti.

Dettagli

Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2017/2018. Giovanni Lafratta

Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2017/2018. Giovanni Lafratta Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2017/2018 Giovanni Lafratta ii Indice 1 Spazi, Disegni e Strategie Campionarie 1 2 Campionamento casuale

Dettagli

Problemi di localizzazione di servizi (Facility Location Problems)

Problemi di localizzazione di servizi (Facility Location Problems) 9. Problemi di Localizzazione di Servizi 1 Problemi di localizzazione di servizi (Facility Location Problems) Dato un insieme di clienti richiedenti una data domanda di merce e dato un insieme di possibili

Dettagli

Soluzione. (a) L insieme F 1 e linearmente indipendente; gli insiemi F 2 ed F 3 sono linearmente

Soluzione. (a) L insieme F 1 e linearmente indipendente; gli insiemi F 2 ed F 3 sono linearmente 1. Insiemi di generatori, lineare indipendenza, basi, dimensione. Consideriamo nello spazio vettoriale R 3 i seguenti vettori: v 1 = (0, 1, ), v = (1, 1, 1), v 3 = (, 1, 0), v 4 = (3, 3, ). Siano poi F

Dettagli

Esercizio: apprendimento di congiunzioni di letterali

Esercizio: apprendimento di congiunzioni di letterali input: insieme di apprendimento istemi di Elaborazione dell Informazione 18 Esercizio: apprendimento di congiunzioni di letterali Algoritmo Find-S /* trova l ipotesi più specifica consistente con l insieme

Dettagli

Metodi di Iterazione Funzionale

Metodi di Iterazione Funzionale Appunti di Matematica Computazionale Lezione Metodi di Iterazione Funzionale Il problema di calcolare il valore per cui F() = si può sempre trasformare in quello di trovare il punto fisso di una funzione

Dettagli

CALCOLO NUMERICO Laurea di base in Ingegneria Elettronica ed Ing. delle Comunicazioni

CALCOLO NUMERICO Laurea di base in Ingegneria Elettronica ed Ing. delle Comunicazioni CALCOLO NUMERICO Laurea di base in Ingegneria Elettronica ed Ing. delle Comunicazioni Prof.ssa Laura Pezza (A.A. 2018-2019) XV Lezione del 02.04.2019 http://www.dmmm.uniroma1.it/ laura.pezza 1 Data A R

Dettagli

Reti Neurali in Generale

Reti Neurali in Generale istemi di Elaborazione dell Informazione 76 Reti Neurali in Generale Le Reti Neurali Artificiali sono studiate sotto molti punti di vista. In particolare, contributi alla ricerca in questo campo provengono

Dettagli

Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità

Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità Intelligenza Artificiale Soft Computing: Reti Neurali Generalità Neurone Artificiale Costituito da due stadi in cascata: sommatore lineare (produce il cosiddetto net input) net = S j w j i j w j è il peso

Dettagli

MIGLIOR APPROSSIMAZIONE IN SPAZI EUCLIDEI

MIGLIOR APPROSSIMAZIONE IN SPAZI EUCLIDEI MIGLIOR APPROSSIMAZIONE IN SPAZI EUCLIDEI A. SOMMARIVA Conoscenze richieste. Spazio vettoriale. Spazio normato. Vettori linearmente indipendenti. Sistemi lineari. Operatore delta di Kronecker. Conoscenze

Dettagli

0.1 Coordinate in uno spazio vettoriale

0.1 Coordinate in uno spazio vettoriale 0.. COORDINATE IN UNO SPAZIO VETTORIALE 0. Coordinate in uno spazio vettoriale Sia V uno spazio vettoriale di dimensione finita n costruito sul campo K. D ora in poi, ogni volta che sia fissata una base

Dettagli

Analisi Fattoriale Concetti introduttivi Marcello Gallucci Milano-Bicocca

Analisi Fattoriale Concetti introduttivi Marcello Gallucci Milano-Bicocca Analisi Fattoriale Concetti introduttivi A M D Marcello Gallucci Milano-Bicocca Scopi generali L Analisi Fattoriale (e varianti) si propone di estrarre un numero limitato di fattori (variabili latenti

Dettagli

Preparazione orale analisi numerica:

Preparazione orale analisi numerica: Preparazione orale analisi numerica: CAPITOLO Errori (1): Ricavare il coefficiente di amplificazione: Sviluppare la serie di Taylor su di centro CAPITOLO Gerschgorin (4): Primo teorema di Gershgorin (Massimizzare

Dettagli

Statistica per l Impresa

Statistica per l Impresa Statistica per l Impresa a.a. 207/208 Tecniche di Analisi Multidimensionale Analisi dei Gruppi 2 maggio 208 Indice Analisi dei Gruppi: Introduzione Misure di distanza e indici di similarità 3. Metodi gerarchici

Dettagli

1) Data la seguente istanza di TSP (grafo completo con 5 nodi): c 12 = 52; c 13 = 51; c 14 = 40; c 15 = 53; c 23 = 44;

1) Data la seguente istanza di TSP (grafo completo con 5 nodi): c 12 = 52; c 13 = 51; c 14 = 40; c 15 = 53; c 23 = 44; 1) Data la seguente istanza di TSP (grafo completo con 5 nodi): c 12 = 52; c 13 = 51; c 14 = 40; c 15 = 53; c 23 = 44; c 24 = 15; c 25 = 12; c 34 = 32; c 35 = 55; c 45 = 24 Si calcoli l ottimo duale (formulazione

Dettagli

La miglior approssimazione esiste se le funzioni descrivono un chiuso

La miglior approssimazione esiste se le funzioni descrivono un chiuso NON SMOOTH Funzione non C 1 tipico esempio massimo numero finito funzioni Φ(x) = max { f i (x), i I, f i C 1 } e anche massimo(sup) puntuale Φ(x) = sup { f t (x), t I, f t C 1 } Esempi a) Max numero finito

Dettagli

Capitolo 8 Forme quadratiche e loro applicazioni Esercizi svolti Tutorato di geometria e algebra lineare. Marco Robutti

Capitolo 8 Forme quadratiche e loro applicazioni Esercizi svolti Tutorato di geometria e algebra lineare. Marco Robutti Capitolo 8 Forme quadratiche e loro applicazioni Esercizi svolti Tutorato di geometria e algebra lineare Marco Robutti 5 Ottobre 2017 1 Introduzione Gli esercizi di questo capitolo riguardano i seguenti

Dettagli

QUANTIZZATORE VETTORIALE

QUANTIZZATORE VETTORIALE QUANTIZZATORE VETTORIALE Introduzione Nel campo delle reti neurali, la scelta del numero di nodi nascosti da usare per un determinato compito non è sempre semplice. Per tale scelta potrebbe venirci in

Dettagli

Stima dei Redshift Fotometrici tramite il network SOM + K-NN

Stima dei Redshift Fotometrici tramite il network SOM + K-NN Stima dei Redshift Fotometrici tramite il network + K-NN Università di Napoli Federico II December 21, 2016 Corso Astroinformatica Federico II Napoli Overview 1 Introduzione Obiettivo Scientifico PhotoZ

Dettagli

CALCOLO NUMERICO. Francesca Mazzia. Calcolo degli autovalori. Dipartimento Interuniversitario di Matematica. Università di Bari

CALCOLO NUMERICO. Francesca Mazzia. Calcolo degli autovalori. Dipartimento Interuniversitario di Matematica. Università di Bari CALCOLO NUMERICO Francesca Mazzia Dipartimento Interuniversitario di Matematica Università di Bari Calcolo degli autovalori 1 Calcolo degli autovalori Gli autovalore e gli autovettore di una matrice quadrata

Dettagli

Metodi iterativi per sistemi lineari

Metodi iterativi per sistemi lineari Generare una successione di vettori Metodi iterativi per sistemi lineari convergente alla soluzione del sistema Convergenza in norma Costruzione di un metodo iterativo Per una qualche norma vettoriale

Dettagli

3 Ricerca per Giochi e CSP

3 Ricerca per Giochi e CSP Esercizio 3.1 Dire quale tecnica usereste per risolvere i seguenti giochi: 1. Backgammon 2. Scarabeo 3. Scacchi 4. Go 5. Monpoli 6. Poker Motivate le risposte con adeguate ragioni basate sulle caratteristiche

Dettagli

11 Piccole oscillazioni attorno a posizioni stabili

11 Piccole oscillazioni attorno a posizioni stabili 11 Piccole oscillazioni attorno a posizioni stabili Consideriamo un sistema con l gradi di libertà descrivibile mediante le coordinate lagrangiane (q 1,..., q l ). Supponiamo che i vincoli siano lisci

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 7 Riduzione features Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr

Dettagli

Corso di Matematica per la Chimica

Corso di Matematica per la Chimica Dott.ssa Maria Carmela De Bonis a.a. 2013-14 Risoluzione di Equazioni Algebriche Le equazioni algebriche sono equazioni del tipo P(x) = 0 dove P è un polinomio di grado n cioé P(x) = a 1 x n + a 2 x n

Dettagli

Computazione per l interazione naturale: Modelli dinamici

Computazione per l interazione naturale: Modelli dinamici Computazione per l interazione naturale: Modelli dinamici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

1. Si scriva una function Matlab che implementa il seguente metodo di punto fisso

1. Si scriva una function Matlab che implementa il seguente metodo di punto fisso Domanda 1 1. Si scriva una function Matlab che implementa il seguente metodo di punto fisso x n+1 = x n f(x n), n = 0, 1, 2,... K dove x 0 è il punto iniziale, f(x) = x 3 cos(x) e K è una costante assegnata.

Dettagli

LEZIONE ICO

LEZIONE ICO LEZIONE ICO 9-10-2009 Argomento. Rassegna dei metodi numerici utilizzabili per la soluzione di problemi di ottimizzazione statica. Metodi del gradiente e di Newton e loro derivati. Metodi di penalita e

Dettagli

Ottimizzazione numerica

Ottimizzazione numerica Funzioni univariate 28 Ottobre 2010 Funzioni univariate Outline 1 Funzioni univariate 2 optim Funzioni univariate I metodi di ottimizzazione consentono di trovare i punti estremanti (massimi, minimi) di

Dettagli

Il Modello della Analisi Fattoriale Esplorativa e i Metodi di Classificazione Automatica (Analisi di Raggruppamento)

Il Modello della Analisi Fattoriale Esplorativa e i Metodi di Classificazione Automatica (Analisi di Raggruppamento) Il Modello della Analisi Fattoriale Esplorativa e i Metodi di Classificazione Automatica (Analisi di Raggruppamento) Se all interno di un insieme di informazioni articolato in una matrice di dati X si

Dettagli

Miglior approssimazione in spazi euclidei

Miglior approssimazione in spazi euclidei Miglior approssimazione in spazi euclidei 15 gennaio 2009 1 Introduzione astratta Sia E uno spazio vettoriale dotato di un prodotto interno (, ) (talvolta un tale spazio è detto euclideo, cf. [7, p.148]),

Dettagli

Esercitazione di Calcolo Numerico 1 27 Maggio Calcolare la fattorizzazione P A = LU della matrice A =

Esercitazione di Calcolo Numerico 1 27 Maggio Calcolare la fattorizzazione P A = LU della matrice A = Esercitazione di Calcolo Numerico 1 27 Maggio 29 1. Calcolare la fattorizzazione P A = LU della matrice 1 2 3 A = 2 3 3, ed utilizzarla per risolvere il sistema lineare Ax = b, con b = (1, 2,, 16) T. 2.

Dettagli

Metodi iterativi SISTEMI LINEARI. Metodi Iterativi. Metodo di rilassamento successivo e metodi del gradiente

Metodi iterativi SISTEMI LINEARI. Metodi Iterativi. Metodo di rilassamento successivo e metodi del gradiente Metodi iterativi Metodo di rilassamento successivo e metodi del gradiente Metodi iterativi Metodi iterativi 1 Il metodo di rilassamento successivo Condizioni per la convergenza 2 Metodi del Metodo della

Dettagli

Metodi di identificazione

Metodi di identificazione Metodi di identificazione Metodo di identificazione LS per sistemi ARX Sia yt un processo ARX generico con parametri ignoti: S: yt= B z A z ut 1 1 A z et ota: scegliere ut 1 è la scelta più generica possibile,

Dettagli

Problema. Equazioni non lineari. Metodo grafico. Teorema. Cercare la soluzione di

Problema. Equazioni non lineari. Metodo grafico. Teorema. Cercare la soluzione di Problema Cercare la soluzione di Equazioni non lineari dove Se è soluzione dell equazione, cioè allora si dice RADICE o ZERO della funzione Metodo grafico Graficamente si tratta di individuare l intersezione

Dettagli

Il Teorema del limite Centrale (TLC)

Il Teorema del limite Centrale (TLC) (TLC) Teorema. Sia X 1,..., X n un campione i.i.d. per una v.a. X, avente E(X ) = µ e Var(X ) = σ 2 entrambi finiti. Allora Z n = X µ σ 2 n n Y N(0, 1) Si noti che nel calcolare Z n ho standardizzato X.

Dettagli

UTILIZZO DELL ANALISI DELLE COMPONENTI PRINCIPALI (PCA) DI DATI HVSR FINALIZZATO ALLA ZONAZIONE SISMICA

UTILIZZO DELL ANALISI DELLE COMPONENTI PRINCIPALI (PCA) DI DATI HVSR FINALIZZATO ALLA ZONAZIONE SISMICA UTILIZZO DELL ANALISI DELLE COMPONENTI PRINCIPALI (PCA) DI DATI HVSR FINALIZZATO ALLA ZONAZIONE SISMICA Terremoto de L Aquila, 2009 Gallipoli et al., 2011 Lo scopo di questo lavoro è quello di indagare

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html

Dettagli

Introduzione all analisi di arrays: clustering.

Introduzione all analisi di arrays: clustering. Statistica per la Ricerca Sperimentale Introduzione all analisi di arrays: clustering. Lezione 2-14 Marzo 2006 Stefano Moretti Dipartimento di Matematica, Università di Genova e Unità di Epidemiologia

Dettagli

Parte IV: Matrici totalmente unimodulari

Parte IV: Matrici totalmente unimodulari Parte IV: Matrici totalmente unimodulari Formulazioni Consideriamo il seguente problema di Knapsack 0-1 max (5x 1 + 2x 2 ) st 3x 1 + 4x 2 < 6 x {0,1} 2 Insiemi ammissibili F = {(0, 0), (0, 1), (1, 0)}

Dettagli

ESAME di OTTIMIZZAZIONE Corso di Laurea Magistrale in Ingegneria Gestionale 1 o anno

ESAME di OTTIMIZZAZIONE Corso di Laurea Magistrale in Ingegneria Gestionale 1 o anno SIMULAZIONE ESAME di OTTIMIZZAZIONE 27 Gennaio 21 ESAME di OTTIMIZZAZIONE Corso di Laurea Magistrale in Ingegneria Gestionale 1 o anno Cognome : Nome : Esercizio 1. Si consideri il seguente problema: min

Dettagli