Unsupervised Learning
|
|
- Cecilia Elia
- 5 anni fa
- Visualizzazioni
Transcript
1 Unsupervised Learning Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò 21/05/2018
2 Unsupervised Learning Unsupervised learning Clustering Dimensionality reduction Data visualization
3 Unsupervised Learning Voglio modellizzare la distribuzione degli input Dati: un training set composto da soli input D = {x} (vettori), solitamente in numero molto elevato Trovare: un modo efficace per descrivere i dati in maniera concisa (ridurre le dimensioni) Clustering: ridurre il numero dei dati significativi Dimensionality reduction: ridurre il numero di dimensioni dei vettori di input Data visualization: proporre una visualizzazione dei dati che mantegna le posizione relative tra i dati
4 Quando usare tecniche di Unsupervised Learning Abbiamo a disposizione un set di dati molto grande Non riusciamo a gestirli tutti per prendere decisioni Vogliamo avere un modo di analizzare visivamente i dati Soluzione: riduciamone il numero Riduciamo il numero di sample (clustering) Riduciamo la dimensionalità di ognuno dei dati (dimensionality reduction)
5 Clustering Voglio estrarre dal dataset un sottoinsieme di sample che siano rappresentativi dell intero dataset Divido il dataset in sottonsiemi simili di sample Domande: Come valuto se due sample sono simili tra loro? Come valuto il risultato ottenuto? (non esiste una risposta condivisa)
6 K-means clustering Idea: uso un vettore media come rappresentativo di ogni cluster Necessito di vettori numerici (posso calcolare la distanza tra due di essi) Scelgo un numero di cluster (gruppi) K e minimizzo: Appartenenza del sample n al cluster k Rappresentante del cluster k (media) Nota: ho scelto la distanza euclidea tra due vettori
7 Algoritmo K-means Una procedura analitica per la minimizzazione non esiste Procedura iterativa: Parto con dei rappresentanti μ k 0 scelti a caso Ripeto fino a convergenza (nessun punto si sposta più) Assegno ogni sample x n ad un cluster Calcolo i nuovi rappresentanti μ k i come media dei sample appartenenti al cluster Poiché la procedura diminuisce il valore della funzione obbiettivo J ad ogni iterazione, la procedura converge Potrebbe convergere ad un minimo locale
8 Più in dettaglio Ogni sample viene assegnato ad un cluster se Dopodichè posso minimizzare la funzione di costo J, ponendo la sua derivata a zero Per questo stiamo non aumentando il valore della funzione obbiettivo ad ogni passo
9 Esempio di K-means
10 K-means per compressione di Immagini
11 Domande sul K-means È effettivamente un algoritmo efficiente? Possiamo pensare ad una preocedura che arrivi al minimo globale? Come definisco i suoi parametri? Come setto il valore K?
12 Potremmo fare di meglio Soluzione Brute Force: si potrebbe valutare tutti i possibili assegnamenti di K cluster e trovare la configurazione che minimizzi la funzione obbiettivo J Purtroppo richiederebbe K N possibili configurazioni L algoritmo K-means invece richiede solo KNi operazioni, dove i è il numero di iterazioni richieste per la convergenza
13 Come scegliere K Non esiste un valore corretto per il parametro K A volte il valore viene richiesto dall applicazione Valuto il risultato del clustering con differnti valori di K Se volessi valutare l algoritmo con tutti i possibili valori di K, l algoritmo scalerebbe come N 2, il che lo rende in pratica non applicabile
14 Problemi del K-means Utilizzando come misura di dissimilarità la distanza euclidea: Non è robusto agli outliers Non possiamo applicarlo a dati categorici (non esistono i rappresentanti medi) Potenziali soluzioni: Per quanto riguarda gli outliers, possiamo utilizzare altre misure di dissimilarità, ad esempio la distanza manhattan o di Mahalanobis Possiamo definire il rappresentante del cluster come quel sample che ha minore dissimilarità da tutti gli altri (K-medoids), l algoritmo risulta anche più robusto al rumore statistico e agli outliers
15 Altri problemi Il K-means assume che i cluster abbiano una forma ben precisa perchè funzioni adeguatamente I cluster devono essere sferici essere ben separati avere lo stesso volume avere lo stesso numero di punti
16 Esempi di clustering finito male
17 Ulteriori soluzioni Esistono altri metodi di clustering X-means: decide in maniera automatica il numero dei cluster Mixture models: approssimano i dati come una mistura (combinazione convessa) di distribuzioni DB-scan: considera l esistenza di alcuni punti non assegnati ad alcun cluster. Non richiede di specificare il numero di cluster Clustering gerarchico: raggruppa per primi i punti più vicin tra di loro, dopodichè continua fino a creare gruppi con distanza sempre più alta tra i punti Affinity propagation: basato sul concetto di message passing. Non richiede di specificare il numero di cluster Clustering spettrale: utilizzano degli indici calcolati sulla matrice di dissimilarità tra i sample
18 Esecuzione di DBScan
19 Clustering gerarchico
20 Dimensionality reduction Vogliamo trovare una buona approssimazione del dataset che non abbia una dimensionalità troppo elevata (sia per questioni di spazio che per questioni di informazione) Solitamente viene utilizzato per apprendre un modello di feature trasformate e poi viene utilizzato per fare apprendimento sui nuovi dati trasformati Per come è formulato esso si presenta come un problema non supervisionato Alcune delle tecniche sono: PCA: principal component analysis ICA: independent component analysis SOM: self-organizing maps (le vedremo più avanti)
21 Rispetto ad altri metodi Dato un dataset di N sample ognuno di dimensione M Clustering: diminuisco le dimensioni del dataset, scegliendo solo dei rappresentanti di ogni cluster (diminuisco N) Feature selection: diminuisco le feature a disposizione scartando quelle inutili (diminuisco M escludendo alcune feature) Dimensionality reduction: diminuisco le feature a disposizione creando un numero minore di nuove feature (diminuisco M generando k nuove feature)
22 Principal Component analysis Idea: vogliamo proiettare il nostro dataset nella direzione dove c è più varianza dei dati
23 Algoritmo Concettuale Cerchiamo una direzione in cui ci sia la maggiore varianza (first principal component) Dopodichè cerchiamo una seconda dimensione, ortogonale alla prima che abbia la massima varianza (second principal component) Itero fino alla dimensione M In due dimensioni scelta la prima ho che la seconda componente è fissata
24 Algoritmo Calcolo la media dei dati Calcolo la matrice di covarianza L autovettore e 1 corrispondente all autovalore più grande λ 1 è la direzione della prima componente principale L autovettore e 2 corrispondente al secondo autovalore più grande λ 2 è la direzione della seconda componente principale...
25 Scelta delle Componenti principali A questo punto ho una nuova base ortonormale per lo spazio delle feature Se scelgo solo le prime k componenti principali, ho una rappresentazione dei dati in uno spazio a dimensionalità più bassa Perdo in informazione, nello specifico con k componenti principali riesco k λ i a spiegare σ i=1 della varianza totale del fenomeno M λ i σ i=1 Proiettando nel vecchio spazio i nuovi sample ho dei vettori che ricostruiscono il dataset originale (con qualche grado di errore)
26 Pro e Contro Pro: Aiuta a ridurre la complessità computazionale riducendo le feature Può essere di supporto a metodi di supervised learning Solitamente le ultime componenti principali contengono solo rumore, quindi riesco a rimuoverlo facilmente Contro: Se ho molti cluster di dati potrei peggiorare la situazione Le proiezioni che considero sono su dei manifold lineari dello spazio originario dei dati
27 Simpson s Paradox
28 Formulazione della PCA come problema di minimizzazione Consideriamo una base ortonormale {u i } tale che u i T i j = δ ij (uno solo se gli indici sono uguali) Posso riscrivere Per avere una rappresentazione più concisa decompongo ogni vettore come Coefficienti dipendenti dal sample Coefficienti caratteristici del dataset
29 Un approssimazione M dimensionale Considero come errore di ricostruzione Derivando rispetto ai coefficienti z ni e successivamente rispetto ai coefficienti b i ho con un errore sul singolo vettore di L errore è interamente contenuto nello spazio ortogonale alle prime M dimensioni
30 Minimizzo la distorsione La funzione distorsione diventa A questo punto dobbiamo minimizzare J rispetto alla base u i Ad esempio volessimo trovare una soluzione M = 1 dimensionale ad un problema 2D dovremmo minimizzare Il lagrangiano è s.t.
31 Scopi della PCA Dimensionality reduction: tengo una percentuale di dimensioni per poter poi utilizzare i dati per fare apprendimento Data visualization: proietto i dati in uno spazio 2D o 3D così li posso visualizzare ed analizzare più facilmente Compressione: trovo un approssimazione dei dati originali che perda il minimo in termini distorsione
32 Scelta delle componenti principali Scegliere un numero di dimensioni troppo piccolo (k 3) potrebbe generare dei dati molto differenti da quelli originali Una buona regola è quella tenere una percentuale fissata della varianza totale (90%-99%) oppure di identificare un gomito nella curva della varianza cumulata
33 Independent Component Analysis Applicazione tipica: cocktail party problem Cerco di estrarre delle componenti che siano il più indipendenti tra di loro Posso estrarre un numero di componenti a mia scelta a patto che siano minori o uguali al numero delle osservazioni
34 Data visualization La PCA può essere usata per visualizzare un dataset (scelgo k = 2 o k = 3) Gli obbiettivi di un algoritmo di visualizzazione dei dati sono: Proiettare i punti in un piano Punti vincini nello spazio proiettato devono essere vicini in quello di partenza Punti lontani nello spazio proiettato devono essere lontani nello spazio di partenza Esiste la possibilità che non vengano specificati i punti di partenza ma solo le distanze tra coppie di punti
35 Metodi specifici Esistono dei metodi che sono specificatamente pensati per visualizzare i dati ad alta dimensionalità Multi Dimensional Scaling (Torgerson Scaling) Metric MDS Sammon mapping Non-metric MDS
36 MDS Supponiamo di avere vettori x a media nulla Per calcolare le componenti principali abbiamo bisogno della matrice di covarianza C = 1 n XT X che è un prodotto interno, quindi C è una Gram matrix La prima componente principale è l autovettore corrispondente al primo autovalore di C Se riusciamo allora a creare una Gram matrix dalle distanze allora possiamo estrarre le componenti principali
37 Algoritmo del MDS Per calcolare le componenti principali devo fare Data una matrice di distanze D = {d ij } Applicare il double centering B = 1 JDJ dove J = I n 1T Calcolare la gli autovettori e i e gli autovalori λ i della matrice B I dati sono ricostruibili come X = E Λ 1 2 La soluzione trova dei punti che hanno esattamente la distanza di partenza Il processo precendente assume che le distanze tra punti siano euclidee Esiste una generalizzazione di MDS che considera anche metriche non euclidee
38 Metric MDS Considero una funzione di stress che, date delle posizioni dei punti p i in uno spazio scelto, mi dice quanto sono vicino alle distanze iniziali Posso minimizzare lo stress n S 2 = i,j,i j ad esempio, facendo gradient descend d ij p i p j 2 Posso inizializzare i punti con la soluzione del MDS classico e poi iterativamente minimizzare lo stress Allontano due punti se d ij < p i p j e li avvicino se d ij > p i p j
39 Shepard plot Idealmente dovremmo avrere i punti ottenuti tutti sulla diagonale
40 Sammon s mapping Possiamo utilizzare anche altre funzioni di stress, ad esempio che pesano differentemente i punti a seconda che siano vicini o lontani n S 2 = i,j,i j d ij p i p j d ij 2 Se due punti erano vicini nel dataset iniziale, probabilmente lo saranno anche nel dataset proiettato Non mi curo troppo dei punti la cui distanza è grande
41 Dataset problematico: Swiss Roll
42 Criticità degli algoritmi PCA Analizza solo dei manifold lineari nello spazio delle feature MDS / Sammon Considera tutte le distanze tra punti, anche quelle molto distanti Dovremo quindi ridefinire il concetto di distanza oppure focalizzarci solo su di un intorno del punto considerato
43 ISOMAP Creo un grafo dei punti, ogni nodo è un punto e solo i k punti più vicini sono connessi Gli archi hanno peso pari alla distanza tra i due punti La nuova distanza è quella data dal percorrere lo shortest path tra due punti Applico MDS su questa nuova matrice Questo riesce a raddrizzare la curvatura del manifold Purtroppo anche un solo arco di differenza (ad esempio tra due livelli dello swiss roll) può portare ad una soluzione molto differente
44 Altri metodi Self Organizing Maps (SOM) Local Linear Embeddings (LLE) Hessian LLE Laplacian Eigenmaps
Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità)
Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliKernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò
Kernel Methods Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 14/05/2018 Kernel Methods Definizione di Kernel Costruzione di Kernel Support Vector Machines Problema primale e duale
DettagliConstraint Satisfaction Problems
Constraint Satisfaction Problems Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 19/03/2018 Constraint Satisfaction problem Fino ad ora ogni stato è stato modellizzato come una
DettagliRiduzione di dimensionalità
Riduzione di dimensionalità SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliUniversità degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) Secondo Parziale - 11 Giugno 2018
DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) Secondo Parziale - 11 Giugno 2018 Nome: Cognome: Matricola:
DettagliMisura della performance di ciascun modello: tasso di errore sul test set
Confronto fra modelli di apprendimento supervisionato Dati due modelli supervisionati M 1 e M costruiti con lo stesso training set Misura della performance di ciascun modello: tasso di errore sul test
DettagliComputazione per l interazione naturale: clustering e riduzione di dimensionalità
Computazione per l interazione naturale: clustering e riduzione di dimensionalità Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliRegressione Lineare. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò
Regressione Lineare Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 23/04/2018 Regressione Lineare Supervised Learning Supervised Learning: recap È il sottocampo del ML più vasto
DettagliRiconoscimento automatico di oggetti (Pattern Recognition)
Riconoscimento automatico di oggetti (Pattern Recognition) Scopo: definire un sistema per riconoscere automaticamente un oggetto data la descrizione di un oggetto che può appartenere ad una tra N classi
DettagliRiconoscimento e recupero dell informazione per bioinformatica
Riconoscimento e recupero dell informazione per bioinformatica Clustering: metodologie Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario Tassonomia
DettagliIntelligenza Artificiale. Clustering. Francesco Uliana. 14 gennaio 2011
Intelligenza Artificiale Clustering Francesco Uliana 14 gennaio 2011 Definizione Il Clustering o analisi dei cluster (dal termine inglese cluster analysis) è un insieme di tecniche di analisi multivariata
DettagliRisoluzione di sistemi lineari sparsi e di grandi dimensioni
Risoluzione di sistemi lineari sparsi e di grandi dimensioni Un sistema lineare Ax = b con A R n n, b R n, è sparso quando il numero di elementi della matrice A diversi da zero è αn, con n α. Una caratteristica
DettagliApprendimento Automatico (Feature Selection e Kernel Learning)
Apprendimento Automatico (Feature Selection e Kernel Learning) Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Servono tutti gli attributi? Gli
DettagliRicerca di outlier. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna
Ricerca di outlier Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Ricerca di Anomalie/Outlier Cosa sono gli outlier? L insieme di dati che sono considerevolmente differenti dalla
DettagliComputazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning)
Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliMetodi per la riduzione della dimensionalità. Strumenti quantitativi per la gestione
Metodi per la riduzione della dimensionalità Strumenti quantitativi per la gestione Emanuele Taufer file:///c:/users/emanuele.taufer/dropbox/3%20sqg/classes/6c_pca.html#(1) 1/25 Introduzione Gli approcci
DettagliUso dell algoritmo di Quantizzazione Vettoriale per la determinazione del numero di nodi dello strato hidden in una rete neurale multilivello
Tesina di Intelligenza Artificiale Uso dell algoritmo di Quantizzazione Vettoriale per la determinazione del numero di nodi dello strato hidden in una rete neurale multilivello Roberto Fortino S228682
DettagliATTENZIONE: : giustificate le vostre argomentazioni! Geometria Canale 3. Lettere J-PE (Prof P. Piazza) Esame scritto del 12/02/2014. Compito A.
Geometria Canale. Lettere J-PE (Prof P. Piazza) Esame scritto del 12/02/2014. Compito A. Nome e Cognome: Numero di Matricola: Esercizio Punti totali Punteggio 1 7 2 6 6 4 6+1 5 6+2 Totale 1+ ATTENZIONE:
DettagliSequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:
Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza
DettagliSistemi di Elaborazione dell Informazione 170. Caso Non Separabile
Sistemi di Elaborazione dell Informazione 170 Caso Non Separabile La soluzione vista in precedenza per esempi non-linearmente separabili non garantisce usualmente buone prestazioni perchè un iperpiano
DettagliScheda n. 9: PCA - parte prima
Scheda n. 9: PCA - parte prima November 22, 2008 1 Introduzione Supponiamo di esaminare n variabili aleatorie (gaussiane -anche se questa richiesta non è necessaria-) X 1,..., X n. Un esempio possono essere
DettagliComputazione per l interazione naturale: macchine che apprendono
Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliApprendimento Automatico
Apprendimento Automatico Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Rappresentazione dei dati con i kernel Abbiamo una serie di oggetti S
DettagliUniversità degli Studi di Roma Tor Vergata
Funzioni kernel Note dal corso di Machine Learning Corso di Laurea Specialistica in Informatica a.a. 2010-2011 Prof. Giorgio Gambosi Università degli Studi di Roma Tor Vergata 2 Queste note derivano da
DettagliRiduzione Dimensionalità
Introduzione Definizioni PCA vs LDA Principal Component Analysis (PCA) Linear Discriminant Analysis (LDA) t-sne 1 Definizioni Obiettivo dei metodi per la riduzione di dimensionalità (dimensionality reduction)
DettagliCapitolo 3: Ottimizzazione non vincolata parte III. E. Amaldi DEI, Politecnico di Milano
Capitolo 3: Ottimizzazione non vincolata parte III E. Amaldi DEI, Politecnico di Milano 3.4 Metodi di ricerca unidimensionale In genere si cerca una soluzione approssimata α k di min g(α) = f(x k +αd k
DettagliComputazione per l interazione naturale: macchine che apprendono
Comput per l inter naturale: macchine che apprendono Corso di Inter uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it http://boccignone.di.unimi.it/ium2_2014.html
DettagliElementi di Algebra Lineare
Elementi di Algebra Lineare Corso di Calcolo Numerico, a.a. 2009/2010 Francesca Mazzia Dipartimento di Matematica Università di Bari 13 Marzo 2006 Francesca Mazzia (Univ. Bari) Elementi di Algebra Lineare
DettagliComputazione per l interazione naturale: processi gaussiani
Computazione per l interazione naturale: processi gaussiani Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliCenni sui metodi iterativi per sistemi lineari. Analisi Numerica Prof. M. Lucia Sampoli a.a. 2014/2015
Cenni sui metodi iterativi per sistemi lineari Analisi Numerica Prof. M. Lucia Sampoli a.a. 2014/2015 Metodi numerici per sistemi lineari Nei metodi diretti la presenza di eventuali elementi nulli nella
DettagliNeural Networks. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò
Neural Networks Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 28/05/2018 Neural Networks Struttura di una NN Backpropagation algorithm Altre strutture di rete Limiti dei sample-based
DettagliPossibile applicazione
p. 1/4 Assegnamento Siano dati due insiemi A e B entrambi di cardinalità n. Ad ogni coppia (a i,b j ) A B è associato un valore d ij 0 che misura la "incompatibilità" tra a i e b j, anche interpretabile
DettagliIdentificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale
Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale Il presente lavoro, facente segiuto a quanto scritto precedentemente ha il fine di descrivere il codice di calcolo
DettagliMetodi computazionali per i Minimi Quadrati
Metodi computazionali per i Minimi Quadrati Come introdotto in precedenza si considera la matrice. A causa di mal condizionamenti ed errori di inversione, si possono avere casi in cui il e quindi S sarebbe
DettagliMetodi di Ricerca Lineare
Metodi di Ricerca Lineare Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: stefano.gualandi@unipv.it @famo2spaghi http://stegua.github.com Metodi di Ottimizzazione
DettagliSequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:
Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza
DettagliMetodi e Modelli Matematici di Probabilità per la Gestione Prova scritta A 18/12/2009
Metodi e Modelli Matematici di Probabilità per la Gestione Prova scritta A 18/1/009 Esercizio 1. Un officina ha tre stazioni di lavoro uguali dove può essere effettuata la verniciatura, con un unica fila
DettagliComputazione per l interazione naturale: macchine che apprendono
Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliUniversità degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019
DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019 Nome: Cognome: Matricola: Riga: Colonna:
DettagliSistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese
Sistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese Università degli Studi di Milano Laboratory of Applied Intelligent Systems (AIS-Lab) Dipartimento di Informatica borghese@di.unimi.it
DettagliL A B C di R. Stefano Leonardi c Dipartimento di Scienze Ambientali Università di Parma Parma, 9 febbraio 2010
L A B C di R 0 20 40 60 80 100 2 3 4 5 6 7 8 Stefano Leonardi c Dipartimento di Scienze Ambientali Università di Parma Parma, 9 febbraio 2010 La scelta del test statistico giusto La scelta della analisi
DettagliIntroduzione all Intelligenza Artificiale
Introduzione all Intelligenza Artificiale Concetti base ed esempi di applicazione Prof. Francesco Trovò 12/05/2018 Chi sono Francesco Trovò Laureato @Polimi 2011 Laureato @Aalto 2011 Dottorato @Polimi
DettagliParte V: Rilassamento Lagrangiano
Parte V: Rilassamento Lagrangiano Tecnica Lagrangiana Consideriamo il seguente problema di Programmazione Lineare Intera: P 1 min c T x L I Ax > b Cx > d x > 0, intera in cui A = matrice m x n C = matrice
Dettagli(a) Si proponga una formulazione di programmazione nonlineare a variabili misto-intere per problema.
6. Clustering In molti campi applicativi si presenta il problema del data mining, che consiste nel suddividere un insieme di dati in gruppi e di assegnare un centro a ciascun gruppo. Ad esempio, in ambito
DettagliComplementi di Matematica e Calcolo Numerico A.A Laboratorio 6 Metodi iterativi per sistemi lineari
Complementi di Matematica e Calcolo Numerico A.A. 2017-2018 Laboratorio 6 Metodi iterativi per sistemi lineari Dati una matrice A R N N non singolare e un vettore b R N, un metodo iterativo per la risoluzione
DettagliDaniela Lera A.A
Daniela Lera Università degli Studi di Cagliari Dipartimento di Matematica e Informatica A.A. 2014-2015 Metodi per similitudine Matrici simili hanno gli stessi autovalori. Consideriamo trasformazioni per
DettagliEsplorazione grafica di dati multivariati. N. Del Buono
Esplorazione grafica di dati multivariati N. Del Buono Scatterplot Scatterplot permette di individuare graficamente le possibili associazioni tra due variabili Variabile descrittiva (explanatory variable)
DettagliUniversità degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019
DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019 Nome: Cognome: Matricola: Riga: Colonna:
Dettagli62 CAPITOLO 3. STATISTICA DESCRITTIVA
62 CAPITOLO 3. STATISTICA DESCRITTIVA Raccogliamo su una popolazione di n individui i dati relativi a m caratteri (variabili) e riportiamoli in una matrice, dove le righe (n) sono relative ad individui
DettagliAlgoritmi di classificazione supervisionati
Corso di Bioinformatica Algoritmi di classificazione supervisionati Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di apprendimento supervisionato per problemi di biologia computazionale
DettagliFormulazioni. Consideriamo il seguente problema di Knapsack 0-1. max (5x x 2. ) st 3x x 2. < 6 x {0,1} 2
Formulazioni Consideriamo il seguente problema di Knapsack 0-1 max (5x 1 + 2x 2 ) st 3x 1 + 4x 2 < 6 x {0,1} 2 Insiemi ammissibili F = {(0, 0), (0, 1), (1, 0)} Rappresentiamo sul piano gli insiemi ammissibili.
DettagliClustering con Weka. L interfaccia. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna. Algoritmo utilizzato per il clustering
Clustering con Weka Testo degli esercizi Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna L interfaccia Algoritmo utilizzato per il clustering E possibile escludere un sottoinsieme
DettagliClustering con Weka Testo degli esercizi. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna
Clustering con Weka Testo degli esercizi Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna L interfaccia Algoritmo utilizzato per il clustering E possibile escludere un sottoinsieme
DettagliCompito di MD 1 0 aprile 2014
Compito di MD aprile 24 IMPORTANTE: Non si possono consultare libri e appunti. Non si possono usare calcolatrici, computer o altri dispositivi elettronici. Non si può scrivere con il lapis. Motivare in
Dettagli0.1 Spazi Euclidei in generale
0.1. SPAZI EUCLIDEI IN GENERALE 1 0.1 Spazi Euclidei in generale Sia V uno spazio vettoriale definito su R. Diremo, estendendo una definizione data in precedenza, che V è uno spazio vettoriale euclideo
DettagliData Journalism. Analisi dei dati. Angelica Lo Duca
Data Journalism Analisi dei dati Angelica Lo Duca angelica.loduca@iit.cnr.it Obiettivo L obiettivo dell analisi dei dati consiste nello scoprire trend, pattern e relazioni nascosti nei dati. di analisi
Dettagli3. Elementi di Algebra Lineare.
CALCOLO NUMERICO Francesca Mazzia Dipartimento Interuniversitario di Matematica Università di Bari 3. Elementi di Algebra Lineare. 1 Sistemi lineari Sia A IR m n, x IR n di n Ax = b è un vettore di m componenti.
DettagliConcetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2017/2018. Giovanni Lafratta
Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2017/2018 Giovanni Lafratta ii Indice 1 Spazi, Disegni e Strategie Campionarie 1 2 Campionamento casuale
DettagliProblemi di localizzazione di servizi (Facility Location Problems)
9. Problemi di Localizzazione di Servizi 1 Problemi di localizzazione di servizi (Facility Location Problems) Dato un insieme di clienti richiedenti una data domanda di merce e dato un insieme di possibili
DettagliSoluzione. (a) L insieme F 1 e linearmente indipendente; gli insiemi F 2 ed F 3 sono linearmente
1. Insiemi di generatori, lineare indipendenza, basi, dimensione. Consideriamo nello spazio vettoriale R 3 i seguenti vettori: v 1 = (0, 1, ), v = (1, 1, 1), v 3 = (, 1, 0), v 4 = (3, 3, ). Siano poi F
DettagliEsercizio: apprendimento di congiunzioni di letterali
input: insieme di apprendimento istemi di Elaborazione dell Informazione 18 Esercizio: apprendimento di congiunzioni di letterali Algoritmo Find-S /* trova l ipotesi più specifica consistente con l insieme
DettagliMetodi di Iterazione Funzionale
Appunti di Matematica Computazionale Lezione Metodi di Iterazione Funzionale Il problema di calcolare il valore per cui F() = si può sempre trasformare in quello di trovare il punto fisso di una funzione
DettagliCALCOLO NUMERICO Laurea di base in Ingegneria Elettronica ed Ing. delle Comunicazioni
CALCOLO NUMERICO Laurea di base in Ingegneria Elettronica ed Ing. delle Comunicazioni Prof.ssa Laura Pezza (A.A. 2018-2019) XV Lezione del 02.04.2019 http://www.dmmm.uniroma1.it/ laura.pezza 1 Data A R
DettagliReti Neurali in Generale
istemi di Elaborazione dell Informazione 76 Reti Neurali in Generale Le Reti Neurali Artificiali sono studiate sotto molti punti di vista. In particolare, contributi alla ricerca in questo campo provengono
DettagliIntelligenza Artificiale. Soft Computing: Reti Neurali Generalità
Intelligenza Artificiale Soft Computing: Reti Neurali Generalità Neurone Artificiale Costituito da due stadi in cascata: sommatore lineare (produce il cosiddetto net input) net = S j w j i j w j è il peso
DettagliMIGLIOR APPROSSIMAZIONE IN SPAZI EUCLIDEI
MIGLIOR APPROSSIMAZIONE IN SPAZI EUCLIDEI A. SOMMARIVA Conoscenze richieste. Spazio vettoriale. Spazio normato. Vettori linearmente indipendenti. Sistemi lineari. Operatore delta di Kronecker. Conoscenze
Dettagli0.1 Coordinate in uno spazio vettoriale
0.. COORDINATE IN UNO SPAZIO VETTORIALE 0. Coordinate in uno spazio vettoriale Sia V uno spazio vettoriale di dimensione finita n costruito sul campo K. D ora in poi, ogni volta che sia fissata una base
DettagliAnalisi Fattoriale Concetti introduttivi Marcello Gallucci Milano-Bicocca
Analisi Fattoriale Concetti introduttivi A M D Marcello Gallucci Milano-Bicocca Scopi generali L Analisi Fattoriale (e varianti) si propone di estrarre un numero limitato di fattori (variabili latenti
DettagliPreparazione orale analisi numerica:
Preparazione orale analisi numerica: CAPITOLO Errori (1): Ricavare il coefficiente di amplificazione: Sviluppare la serie di Taylor su di centro CAPITOLO Gerschgorin (4): Primo teorema di Gershgorin (Massimizzare
DettagliStatistica per l Impresa
Statistica per l Impresa a.a. 207/208 Tecniche di Analisi Multidimensionale Analisi dei Gruppi 2 maggio 208 Indice Analisi dei Gruppi: Introduzione Misure di distanza e indici di similarità 3. Metodi gerarchici
Dettagli1) Data la seguente istanza di TSP (grafo completo con 5 nodi): c 12 = 52; c 13 = 51; c 14 = 40; c 15 = 53; c 23 = 44;
1) Data la seguente istanza di TSP (grafo completo con 5 nodi): c 12 = 52; c 13 = 51; c 14 = 40; c 15 = 53; c 23 = 44; c 24 = 15; c 25 = 12; c 34 = 32; c 35 = 55; c 45 = 24 Si calcoli l ottimo duale (formulazione
DettagliLa miglior approssimazione esiste se le funzioni descrivono un chiuso
NON SMOOTH Funzione non C 1 tipico esempio massimo numero finito funzioni Φ(x) = max { f i (x), i I, f i C 1 } e anche massimo(sup) puntuale Φ(x) = sup { f t (x), t I, f t C 1 } Esempi a) Max numero finito
DettagliCapitolo 8 Forme quadratiche e loro applicazioni Esercizi svolti Tutorato di geometria e algebra lineare. Marco Robutti
Capitolo 8 Forme quadratiche e loro applicazioni Esercizi svolti Tutorato di geometria e algebra lineare Marco Robutti 5 Ottobre 2017 1 Introduzione Gli esercizi di questo capitolo riguardano i seguenti
DettagliQUANTIZZATORE VETTORIALE
QUANTIZZATORE VETTORIALE Introduzione Nel campo delle reti neurali, la scelta del numero di nodi nascosti da usare per un determinato compito non è sempre semplice. Per tale scelta potrebbe venirci in
DettagliStima dei Redshift Fotometrici tramite il network SOM + K-NN
Stima dei Redshift Fotometrici tramite il network + K-NN Università di Napoli Federico II December 21, 2016 Corso Astroinformatica Federico II Napoli Overview 1 Introduzione Obiettivo Scientifico PhotoZ
DettagliCALCOLO NUMERICO. Francesca Mazzia. Calcolo degli autovalori. Dipartimento Interuniversitario di Matematica. Università di Bari
CALCOLO NUMERICO Francesca Mazzia Dipartimento Interuniversitario di Matematica Università di Bari Calcolo degli autovalori 1 Calcolo degli autovalori Gli autovalore e gli autovettore di una matrice quadrata
DettagliMetodi iterativi per sistemi lineari
Generare una successione di vettori Metodi iterativi per sistemi lineari convergente alla soluzione del sistema Convergenza in norma Costruzione di un metodo iterativo Per una qualche norma vettoriale
Dettagli3 Ricerca per Giochi e CSP
Esercizio 3.1 Dire quale tecnica usereste per risolvere i seguenti giochi: 1. Backgammon 2. Scarabeo 3. Scacchi 4. Go 5. Monpoli 6. Poker Motivate le risposte con adeguate ragioni basate sulle caratteristiche
Dettagli11 Piccole oscillazioni attorno a posizioni stabili
11 Piccole oscillazioni attorno a posizioni stabili Consideriamo un sistema con l gradi di libertà descrivibile mediante le coordinate lagrangiane (q 1,..., q l ). Supponiamo che i vincoli siano lisci
DettagliTecniche di riconoscimento statistico
Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 7 Riduzione features Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr
DettagliCorso di Matematica per la Chimica
Dott.ssa Maria Carmela De Bonis a.a. 2013-14 Risoluzione di Equazioni Algebriche Le equazioni algebriche sono equazioni del tipo P(x) = 0 dove P è un polinomio di grado n cioé P(x) = a 1 x n + a 2 x n
DettagliComputazione per l interazione naturale: Modelli dinamici
Computazione per l interazione naturale: Modelli dinamici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
Dettagli1. Si scriva una function Matlab che implementa il seguente metodo di punto fisso
Domanda 1 1. Si scriva una function Matlab che implementa il seguente metodo di punto fisso x n+1 = x n f(x n), n = 0, 1, 2,... K dove x 0 è il punto iniziale, f(x) = x 3 cos(x) e K è una costante assegnata.
DettagliLEZIONE ICO
LEZIONE ICO 9-10-2009 Argomento. Rassegna dei metodi numerici utilizzabili per la soluzione di problemi di ottimizzazione statica. Metodi del gradiente e di Newton e loro derivati. Metodi di penalita e
DettagliOttimizzazione numerica
Funzioni univariate 28 Ottobre 2010 Funzioni univariate Outline 1 Funzioni univariate 2 optim Funzioni univariate I metodi di ottimizzazione consentono di trovare i punti estremanti (massimi, minimi) di
DettagliIl Modello della Analisi Fattoriale Esplorativa e i Metodi di Classificazione Automatica (Analisi di Raggruppamento)
Il Modello della Analisi Fattoriale Esplorativa e i Metodi di Classificazione Automatica (Analisi di Raggruppamento) Se all interno di un insieme di informazioni articolato in una matrice di dati X si
DettagliMiglior approssimazione in spazi euclidei
Miglior approssimazione in spazi euclidei 15 gennaio 2009 1 Introduzione astratta Sia E uno spazio vettoriale dotato di un prodotto interno (, ) (talvolta un tale spazio è detto euclideo, cf. [7, p.148]),
DettagliEsercitazione di Calcolo Numerico 1 27 Maggio Calcolare la fattorizzazione P A = LU della matrice A =
Esercitazione di Calcolo Numerico 1 27 Maggio 29 1. Calcolare la fattorizzazione P A = LU della matrice 1 2 3 A = 2 3 3, ed utilizzarla per risolvere il sistema lineare Ax = b, con b = (1, 2,, 16) T. 2.
DettagliMetodi iterativi SISTEMI LINEARI. Metodi Iterativi. Metodo di rilassamento successivo e metodi del gradiente
Metodi iterativi Metodo di rilassamento successivo e metodi del gradiente Metodi iterativi Metodi iterativi 1 Il metodo di rilassamento successivo Condizioni per la convergenza 2 Metodi del Metodo della
DettagliMetodi di identificazione
Metodi di identificazione Metodo di identificazione LS per sistemi ARX Sia yt un processo ARX generico con parametri ignoti: S: yt= B z A z ut 1 1 A z et ota: scegliere ut 1 è la scelta più generica possibile,
DettagliProblema. Equazioni non lineari. Metodo grafico. Teorema. Cercare la soluzione di
Problema Cercare la soluzione di Equazioni non lineari dove Se è soluzione dell equazione, cioè allora si dice RADICE o ZERO della funzione Metodo grafico Graficamente si tratta di individuare l intersezione
DettagliIl Teorema del limite Centrale (TLC)
(TLC) Teorema. Sia X 1,..., X n un campione i.i.d. per una v.a. X, avente E(X ) = µ e Var(X ) = σ 2 entrambi finiti. Allora Z n = X µ σ 2 n n Y N(0, 1) Si noti che nel calcolare Z n ho standardizzato X.
DettagliUTILIZZO DELL ANALISI DELLE COMPONENTI PRINCIPALI (PCA) DI DATI HVSR FINALIZZATO ALLA ZONAZIONE SISMICA
UTILIZZO DELL ANALISI DELLE COMPONENTI PRINCIPALI (PCA) DI DATI HVSR FINALIZZATO ALLA ZONAZIONE SISMICA Terremoto de L Aquila, 2009 Gallipoli et al., 2011 Lo scopo di questo lavoro è quello di indagare
DettagliComputazione per l interazione naturale: Regressione probabilistica
Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html
DettagliIntroduzione all analisi di arrays: clustering.
Statistica per la Ricerca Sperimentale Introduzione all analisi di arrays: clustering. Lezione 2-14 Marzo 2006 Stefano Moretti Dipartimento di Matematica, Università di Genova e Unità di Epidemiologia
DettagliParte IV: Matrici totalmente unimodulari
Parte IV: Matrici totalmente unimodulari Formulazioni Consideriamo il seguente problema di Knapsack 0-1 max (5x 1 + 2x 2 ) st 3x 1 + 4x 2 < 6 x {0,1} 2 Insiemi ammissibili F = {(0, 0), (0, 1), (1, 0)}
DettagliESAME di OTTIMIZZAZIONE Corso di Laurea Magistrale in Ingegneria Gestionale 1 o anno
SIMULAZIONE ESAME di OTTIMIZZAZIONE 27 Gennaio 21 ESAME di OTTIMIZZAZIONE Corso di Laurea Magistrale in Ingegneria Gestionale 1 o anno Cognome : Nome : Esercizio 1. Si consideri il seguente problema: min
Dettagli