Apprendimento Automatico

Documenti analoghi
Laboratorio di Apprendimento Automatico. Fabio Aiolli Università di Padova

Stima della qualità dei classificatori per l analisi dei dati biomolecolari

Laboratorio di Apprendimento Automatico. Fabio Aiolli Università di Padova

Valutazione delle Prestazioni di un Classificatore. Performance Evaluation

Classificazione bio-molecolare di tessuti e geni come problema di apprendimento automatico e validazione dei risultati

Apprendimento Automatico (Feature Selection e Kernel Learning)

Apprendimento basato sulle istanze

6. Partial Least Squares (PLS)

Riconoscimento e Recupero dell'informazione per Bioinformatica

Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione

Riconoscimento e recupero dell informazione per bioinformatica

Corso di Riconoscimento di Forme. Sommario: Matrice di confusione Cross validation Prestazioni nel KNN

Intelligenza Artificiale. Clustering. Francesco Uliana. 14 gennaio 2011

Progettazione di un Sistema di Machine Learning

Tipici tempi di esecuzione. Martedì 7 ottobre 2014

Quality-by-Design nello sviluppo e scaleup di processi di liofilizzazione di farmaci LYO. Research Team

Corso di Ottimizzazione MODELLI MATEMATICI PER IL PROBLEMA DELLO YIELD MANAGEMENT FERROVIARIO. G. Di Pillo, S. Lucidi, L. Palagi

MANUALE MATLAB. Nel manuale proposto ci soffermeremo ad osservare alcune funzioni proposte da Matlab inerenti all attività di laboratorio.

A Quick Intro to Machine Learning. The field of study that gives computers the ability to learn without being explicitly programmed

Reti Neurali. Corso di AA, anno 2016/17, Padova. Fabio Aiolli. 2 Novembre Fabio Aiolli Reti Neurali 2 Novembre / 14. unipd_logo.

Scale di Misurazione Lezione 2

Measurement. Picture 1. Picture 2

R.M.Dorizzi, Strumenti per interpretare gli esami di laboratorio? Forlì, 9 ottobre 2012

Data Alignment and (Geo)Referencing (sometimes Registration process)

Incertezza della misura nelle analisi dei prodotti fitosanitari: dalla teoria alla pratica Dott.ssa Patrizia Stefanelli

Teoria e Tecniche del Riconoscimento

Progettazione di un Sistema di Machine Learning

Fisher Linear discriminant analysis (pag 228)

Il passo del gambero. La soluzione di problemi con la tecnica del Backtracking. Ugo de' Liguoro - Algoritmi e Sperimentazioni 03/04 - Lez.

FONDAMENTI DELLE OPERAZIONI UNITARIE DELL INDUSTRIA CHIMICA Anno Accademico Esercitazione numerica n. 3 Distillazione

6.5 RNA Secondary Structure. 18 novembre 2014

Reti Neurali in Generale

PM10 and PM2.5 in an urban area of the Adriatic coast: Trends and forecast using a recursive neural network model

Alberi di Decisione. Fabio Aiolli Sito web del corso

5.1 Strutture, predittori e identificazione con le rappresentazioni di stato in Matlab

Statistica descrittiva con R

Sistemi Intelligenti. Riassunto

Esercizi di Algoritmi e Strutture Dati

a.a Esercitazioni di Statistica Medica e Biometria Corsi di Laurea triennali Ostetricia / Infermieristica Pediatrica I anno

Keep calm, observe and assess

Riconoscimento automatico di oggetti (Pattern Recognition)

Corso di Algoritmi e Strutture Dati con Laboratorio. The JCF(continua): L interfaccia Map

Luigi Santoro. Hyperphar Group S.p.A., MIlano

Indice generale. Introduzione. Capitolo 1 Essere uno scienziato dei dati... 1

Corso di Intelligenza Artificiale A.A. 2016/2017

Il software Weka. Un software per il Data Mining/Machine learningscritto in Java e distribuito sotto la GNU Public License)

Confronto fra gruppi: il metodo ANOVA. Nicola Tedesco (Statistica Sociale) Confronto fra gruppi: il metodo ANOVA 1 / 23

Ingegneria dei sistemi di Controllo

Classificazione Validazione Decision Tree & kmeans. Renato Mainetti

SISTEMA DI ILLUMINAZIONE PER VERRICELLI WINDLASS LIGHTING SYSTEM

WHERE World HEritage monitoring by Remote sensing

Intelligenza Artificiale. Logiche sfumate (Fuzzy Logics)

Linguistica dei Corpora (2) Lezione 8: Principi di Apprendimento Automatico

Introduzione a Matlab

Fisica Computazionale

ELEMENTI DI INFORMATICA L-B. Ing. Claudia Chiusoli

Computer Graphics. 3D Rendering. Digital representation of 3D objects. Scena 3D rendering image. Geometry of a 3D object. 3D Model

le scale di misura scala nominale scala ordinale DIAGNOSTICA PSICOLOGICA lezione si basano su tre elementi:

Intelligenza Artificiale

REGISTRATION GUIDE TO RESHELL SOFTWARE

Esame di Informatica applicata ai processi biotecnologici AA2003/04 Fabio Scotti, Stefano Ferrari Elaborato di Fabrizio Foglia Matr.

LABORATORIO CHIMICO CAMERA DI COMMERCIO TORINO

How to use volunteers' inspections to set priorities for the management of hydraulic structures? (Check dams in mountain basins)

LED SUPERSTAR CLASSIC A 60 DIM 9 W/827 E27 FR

Il software Weka. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna

Statistica descrittiva con R

SRT064 BTH SRT051 BTH SRT052 BTH

Previsione del tasso di cambio Marco/$

Si faccia riferimento all Allegato A - OPS 2016, problema ricorrente REGOLE E DEDUZIONI, pagina 2.

Quiz di verifica Classificazione

Classificazione di un data set di proteine con Weka

Previsione del tasso di cambio /$

Esercizi vari. Alberto Montresor. 19 Agosto, 2014

VBA è un linguaggio di scripting derivato da Visual Basic, da cui prende il nome. Come ogni linguaggio ha le sue regole.

Tecniche di riconoscimento statistico

Puntatori, array, incrementi Array come parametri Array di puntatori. Programmazione 1. Lezione 12. Vincenzo Marra.

Ammissibilità di co.co.co. e AdR in H2020. Laura Fulci Dirigente Area Ricerca Politecnico di Torino

M/S AMARU' GIOVANNI VIA S. ERASMO snc VASCHE DI CASTEL S. ANGELO (RI) ITALY

- L affilatura a 180 presenta due piani al centro affilati; - The sharpening at 180 has two sharp levels in the middle;

RAPPORTO TECNICO ANALISI FINITURA SUPERFICIALE IMPIANTO IN TITANIO IMPIANTO con Lotto CON TRATTAMENTO SUPERFICIALE SL TECOM IMPLANTOLOGY

Learning session: costruiamo insieme un modello per una campagna di marketing

Write Event 10 in Metrology Event Log

Metodi di Analisi dei Dati Sperimentali. AA 2009/2010 Pier Luca Maffettone. Elementi di Matlab

Ottimizzazione dei Sistemi Complessi

Validazione dei metodi chimici

Metodi di regressione multivariata

Il modello di regressione (VEDI CAP 12 VOLUME IEZZI, 2009)

Computer Science Department University of Verona A.A Pattern Recognition. Introduction. Marco Cristani 1

GRUPPI DI RIEMPIMENTO AUTOMATICI

NATIONAL SPORT SCHOOL

Approccio statistico alla classificazione

M/S CERAMICA SCARABEO Località Pian del Trullo Fabrica di Roma (VT)

Ottimizzazione numerica

Ingegneria della Conoscenza e Sistemi Esperti Lezione 5: Regole di Decisione

19-20 Novembre 2014, Pisa Scuola Medica della Facoltà di Medicina. Co.Me.Lab 2014

Spett.le M/S CERAMICA SCARABEO Località Pian del Trullo Fabrica di Roma (VT)

VENEZIA, MARTEDÍ 11 SETTEMBRE 2012

DATA MINING. Data mining. Obiettivo: estrarre informazione nascosta nei dati in modo da consentire decisioni strategiche

Laboratorio di Apprendimento Automatico. Fabio Aiolli Università di Padova

Design, Quality & Production Made in Italy GENERATORI D ARIA. Scheda Tecnica Data Sheet. Caldaie Termostufe Termocamini Stufe

Transcript:

Apprendimento Automatico Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html

Pipeline Apprendimento Supervisionato Analisi del problema Raccolta, analisi e preprocessing dei dati Studio delle correlazioni tra variabili Feature Selection/Weighting/Normalization Scelta del predittore e Model Selection Test

Oggetti Vettori p.e. Valori di pressione del sangue, battito cardiaco, altezza peso di una persona, utili ad una società assicurativa per determinare la sua speranza di vita Stringhe p.e. Le parole di un documento testuale in ENR, o la struttura del DNA Insiemi e Bag p.e. L insieme dei termini in un documento, o consideriamo anche la loro frequenza? Array Multidimensionali p.e. Immagini e Video Alberi e Grafi p.e. Struttura di un documento XML, o di una molecola in chimica Strutture composte p.e. una pagina web può contenere immagini, testo, video, tabelle, ecc.

Natura dei Dati Feature categoriche o simboliche Nominali [Nessun ordine] p.e. per un auto: paese di origine, fabbrica, anno di uscita in commercio, colore, tipo, ecc. Ordinali [Non preservano distanze] p.e. gradi militari dell esercito: soldato, caporale, sergente, maresciallo, tenente, capitano) Feature quantitative o numeriche Intervalli [Enumerabili] p.e. livello di apprezzamento di un prodotto da 0 a 10 Ratio [Reali] p.e. il peso di una persona

Mapping Feature Categoriche Le feature categoriche si possono mappare in un vettore con tante componenti quanti sono i possibili valori della variabile Possibili valori della variabili: Marca: Fiat [c1], Toyota [c2], Ford[c3] Colore: Bianco [c4], Nero [c5], Rosso [c6] Tipo: Economica [c7], Sportiva [c8] (Toyota, Rossa, Economica)->[0,1,0, 0,0,1, 1,0]

Mapping Feature Continue In questo caso è decisamente più difficoltoso trovare un buon mapping Tipicamente, le feature vengono trasformate per ottenere valori comparabili con le altre feature Feature Centering Feature Standardization

Media e Deviazione Standard (Normalizzazione) E molto importante che gli esempi e le feature siano comparabili tra di loro Centramento (centering) degli esempi/feature f x = x x Normalizzazione STD f x = (x x) σ(x) Oppure rescaling f x = (x x min) (x max x min ) 7

Similarità e distanza Distanze tra vettori Nota: Se i vettori hanno stessa norma la distanza è equivalente alla similarità indotta dal prodotto scalare, ovvero Altrimenti anche la lunghezza dei due vettori conta, non solo l angolo! Similarità coseno e normalizzazione

Algoritmo k-nn K-Nearest Neighbors è un algoritmo di classificazione in cui un esempio di test è classificato come la classe di maggioranza dei suoi k-vicini nel training set Esempio 3k-NN in 2d usando la distanza Euclidea

Algoritmo k-nn (normal) K-Nearest Neighbors quando gli esempi stanno tutti in una palla di raggio unitario. La distanza diventa equivalente al prodotto scalare Esempio 3k-NN in 2d con norma esempi unitaria

Scelta iper-parametri Come possiamo scegliere il numero di unità nascoste in una rete neurale? E il valore K in K-NN? O magari diverse misure di Guadagno per gli alberi di decisione La Model Selection è la fase di una pipeline di apprendimento dove si vanno a individuare gli iper-parametri che stimiamo essere i migliori per il task

Bias e Varianza Il BIAS misura la distorsione di una stima La VARIANZA misura la dispersione di una stima Vedi note - Esempio fitting polinomiale con grado p

Model Selection and Hold-out Most of the time, the learner is parametric. These parameters should be optimized by testing which values of the parameters yield the best effectiveness. Hold-out procedure 1. A small subset of Tr, called the validation set (or hold-out set), denoted Va, is identified 2. A classifier is learnt using examples in Tr-Va. 3. Step 2 is performed with different values of the parameters, and tested against the hold-out sample In an operational setting, after parameter optimization, one typically re-trains the classifier on the entire training corpus, in order to boost effectiveness (debatable step!) It is possible to show that the evaluation performed in Step 2 gives an unbiased estimate of the error performed by a classifier learnt with the same parameters and with training set of cardinality Tr - Va < Tr

K-fold Cross Validation An alternative approach to model selection (and evaluation) is the K-fold cross-validation method K-fold CV procedure K different classifiers h 1,h 2,,h k are built by partitioning the initial corpus Tr into k disjoint sets Va 1,,Va k and then iteratively applying the Hold-out approach on the k-pairs <Tr i = Tr-Va i, Va i > Effectiveness is obtained by individually computing the effectiveness of h 1,...,h k, and then averaging the individual results The special case k= Tr of k-fold cross-validation is called leave-one-out cross-validation

Analisi Cross Validation Cosa succede al variare di K nella cross validation? K alto, training sets più grandi e quindi minore bias. Validation sets piccoli, quindi maggiore varianza. K basso, training sets più piccoli e quindi maggiore bias. Validation sets più grandi, quindi bassa varianza.

Valutazione per dati non bilanciati Classification accuracy: Molto popolare in ML, Proporzione di decisioni corrette, Non appropriata se il numero di esempi positivi è basso Precision, Recall and F 1 Misure migliori!

Tavola di contingenza Relevant Not Relevant Retrieved True positives (tp) False positives (fp) Not Retrieved False negatives (fn) True negatives (tn) Why NOT using the accuracy?

Effectiveness for Binary Retrieval: Precision and Recall If relevance is assumed to be binary-valued, effectiveness is typically measured as a combination of Precision: the degree of soundness of the system P(RELEVANT RETURNED) Recall: the degree of completeness of the system P(RETURNED RELEVANT)

F measure A measure that trades-off precision versus recall? F-measure (weighted harmonic mean of the precision and recall) < 1 emphasizes precision!