Tecniche di riconoscimento statistico

Documenti analoghi
Tecniche di riconoscimento statistico

Apprendimento Automatico (Feature Selection e Kernel Learning)

Riconoscimento automatico di oggetti (Pattern Recognition)

e applicazioni al dominio del Contact Management Andrea Brunello Università degli Studi di Udine

Segmentazione automatica della carotide basata sulla classificazione dei pixel

/05/2013 Riconoscimento facciale 1

Corso di Laurea Specialistica in Ingegneria Informatica. Correlatore: Ing. Andrea Claudi

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico

Sommario: Implementazione di un sistema di. riconoscimento volti in una immagine. basato sul metodo proposto da

Introduzione alla localizzazione di oggetti. dott. Alessandro Ferrari

Tecniche di riconoscimento statistico

Sistemi avanzati per il riconoscimento

Riconoscimento e recupero dell informazione per bioinformatica

Intelligenza Artificiale. Clustering. Francesco Uliana. 14 gennaio 2011

Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2016/2017. Giovanni Lafratta

/05/2014 Riconoscimento facciale 1

Indice della presentazione

Bag of (visual) Words. BoW. Input image. Dizionario visuale. Rappresentazione

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico

Valutazione delle Prestazioni di un Classificatore. Performance Evaluation

Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione

Quanti soggetti devono essere selezionati?

BLAND-ALTMAN PLOT. + X 2i 2 la differenza ( d ) tra le due misure per ognuno degli n campioni; d i. X i. = X 1i. X 2i

Appunti su Indipendenza Lineare di Vettori

Luigi Piroddi

MODELLI DI SVALUTAZIONE

Esempi di applicazioni di reti neurali

Indici di Dispersione

Strutture di accesso ai dati: B + -tree

Face Detection. Simone Moro. Face Detection

Progetto Themis: Tribunali ad alta velocità

Tecniche di riconoscimento statistico

Indicatori compositi. Dott. Cazzaniga Paolo. Dip. di Scienze Umane e Sociali

Introduzione alle Reti Neurali

Stima della qualità dei classificatori per l analisi dei dati biomolecolari

Statistica Un Esempio

Apprendimento basato sulle istanze

SCHEDA DIDATTICA N 7

fino al valore massimo di 1995 =

Statistica Inferenziale

ANALISI DELLE CORRISPONDENZE MULTIPLE (ACM)

Università degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1

Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale

Cos è una wavelet? Applicazioni della trasformata wavelet. Analisi multirisoluzione

Luigi Santoro. Hyperphar Group S.p.A., MIlano

ẋ 1 = 2x 1 + (sen 2 (x 1 ) + 1)x 2 + 2u (1) y = x 1

5. Applicazione ai dati sperimentali, un modello di previsione delle temperature

Sistemi di regolazione, monitoraggio e controllo degli impianti di climatizzazione in edifici complessi e/o distretti energetici

Claudio Estatico Equazioni non-lineari

Statistica descrittiva e statistica inferenziale

Presentazione dell edizione italiana

Metodi e modelli per le decisioni

( ) le colonne della matrice dei coefficienti, con. , risulta A 3 = A 1 + 4A 2 + 4A 5, A 4 = A 1 + A 2,

Apprendimento Automatico: introduzione al PAC learning

Argomenti della lezione:

L'implementazione delle ROC Curve nei modelli GAMLSS come strumento di previsione per i Big Data

Riconoscimento e recupero dell informazione per bioinformatica

Correttezza (prima parte)

Tecniche di riconoscimento statistico

ELABORAZIONE DELLE IMMAGINI:

1 Schemi alle differenze finite per funzioni di una variabile

FACOLTA DI INGEGNERIA INGEGNERIA INFORMATICA A.A. 2008/2009. Corso VISIONE E PERCEZIONE. Docente. Prof. FIORA PIRRI. Tutor MATIA PIZZOLI

Intelligenza Artificiale. Logica proposizionale: calcolo automatico

I modelli lineari generalizzati per la tariffazione nel ramo RCA: applicazione

Smart Home. Sistemi Telematici 2014/15 Ing. Francesca Paradiso

UN MODERNO APPROCCIO ALLA CREAZIONE DEI PRODOTTI NON VITA

Derivazione numerica. Introduzione al calcolo numerico. Derivazione numerica (II) Derivazione numerica (III)

ECONOMIA APPLICATA ALL INGEGNERIA (Docente: Prof. Ing. Donato Morea)

Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità

Corso di Intelligenza Artificiale A.A. 2016/2017

ANALISI DELLE SERIE STORICHE

METODI DI CLASSIFICAZIONE. Federico Marini

STATISTICA (2) ESERCITAZIONE Dott.ssa Antonella Costanzo

Corso di Laurea: Diritto per le Imprese e le istituzioni a.a Statistica. Probabilità. Lezioni : 11, 12. Docente: Alessandra Durio

Corso Avanzato di Statistica

L A B C di R. Stefano Leonardi c Dipartimento di Scienze Ambientali Università di Parma Parma, 9 febbraio 2010

Teoria e Tecniche del Riconoscimento

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27

Classificazione bio-molecolare di tessuti e geni come problema di apprendimento automatico e validazione dei risultati

Modelli e Metodi per il Supporto alle Decisioni II A.A. 2016/2017

TEMI D ESAME DI ANALISI MATEMATICA I

Corso di Matematica Applicata A.A

Analisi Fattoriale Concetti introduttivi Marcello Gallucci Milano-Bicocca

IMPUTAZIONE MULTIPLA: UN APPLICAZIONE ALL ANALISI DI DATI DI REDDITO

Analisi dei carichi: travi T1-9 9 e T1-10

Intelligenza Artificiale

COMUNE DI CONSIGLIO DI RUMO

C1: L C1 C2: L C2 C: C1 C2

Il calcolo del VAR operativo mediante la metodologia stocastica parametrica. Simona Cosma

Programmazione dinamica

Strutture fisiche e strutture di accesso ai dati

Un nuovo concetto di classe

Statistica Metodologica ed Economica

Metodi iterativi per sistemi lineari

Simulazione dei dati

INTRODUZIONE INTRODUZIONE TABELLE HASH FUNZIONE HASH

3. Ciclo di Vita e Processi di Sviluppo

PROBLEMI A MOLTI OBIETTIVI

Transcript:

On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 10 Combinazione di classificatori Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr A.A. 2016-2017 Ennio Ottaviani- 2017

Introduzione La combinazione di classificatori (ensemble learning) si propone di addestrare M classificatori diversi per lo stesso problema e di combinare i risultati Le differenze possono essere sia di tipo metodologico (metodi diversi) sia di impiego dai dati (sottoinsiemi di dati diversi)

Introduzione Combinando classificatori si riduce in generale il rischio di overfitting Si ottengono spesso prestazioni migliori perché gli errori di solito non sono correlati Occorrono comunque strategie di diversificazione e di combinazione la cui scelta non è immediata La strategia più naturale non è ottimale in termini di decorrelazione degli errori (molti classificatori possono trovare difficili gli stessi dati)

Boosting L idea centrale del boosting è di addestrare in classificatori in modo sequenziale anziché in parallelo Ogni dato viene pesato ed ogni nuovo classificatore viene addestrato pesando maggiormente i dati classificati dai precedenti in modo errato In questo modo la combinazione risulta più efficiente e gli errori tendono a ridursi Questo rende possibile anche l impiego di classificatori molto semplici (weak) che producono per boosting un classificatore motlo robusto (strong)

Boosting La combinazione finale è di tipo lineare con pesi determinati automaticamente durante il training La differenza sta nella procedura di training dei singoli h i

Algoritmo ADABoost

Algoritmo ADABoost Il numero di classificatori deboli T è fissato, ma può essere aumentato se necessario, senza ripartire da zero I pesi iniziali possono essere uniformi oppure (meglio) riflettere le probabilità a priori delle classi Il coefficiente α t potrebbe anche essere negativo La formula di combinazione si può dimostrare che è ottimale in base al requisito di minimo errore, espresso in forma opportuna I classificatori deboli spesso sono basati su singole features (stub)

Evoluzione A partire dal metodo ADABoost originale, sono state proposte numerose varianti che cercano di migliorare i diversi aspetti del processo Il metodo è stato generalizzato con successo al caso di N classi, mantenendo inalterata la struttura logica dell algoritmo Per la sua generalità ed efficacia il boosting è oggi uno dei temi di ricerca applicata più attivi di tutto il PR L ottimalità del meccanismo di combinazione ne ha favorito l uso in problemi considerati molto difficili

Esempio

Esempio

Esempio

Esempio

Esempio

Face detection Localizzare automaticamente i volti presenti in una immagine generica, a prescindere da: posizione scala orientamento illuminazione posa espressione

Face detection Il problema del face detection richiede prima di tutto di definire quali sono le feature da rilevare per valutare la presenza/assenza di un volto in una zona assegnata L approccio classico (Viola & Jones) prevede il calcolo delle feature di Haar (differenze tra grigi medi di regioni rettangolari) Tali features sono però molto deboli, non rappresentando nulla di semantico, e per ottenere risultati occorre gestire al meglio la loro combinazione

Feature di Haar

Feature di Haar Ogni immagine di training (volto o non volto) viene riscalata a dimensione fissa e vengono calcolate tutte le possibili feature di Haar Il numero di features possibili è molto elevato (>> del numero dei pixel), per cui l addestramento può durare molto ADABoost seleziona un (piccolo) sottoinsieme di feature utili

Risultati Il database di training ha 4916 esempi positivi (volti) di dimensione 24x24 pixel 10000 esempi negativi sono stati estratti da immagini casuali senza volti Le feature di Haar possibili sono 160000 ma ADABoost ne ha selezionate circa 6000 Volti a scala diversa vengono gestiti durante il test mediante scalatura dell immagine (o del detector) La ricerca nelle immagini di test viene fatta per scansione a tappeto a passo fissato

Risultati Alcune immagini del training set

Risultati Schema dell intero processo di face detection secndo Viola & Jones

Risultati

Vehicle detection