Intelligenza Artificiale Complementi ed Esercizi

Documenti analoghi
Introduzione a Deep Learning

Reti Neurali. Corso di AA, anno 2016/17, Padova. Fabio Aiolli. 2 Novembre Fabio Aiolli Reti Neurali 2 Novembre / 14. unipd_logo.

Riconoscimento di cifre manoscritte tramite una rete neurale

Introduzione alle Reti Neurali

WEKA. Ing. Antonio Brunetti Prof. Vitoantonio Bevilacqua

Reti Neurali (Parte I)

Reti neurali con weka Testi degli esercizi

Uso dell algoritmo di Quantizzazione Vettoriale per la determinazione del numero di nodi dello strato hidden in una rete neurale multilivello

Reti Neurali (Parte I)

Fondamenti di Informatica

Algoritmi di classificazione supervisionati

Reti neurali con weka Soluzioni degli esercizi

La codifica binaria. Fondamenti di Informatica. Daniele Loiacono

La codifica binaria. Fondamenti di Informatica. Daniele Loiacono

Modelli generativi per sequenze: Recurrent Temporal Restricted Boltzmann Machines

Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità

RETI NEURALI MATLAB & OCTAVE. Benzi Francesco

Codifica dell informazione

Reti Neurali. Giuseppe Manco. References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop. Reti Neurali

Tesina per il corso di Apprendimento Mimetico (III Livello) Riconoscimento del database MNIST mediante rete neurale di Hopfield Politecnico di Torino

WEKA Data Mining System

POLITECNICO DI BARI RICONOSCIMENTO DI VOLTI MEDIANTE H.M.M. SUPPORTATO DA RETI NEURALI

Riconoscimento immagini con Keras e Tensorflow Gabriele Baldi

Computazione per l interazione naturale: macchine che apprendono

Reti Neurali (Parte III)

Classificatore K-NN 1

Progettazione di un Sistema di Machine Learning

Computazione per l interazione naturale: macchine che apprendono

Tecniche di riconoscimento statistico

In memoria di mio padre. A mia madre, a tutti gli amici. A tutti voi grazie.

Optmization Methods for Machine Learning. Gradient method for multilayer perceptron

Reti Neurali in Generale

LABORATORIO DI INFORMATICA

Autodesk Map parte I digitalizzazione e importazione dati

MACHINE LEARNING E CREATIVITÀ ARTIFICIALE

QUANTIZZATORE VETTORIALE

Cenni di fotogrammetria LE IMMAGINI DIGITALI

Docente responsabile Nome Cognome Indirizzo Mail Giuseppe Pirlo 6 Piano. Esercitazioni in laboratorio

Computazione per l interazione naturale: macchine che apprendono

Vivisezione di un algoritmo di machine learning. Francesco ESPOSITO Youbiquitous

Teoria e Tecniche del Riconoscimento

Geo-scienze e Rischi Naturali

Esperienze di Apprendimento Automatico per il corso di Intelligenza Artificiale

Intelligenza artificiale

Compito parziale del corso di Sistemi Operativi e Reti. (a.a. 2013/2014, prof. Gianluca Amato)

Relatore Ch.mo prof. A. Pescapè Correlatori Ch.mo dott. M. Brescia Ing. G. Aceto. Candidata Luna Di Colandrea N40/132. Anno Accademico 2012/2013

Mask R-CNN per la segmentazione di oggetti destinati alla vendita al dettaglio

Data mining: classificazione

PIXEL. Il valore quantizzato misurato da ciascun sensore diventa un. PICTURE ELEMENT = PIXEL dell immagine. Interazione & Multimedia

Liceo Scientifico G. Galilei Trebisacce Anno Scolastico Prova di Informatica : Codifica delle informazioni Alunno: Classe: 1 C

Informatica per la Comunicazione/ Verdicchio/ 22/05/2014/ Domande / VERSIONE 1

Intelligenza Computazionale INSEGNAMENTO ANNO ACCADEMICO Informatica Magistrale CORSO DI LAUREA IN Anna Maria Fanelli DOCENTE II

ELEMENTI DI INFORMATICA E PROGRAMMAZIONE

Dipartimento DI INFORMATICA

Soluzioni di Deep Learning per la Cyber Security

Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale

Dal connessionismo classico ai modelli genearativi gerarchici

Smart Vision - Le tecnologie per l industria del futuro

Evolutionary computing, machine learning et alia.

La codifica binaria. Informatica B. Daniele Loiacono

Rappresentazione dei numeri: il sistema di numerazione decimale

Esercizi di introduzione alla programmazione

Classificazione DATA MINING: CLASSIFICAZIONE - 1. Classificazione

Algoritmo Di Booth, versione 1.0

Numeri interi. Laboratorio di Calcolo Paola Gallo

Classificazione Mario Guarracino Data Mining a.a. 2010/2011

Istituto Tecnico Industriale A. Righi

Realizzazione e valutazione delle. tecniche di pattern recognition per. calcolatori. Claudio Mazzariello cmazzari@unina.it

La codifica binaria. Informatica B. Daniele Loiacono

Informatica per le discipline umanistiche 2

PREVISIONI POLLINICHE

Regressione Lineare. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò

Dal percettrone di Rosenblatt alle Reti Convoluzionali

Il software Weka. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna

Stima dei Redshift Fotometrici tramite il network SOM + K-NN

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019

Codifica di canale. (dalle dispense e dalle fotocopie) Trasmissione dell Informazione

Tecniche di riconoscimento statistico

Esercizio 2 Scrivere un programma C che: Prende in input da linea di comando il nome di una directory ed il nome di un file. Se non e' possibile aprir

Cenni di fotogrammetria LE IMMAGINI DIGITALI

Funzione di risposta di una RNA - Parte 2

Programma del corso. Introduzione Rappresentazione delle Informazioni Calcolo proposizionale Architettura del calcolatore Reti di calcolatori

Neural Networks. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò

Metodi supervisionati di classificazione

La Rappresentazione dell Informazione

Università degli Studi della Calabria

Computazione per l interazione naturale: macchine che apprendono


Segmentazione basata su colore. Annalisa Franco

Informatica. Mario Pavone - Dept. Mathematics & Computer Science - University of Catania. Trasferimento. Ambiente esterno. Controllo Elaborazione

Metodi supervisionati di classificazione

Naïve Bayesian Classification

Indice Capitolo 1 Capitolo 2 Capitolo 3 Capitolo 4 Capitolo 5 Capitolo 6

RETI INTERNET MULTIMEDIALI

MACHINE LEARNING e DATA MINING Introduzione. a.a.2015/16 Jessica Rosati jessica.rosati@poliba.it

Progettazione di un Sistema di Machine Learning

Boltzmann Machine e Deep NN

RELAZIONE SUI PROGETTI 1, 2, 4

SISTEMI INFORMATIVI GEOGRAFICI IN GEO- LOGIA

Transcript:

Intelligenza Artificiale Complementi ed Esercizi Reti Neurali AA 2013-2014 Il riconoscimento dei caratteri scritti a mano Handwritten Recognition

Il problema Data una cifra scritta a mano, riconoscere in modo automatico di che cifra si tratta CY Suen, et al, Computer recognition of unconstrained handwritten numerals, Proc IEEE 80 (7) (1992) 1162 1180 J Franke, L Lam, R Legault, C Nadal, CY Suen, Experiments with the CENPARMI database combining different classification approaches, Proceedings of the Third International Workshop on Frontiers of Handwriting Recognition, Bualo, NY, 1993, pp 305 311 DS Lee, SN Srihari, Handprinted digit recognition: a comparison of algorithms, in: Proceedings of the Third International Workshop on Frontiers of Handwriting Recognition, Bualo, NY, 1993, pp 153 164 I database di benchmark Database Proprietà Caratteristiche URL CENPARMI Concordia University - 6000 immagini - 4000 training - 2000 test - 166 DPI CEDAR MNIST (Modified NIST) CEDAR, Sunny Buffalo ($950) -18468 immagini - 300 DPI - 2213 test - 60000 Training - 10000 Test - 784 DPI wwwcenparmiconcordiaca wwwcedarbuffaloedu/databases/ http://yannlecuncom/exdb/mnist/ CENPARMI CEDAR MNIST

Riconoscimento con Reti Neurali (MNIST) Classifier Preprocessing Test Error Rate (%) 2-layer NN, 300 hidden units, mean square error none 47 2-layer NN, 300 HU, MSE, [distortions] none 36 2-layer NN, 300 HU deskewing 16 2-layer NN, 1000 hidden units none 45 2-layer NN, 1000 HU, [distortions] none 38 3-layer NN, 300+100 hidden units none 305 3-layer NN, 300+100 HU [distortions] none 25 3-layer NN, 500+150 hidden units none 295 3-layer NN, 500+150 HU [distortions] none 245 3-layer NN, 500+300 HU, softmax, cross entropy, weight decay none 153 2-layer NN, 800 HU, Cross-Entropy Loss none 16 2-layer NN, 800 HU, cross-entropy [affine distortions] none 11 2-layer NN, 800 HU, MSE [elastic distortions] none 09 2-layer NN, 800 HU, cross-entropy [elastic distortions] none 07 NN, 784-500-500-2000-30 + nearest neighbor, RBM + NCA training [no distortions] none 10 6-layer NN 784-2500-2000-1500-1000-500-10 (on GPU) [elastic distortions] none 035 committee of 25 NN 784-800-10 [elastic distortions] width normalization 039 deep convex net, unsup pre-training [no distortions] none 083 Il processo => => => Cifra scritta a mano Trasformazione in file digitale Immagine codificata in binario (es 32x32) L immagine è una matrice binaria dove 0=bianco e 1=nero

La codifica dei dati di training Immagine (eg Jpg) in bianco e nero Risoluzione: 32x32 pixel => Matrice di 1024 bit per ogni immagine File in formato testo Ogni riga rappresenta la matrice dell immagine linearizzata (si rappresenta l immagine con un vettore di 1024 bit) Ogni riga è un immagine Ogni riga è formata da 1024 caratteri (0-1) più il numero corrispondente {0,1,,9} (supervised learning) per il training set Matrice di 1024 bit (immagine) 0 0 1 1 0 8 Vettore di 1024 bit (immagine) Output corretto {0,1,,9} Il Data Base di training e test Versione semplificata del MNIST Cifra # immagini di Training # immagini di Test 0 189 86 1 198 96 2 195 91 3 199 84 4 186 113 5 187 107 6 195 86 7 201 95 8 180 90 9 204 88 Totale 1934 936

Preprocessing:compatibilità di formato Formato MNIST(versione semplificata del libro) 1934fileditestoperiltrainingconlesoleimmaginiseparate(senzal outputcorretto)ogniriga1024 caratteri(0,1); 934filesditest; Formato WEKA Formato testo; Campi aventi un descrittore sintattico; ocrc Scrittura di un programma ad hoc per la conversione di formato Preprocessing:compatibilità di formato Randomizzazione del file di training Riduzione del file di training per avere tempi di risposta accettabili 1024 attributi per l input 10 classi di output Percentage split

Impostazione dei parametri di rete 1 strato nascosto con 30 neuroni 1024 input nodes binari 10 output nominali α=03 m= 02 # epoche: 100 Impostazione dei parametri di rete Risultati