Computer Science Department University of Verona A.A Pattern Recognition. Introduction. Marco Cristani 1

Documenti analoghi
Teoria e Tecniche del Riconoscimento

Riconoscimento automatico di oggetti (Pattern Recognition)

Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione

Reti Neurali in Generale

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica

Tecniche di riconoscimento statistico

Classificazione bio-molecolare di tessuti e geni come problema di apprendimento automatico e validazione dei risultati

Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità

Intelligenza Artificiale. Clustering. Francesco Uliana. 14 gennaio 2011

Reti Neurali. Corso di AA, anno 2016/17, Padova. Fabio Aiolli. 2 Novembre Fabio Aiolli Reti Neurali 2 Novembre / 14. unipd_logo.

Apprendimento Automatico (Feature Selection e Kernel Learning)

Naïve Bayesian Classification

Tecniche di riconoscimento statistico

Classificazione Mario Guarracino Laboratorio di Sistemi Informativi Aziendali a.a. 2006/2007

Apprendimento Automatico: Teoria e Applicazioni

Elena Bortolotti. L area logico-matematica e le difficoltà

Circuiti e algoritmi per l elaborazione dell informazione

Riconoscimento e recupero dell informazione per bioinformatica

Progettazione di un Sistema di Machine Learning

Approccio statistico alla classificazione

Stima della qualità dei classificatori per l analisi dei dati biomolecolari

LICEO SCIENTIFICO - OPZIONE DELLE SCIENZE APPLICATE MATEMATICA

Riconoscimento e recupero dell informazione per bioinformatica. Clustering: validazione. Manuele Bicego

Bag of (visual) Words. BoW. Input image. Dizionario visuale. Rappresentazione

MACHINE LEARNING e DATA MINING Introduzione. a.a.2015/16 Jessica Rosati jessica.rosati@poliba.it

Introduzione alle Reti Neurali

Esempi di applicazioni di reti neurali

Progettazione di un Sistema di Machine Learning

Lezione introduttiva su reti neurali e SVM Veronica Piccialli. Corso di Ottimizzazione a.a (seconda parte)

Computazione per l interazione naturale: macchine che apprendono

Riconoscimento e recupero dell informazione per bioinformatica

Apprendimento Automatico (Lezione 1)

Il Concetto Intuitivo di Calcolatore. Esercizio. I Problemi e la loro Soluzione. (esempio)

Apprendimento automatico e Reti Neurali. Francesco Sambo tel

VALIDAZIONE DEL MODELLO

Apprendimento basato sulle istanze

Alberi Decisionali Per l analisi del mancato rinnovo all abbonamento di una rivista

Indice della presentazione

Riconoscimento e recupero dell informazione per bioinformatica

Corso di Riconoscimento di Forme. Sommario: Matrice di confusione Cross validation Prestazioni nel KNN

Classificazione Validazione Decision Tree & kmeans. Renato Mainetti

Università degli studi di Napoli Federico II

Università di Pisa Facoltà di Scienze Matematiche Fisiche e Naturali

INTRODUZIONE AI SISTEMI DI CLASSIFICAZIONE

Modelli e Metodi per la Simulazione (MMS)

Linguaggi e Ambienti di Programmazione

Corso di Informatica di Base

/05/2013 Riconoscimento facciale 1

Linguistica dei Corpora (2) Lezione 8: Principi di Apprendimento Automatico

Corso di Intelligenza Artificiale A.A. 2016/2017

Metodi per la riduzione della dimensionalità. Strumenti quantitativi per la gestione

Analogico vs digitale

Training Set Test Set Find-S Dati Training Set Def: Errore Ideale Training Set Validation Set Test Set Dati

Strutture dati e loro organizzazione. Gabriella Trucco

LA CONOSCENZA SOCIALE

Statistical learning methods for classification and profiling

Minimizzazione a più livelli di reti combinatorie Cristina Silvano

e applicazioni al dominio del Contact Management Andrea Brunello Università degli Studi di Udine

L evoluzione normativa dei sistemi di comando

Cenni di apprendimento in Reti Bayesiane

METODI DI CLASSIFICAZIONE. Federico Marini

CORSO DI WEB MINING E RETRIEVAL - INTRODUZIONE AL CORSO -

Corso di Laurea Specialistica in Ingegneria Informatica

I DATI E LA LORO INTEGRAZIONE 63 4/001.0

Informatica e Produzione Multimediale. Introduzione

Segmentazione automatica della carotide basata sulla classificazione dei pixel

Valutazione delle Prestazioni di un Classificatore. Performance Evaluation

Introduzione al data mining. Sistemi di elaborazione delle informazioni 2 Anno Accademico Prof. Mauro Giacomini

Grandezze fisiche e loro misura

Esame di Informatica applicata ai processi biotecnologici AA2003/04 Fabio Scotti, Stefano Ferrari Elaborato di Fabrizio Foglia Matr.

Indice generale. Introduzione. Capitolo 1 Essere uno scienziato dei dati... 1

Apprendimento Automatico (Intro)

Regole associative Mario Guarracino Laboratorio di Sistemi Informativi Aziendali a.a. 2006/2007

Linguistica Computazionale

Realizzazione di un software a supporto della Classificazione guidata di Pagine Web

Modellazione di sistemi ingegneristici (parte 2 di 2)

REGISTRI D'ESAME CODICE ESAME CORSO DI LAUREA NOME DEL CORSO LAUREA CFU

Cluster Analysis. La Cluster Analysis è il processo attraverso il quale vengono individuati raggruppamenti dei dati. per modellare!

Dalle immagini telerilevate. alle mappe

Il processo inferenziale consente di generalizzare, con un certo grado di sicurezza, i risultati ottenuti osservando uno o più campioni

PIANO DI LAVORO DEL DOCENTE anno scolastico 2016/2017. Classe e Indirizzo 1^B AFM n. ore settimanali: 4 Monte orario annuale: 132

Introduzione all analisi di arrays: clustering.

Mediatori didattici. 1) Insiemi ed elementi di un insieme Rappresentazione degli insiemi Sottoinsiemi Operazioni con gli insiemi

Indice. 5 Basi di Gröbner Ideali monomiali Basi di Gröbner... 22

CALCOLO NUMERICO. Rappresentazione virgola mobile (Floating Point)

Classe III Aritmetica e Algebra Dati e previsioni Geometria Geometria

Teoria e Tecniche del Riconoscimento Reti neurali

Derivazione numerica. Introduzione al calcolo numerico. Derivazione numerica (II) Derivazione numerica (III)

Data mining: classificazione DataBase and Data Mining Group of Politecnico di Torino

Minimizzazione di Reti Logiche Combinatorie Multi-livello. livello

Problemi, istanze, soluzioni

Excel. È data la distribuzione di 1863 famiglie italiane secondo il numero di componenti:

Corso di Informatica per Biologia

a.s. 2016/2017 PIANO DI LAVORO DISCIPLINA Informatica Prof.ssa Annalina Fabrizio Prof. Marco Fiorentini SEZIONE A E CLASSE 1 a

SISTEMI INFORMATIVI E DATABASE

Corso di Visione Artificiale. Texture. Samuel Rota Bulò

Introduzione al Calcolo Scientifico

Ricerca Operativa. Ricerca Operativa p. 1/2

Transcript:

Computer Science Department University of Verona A.A. 2015-16 Pattern Recognition Introduction Marco Cristani 1

Inquadramento Sistemi di Pattern Recognition nell uomo: riconoscere la faccia di una persona conosciuta, anche se questo cambia pettinatura, ha gli occhiali da sole, capire quello che una persona sta dicendo, anche se varia il tono della voce; leggere una lettera scritta a mano; Attivitá che l uomo risolve in modo molto naturale, mentre per un calcolatore sono compiti complicati e complessi Marco Cristani 2

Alcune possibili definizioni Pattern recognition studio delle problematiche connesse all utilizzo dei calcolatori per il riconoscimento automatico di dati, altrimenti detti pattern. Studio di come le macchine possono osservare l ambiente, imparare a distinguere i pattern di interesse dall informazione di sfondo e prendere decisioni relative alla categoria dei pattern, a partire da quella più fondamentale, ossia classificare Sistema di Pattern Recognition: il processo che prende in input dati grezzi (raw) ed effettua un azione sulla base della categoria dei dati. Marco Cristani 3

Esempio, bilancia multimediale http://www.ios b.fraunhofer.de /servlet/is/3332 8/ 4

Sistema di Pattern Recognition Raccolta dati Scelta delle feature Scelta del modello Addestramento del modello Valutazione Esempio guida: sistema che distingue tra le lettere scritte a mano a e b. Marco Cristani 5

inizio Raccolta dati Metaconoscenza a priori Scelta delle features Scelta del modello Addestramento Valutazione fine Marco Cristani 6

Raccolta Dati Collezione di un insieme sufficiente e rappresentativo di esempi dal problema in esame. sufficiente? riesce a distinguere un pattern di test e metterlo in una delle classi a disposizione rappresentativo? copre lo spazio di tutti i possibili esempi Problemi di sensoristica (risoluzione, banda, ) Marco Cristani 7

Esempio: un insieme di immagini contenenti le lettere a e b viene acquisito tramite una telecamera, e memorizzato nel computer L immagine viene rappresentata da un array di pixel, ogni pixel assume valore compreso tra 0 (completamente bianco) e 1 (completamente nero) Marco Cristani 8

Scelta delle feature Non si possono utilizzare i dati cosí come sono (immagine 256x256 sono 65536 pixels) Feature: caratteristiche misurabili del fenomeno in esame (pattern = vettore di features): semplici da calcolare; invarianti a trasformazioni irrilevanti; affidabili; indipendenti; discriminanti; poche (problema della curse of dimensionality); In questa fase è molto utile l utilizzo della conoscenza a priori sul problema Marco Cristani 9

Esempio: ad esempio una feature potrebbe essere il numero totale di pixel neri: invariante alla rotazione e traslazione dell oggetto poco discriminante: non tiene conto della forma uso di meta-conoscenza a priori: devo distinguere tra a e b, e so che la lettera b è tipicamente piú alta e allungata della a. uso come feature il rapporto altezza/larghezza Marco Cristani 10

Scelta delle feature: selezione e estrazione Il numero di feature deve essere piccolo per limitare il costo della misura e non influire sull accuratezza del classificatore Selezione di feature: migliore sottoinsieme delle feature estratte Estrazione di feature: misura sui dati creazione di nuove feature da combinazioni di feature misurate (esempio precedente delle a e b) Tali feature possono aver una miglior capacità discriminativa, ma si perde il significato fisico di queste. Uso di una funzione criterio per la riduzione: tipicamente l errore di classificazione di un sottoinsieme di feature. Inoltre, è importante determinare la dimensione dello spazio ridotto. Marco Cristani 11

Scelta del modello Scelta della struttura logica e la base matematica delle regole di classificazione. Tipicamente, il classificatore stima, per ogni oggetto, un valore che indica il grado di appartenenza ad una o più classi sulla base del vettore di feature che lo caratterizza. Problemi: come decidere il modello come decidere la dimensione del modello (ossia il numero dei suoi parametri) come capire se il modello ottenuto rappresenta effetivamente il fenomeno in esame Marco Cristani 12

Non esiste un classificatore che vada bene per tutte le applicazioni Esempio: uso di un classificatore a soglia: data un immagine I calcolo il rapporto altezza/larghezza E(I), con E algoritmo di selezione/estrazione di feature; se E(I) è maggiore di una certa soglia θ, allora l immagine è una b, altrimenti è una a. Marco Cristani 13

Sinonimi: Addestramento del modello training del classificatore learning del classificatore Processo (spesso iterativo, basato su cicli, epoche) con il quale si utilizzano i dati a disposizione (training set) per la costruzione del modello Esempi tratti dal problema (Training Set) Conoscenza a priori Regole che governano il fenomeno Marco Cristani 14

Esempio: addestramento del modello = determinazione della soglia θ Si ha a disposizione una serie di immagini di esempio per le lettere a e per le lettere b (training set) calcolo E(I) per tutte le immagini del training Set determino una soglia θ adatta a separare i valori E(I) calcolati Marco Cristani 15

Tipologie di addestramento: supervisionato Sinonimi: supervised learning, classificazione Idea e scopo: di ogni elemento del training set si conosce l esatta categoria. L obiettivo è quello di creare uno strumento in grado di classificare nuovi oggetti. Problemi: capire se un algoritmo di training è capace di trovare la soluzione ottimale; capire se converge, e se è sufficientemente scalabile; capire se riesce a generalizzare. Marco Cristani 16

Esempio: il training set è costituito da un insieme di immagini a e b. di ogni immagine conosciamo l esatta classificazione (cioè se è a oppure b ) queste informazioni sono utilizzate per determinare la soglia del classificatore. Marco Cristani 17

Tipologie di addestramento: semi supervisionato Sinonimi: semi-supervised learning, Idea e scopo: di qualche elemento del training set si conosce l esatta categoria, della maggior parte no L obiettivo è quello di creare uno strumento in grado di classificare nuovi oggetti. Problemi: Come nel caso precedente Marco Cristani 18

Tipologie di addestramento: non supervisionato Sinonimi: unsupervised learning, clustering Idea e scopo: nessuna informazione sulla categorizzazione degli elementi del training set. Il sistema deve trovare i clusters (gruppi) naturali all interno del training set, sulla base della similaritá tra patterns Problemi: intrinsecamente più difficile della classificazione naturali? similaritá? Marco Cristani 19

Esempio: il training set è costituito da un insieme di immagini a e b. nessuna informazione sulla categorizzazione delle immagini. si cercano di creare due gruppi, mettendo assieme quelle immagini che hanno valore simile di R(I) (la feature) Marco Cristani 20

Tipologie di addestramento: Rinforzato Sinonimi: reinforcement learning, learning with a critic Idea: a metá strada tra le due: non viene fornita alcuna informazione sulla categoria esatta, viene dato un giudizio sulla correttezza della classificazione La strategia di addestramento viene modificata: si presenta un pattern al classificatore il classificatore fa un tentativo di classificazione viene detto esclusivamente se il tentativo è corretto o meno sulla base del giudizio si modifica il classificatore Marco Cristani 21

Valutazione e model selection Misura delle prestazioni del classificatore Prestazioni di generalizzazione: capacitá del classificatore di classificare correttamente anche esempi non presenti nel data set Nessun errore sul training set non implica necessariamente aver ottenuto il classificatore ottimale (pb di overfitting, overtraining) Per evitare situazioni di overfitting è sempre meglio utilizzare due insiemi disgiunti in fase di learning, uno per il training e uno per il testing. Marco Cristani 22

Tecniche per la scelta del training set e del testing set: Holdout: si suddivide casualmente il training set in due parti uguali: una per il training una per il testing Averaged Holdout: si effettuano piú partizioni holdout, e si media il risultato ottenuto (accuratezza di classificazione). In questo modo si ha indipendenza dalla particolare partizione scelta Leave One Out: per il training vengono utilizzati tutti i patterns tranne uno, utilizzato per il testing. Si ripete per tutte le possibili combinazioni. Leave P-Out: come il precedente, utilizza P elementi per il testing, invece che uno. K-folding: vedasi slide successiva Marco Cristani 23

Cross-Validation: 4-fold Marco Cristani 24

Problemi training/valutazione: overtraining Problema che nasce quando il classificatore impara solo i dati di training e non generalizza più Si ferma l addestramento prima del verificarsi del fenomeno dell overtraining (o overfitting) (e 0 ) Marco Cristani 25

Problemi training/valutazione: Curse of dimensionality Le prestazioni dipendono dalle relazioni tra il numero di campioni, numero di feature e dalla complessità del classificatore. In teoria, la probabilità di errore non aumenta se si aggiungono feature In pratica si riscontrano dei problemi dovuti al fatto che le ipotesi sono solo approssimazioni nei casi reali Inoltre, il numero di campioni deve essere in relazione esponenziale rispetto al numero di feature Tutti i comuni classificatori soffrono di questo problema ed esistono regole guida Marco Cristani 26

Problemi training/valutazione: Curse of dimensionality (2) Vorrei tessellare lo spazio di esistenza dei dati in modo uniforme. Di quanti dati ho bisogno, all aumentare delle dimensioni? Marco Cristani 27

Problemi training/valutazione: Curse of dimensionality (3) Mostro che avere i dati nello spazio sferico nel cubo che lo racchiude è non informativo ad alte dimensionalità r Vol. cubo = Vol. sfera = r r d d d / 2 d / 2 1 Metto a rapporto e al limite ottengo f d lim d d2 d d d / 2 / 2 1 0 Marco Cristani 28

Problemi training/valutazione: Curse of dimensionality (4) Mano a mano che la dimensionalità cresce, il volume della sfera è molto più piccolo di quello del cubo Marco Cristani 29

Curse of dimensionality: Fitting di una curva polinomiale Marco Cristani 30

Curse of dimensionality: Fitting di una curva polinomiale (2) Marco Cristani 31

Esempio di overfitting: polinomio di ordine 0 Marco Cristani 32

Esempio di overfitting: polinomio di ordine 1 Marco Cristani 33

Esempio di overfitting: polinomio di ordine 3 Marco Cristani 34

Esempio di overfitting: polinomio di ordine 9 Overfitting Marco Cristani 35

Esempio di overfitting: la cardinalità N entra in gioco Polinomio di ordine 9 th Marco Cristani 36

Esempio di overfitting: la cardinalità N entra in gioco Polinomio di ordine 9 th Marco Cristani 37

Approcci alla Pattern Recognition Approccio sintattico: approccio gerarchico. Analogia tra la struttura dei patterns e la sintassi di un linguaggio: patterns frasi di un linguaggio sottopattern primitivi alfabeto Approccio statistico: ad ogni pattern viene associato un vettore di feature che rappresenta un punto nello spazio multidimensionale del problema. L informazione sul problema, le dipendenze tra i vari fattori e i risultati prodotti sono tutti espressi in termini di probabilitá. Marco Cristani 38

Classificazione statistica La descrizione statistica di oggetti utilizza descrizioni numeriche elementari chiamate feature, che formano i cosiddetti pattern, x = (x 1, x 2,, x n ) o vettori di feature. L insieme di tutti i possibili pattern forma lo spazio dei pattern o delle feature. Nella classificazione statistica, alle entità di interesse sono associate delle distribuzioni di probabilità Un pattern è un entità di interesse, quindi anche ad esso è associata una probabilità! Marco Cristani 39

Classificatore di Bayes Framework di base per la classificazione statistica Lavagna Marco Cristani 40

Stima delle pdf Classificatori parametrici si fissa il modello della distribuzione e sulla base del training set se ne stimano i parametri; esempio: classificatore gaussiano. Classificatori non parametrici nessuna assunzione sulla forma della pdf, la stima si basa esclusivamente sui dati; esempio: K-nearest Neighbor. Classificatori semi-parametrici si ha una classe molto generale di modelli di pdf, in cui il numero di parametri puó essere aumentato in modo sistematico per costruire modelli sempre piú flessibili; esempio: reti neurali. Marco Cristani 41

K Nearest Neighbor (KNN) Classificatore non parametrico. Molto utilizzato per la sua semplicità, flessibilità e ragionevole accuratezza dei risultati prodotti. IDEA: due elementi della stessa classe avranno, molto probabilmente, caratteristiche simili, cioè saranno vicini nello spazio dei punti che rappresenta il problema La classe di un punto può essere determinata analizzando la classe dei punti in un suo intorno Marco Cristani 42

Algoritmo Dato un insieme di esempi X, dato un punto da classificare x 0 : si calcola l insieme U dei K punti di X più vicini a x 0 secondo una determinata metrica (di solito la distanza euclidea); si calcola la classe C più frequente all interno dell insieme U; x 0 verrà classificato come appartenente a C. Problema: scelta del parametro K e della metrica. Marco Cristani 43

Reti neurali, un caso (quasi) a parte Sistema artificiale di elaborazione dell informazione che emula il sistema nervoso animale. Caratteristiche del sistema nervoso animale: robusto e resistente ai guasti; flessibile, si adatta a situazioni nuove imparando; lavora anche con informazione approssimata, incompleta o affetta da errore; permette un calcolo altamente parallelo; piccolo e compatto. Marco Cristani 44

Reti neurali: struttura complessa, composta da tante unitá elementari di calcolo collegate tra loro in vario modo. Le unitá elementari sono dette neuroni. I collegamenti sono detti sinapsi. input pesi sommatore funzione di attivazione output Marco Cristani 45

Diverse topologie Feed forward neural networks Informazione Marco Cristani 46

Combinazioni di classificatori Problema poco studiato e solo recentemente ripreso. Assumono classificatori diversi e con prestazioni diverse e non ottime; training set diversi; diversi classificatori addestrati con uguali training set e quindi con prestazioni diverse; ugual classificatori addestrati differentemente (NN) e che risultano avere differenti prestazioni. Obiettivo di aumentare le prestazioni Approcci: parallelo: si combinano i risultati dei singoli classificatori; seriale: i risultati di uno sono input del successivo fino al risultato finale; gerarchico: i classificatori sono strutturati ad albero e i risultati combinati adeguatamente. Marco Cristani 47

In sintesi...... nell uso di questi algoritmi di apprendimento bisogna tener conto di complessità del modello (model selection) fase di addestramento online o batch disponibilità e tipo di dati di training, test e validazione meccanismi di stop della fase di learning (pb di overfitting) valutare l uso di diversi modelli o dello stesso tipo di modello addestrato in modo diverso (insiemi di classificatori) bilanciamento dei dati a disposizione Spesso, tutti questi modelli sono adattati allo specifico problema/applicazione da affrontare, sono spesso necessarie metodi e modelli ad hoc Marco Cristani 48

APPLICAZIONI Marco Cristani 49

Il decollo della Pattern Recognition Fattori che hanno decretato il decollo definitivo della pattern recognition negli ultimi anni: aumento della capacitá computazionale dei calcolatori. presenza di grosse quantitá di dati Internet Social media (Facebook, Flickr, Pinterest) nuovi sistemi di interazione uomo-macchina, uomorobot, domotica. Marco Cristani 50

Statistical Pattern Recognition (SPR) Costruire programmi che eseguano riconoscimento

Video Analytics Caratterizzare l aspetto esteriore e il movimento delle persone Capire cosa sta succedendo nella scena Prevedere quello che sta per accadere

Video Analytics 53

Video Analytics outside!

Social Signalling Capire il comportamento delle persone Sorveglianza avanzata

Applicazioni classiche Riconoscimento del parlato: problematiche: tono voce velocitá stato d animo applicazione: Siri, ios 6 Riconoscimento di caratteri scritti a mano: problematiche: grafia stato d animo applicazione: lettura automatica firme per supermercati, banche, etc Marco Cristani 56

http://www.cs.ubc.ca/~nando/index.php http://en.wikipedia.org/wiki/darpa_network_challenge Data Mining Definizione: estrazione di conoscenza da un insieme (tipicamente molto vasto) di dati multidimensionali. Scopi: predizione, classificazione, clustering, analisi delle associazioni, etc.. I social media sono diventati gli obiettivi principali del data mining Recommender systems Crowdsourcing Crowdsearching Marco Cristani 57

Data Mining - crowdsearching Cristani et al. 2012, Tell Me What You Like and I'll Tell You What You Are: Discriminating Visual Preferences on Flickr Data ACM multimedia 2 Marco Cristani 58

Definizione: Image retrieval by content image retrieval: trovare, in un database, immagini o sequenze di immagini rispondenti ad una determinata query; by content: la ricerca avviene sulla base del contenuto dell'immagine, non piú sulla base di un testo (annotato a mano su tutte le immagini del data set); Esempi di query: Trovami tutte le immagini simile ad un immagine data. Trovami tutte le immagini che contengono un cavallo. Marco Cristani 59

Esempio Ricerca di tutte le foto simili a questa Marco Cristani 60

Risultato: c è anche un punteggio sull affidabilitá del retrieval Marco Cristani 61

Classificazione di documenti Definizione: classificazione di documenti sulla base dell'argomento contenuto (sport, economia,...). Feature: tipologie di parole, frequenze assolute e relativa Clustering Applicazioni: ricerche in internet, data mining. Marco Cristani 62

Classificazione avanzata di documenti Marco Cristani 63

Riconoscimento di gesti Sistema che identifica gesti umani e li utilizza per portare informazione, oppure per il controllo di dispositivi. Marco Cristani 64

Social signaling http://sspnet.eu/ Marco Cristani 65

Social signaling A. Pesarin, M. Cristani, V. Murino, A. Vinciarelli, Conversation Analysis at Work: Detection of Conflict in Competitive Discussions through Semi-Automatic Turn-Organization Analysis, Cognitive Processing, accepted on 12-09-2011 Marco Cristani 66

Biometria Definizione: identificazione delle persone attraverso l'analisi delle loro caratteristiche fisiologiche e/o comportamentali. Caratteristiche del fattore biometrico: universale (presente in ogni individuo); unico (diverso in ogni individuo); permanente (non rimovibile); quantificabile (misurabile). Marco Cristani 67

Fattore biometrico: faccia termogramma facciale impronte digitali geometria della mano firma voce iride Valutazione di un sistema di biometria: performance; sicurezza; accettabilitá. http://biometrics.cse.msu.edu/ Marco Cristani 68

Stage?