Riconoscimento di facce in immagini generiche.

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Riconoscimento di facce in immagini generiche."

Transcript

1 Emanuele Torrenti - Riconoscimento di facce in immagini generiche 1 Riconoscimento di facce in immagini generiche. di Emanuele Torrenti Abstract Nell'articolo di due studiosi dell'università Jiao Tong di Shanghai, Zhi-Gang Fan e Bao-Liang Lu, qui analizzato, dal titolo Fast recognition of multi-view faces with feature selection, viene proposto un metodo discriminativo per il riconoscimento di facce in vista multipla, con selezione delle caratteristiche, utilizzando support vector machines. Sfruttando la relazione statistica fra selezione delle caratteristiche e classificazione multi-classe, i due compiti vengono integrati in un'unica struttura perseguendo efficacemente l'obiettivo di una selezione discriminativa di caratteristiche. Il processo di classificazione può essere reso più veloce senza degradare le prestazioni di generalizzazione per mezzo del metodo proposto. Gli esperimenti condotti sul database UMIST, contenente facce in vista multipla, mostrano come il metodo proposto possa accelerare il processo di riconoscimento senza inficiare il tasso di successo, surclassando in prestazioni i tradizionali metodo di subspazio kernel. Keywords: Face Recognition, Machine Learning, Multiclass Classification, Support Vector Machines. 1 Introduzione Il riconoscimento di facce in vista multipla è un compito complesso, ancor più del riconoscimento in vista frontale. Diverse tecniche di riconoscimento sono state sviluppate nel corso degli ultimi decenni, ma molte sono applicabili solo alle facce in vista frontale. Le difficoltà nel riconoscimento in viste multiple sono ovvie, a causa di manifold non lineari presenti nello spazio dei dati. La comprensione della struttura globale di tali manifold è la chiave per la risoluzione di questo problema. 1.1 Metodi alternativi I metodi subspaziali rappresentano il classico paradigma per il riconoscimento facciale[16]. Il metodo Eigenface rappresenta una prima innovazione rispetto alle precedenti tecniche. Esso utilizza la Principal Component Analysis(PCA) per generare un sottospazio che sia più espressivo per il riconoscimento e la rappresentazione di facce. La PCA è una tecnica per la riduzione della dimensionalità, ed è anche nota come trasformata discreta di Karhunen-Loeve. Dato uno spazio ad alta dimensionalità in input, ovvero lo spazio delle immagini a livelli di grigio, di dimensione n, pari al numero di pixel, questo viene mappato mediante una trasformazione lineare in uno spazio a ridotta dimensionalità, lo spazio delle caratteristiche, di dimensione m. Una tale trasformazione è schematizzabile come segue: y k =W T x k k =1,2,..., n 1 dove y k sono i vettori di caratteristiche, di dimensione m; W è una matrice di trasformazione di dimensione n x m con colonne ortonormali e x k sono i vettori di input, di dimensione n. La matrice W deve essere scelta come quella che massimizzi la dispersione dei vettori y. Uno svantaggio di tale approccio consiste nel fatto che la dispersione che si tenta di massimizzare non è dipendente soltanto dalla dispersione presente fra le classi, ma sovente si tratta di una dispersione entro la classe [2]. Il primo tipo di dispersione è certamente utile ai fini della classificazione; il secondo tipo certamente no, poiché si tratta di informazione non voluta. Ad esempio, la maggior parte della variazione fra le classi è data da differenze di luminosità [2]. Se la PCA opera su immagini con differenti condizioni di luminosità, la matrice W ottima conterrà componenti tali da proiettare nello spazio delle caratteristiche le variazioni dovuti a tali differenze di illuminazione. Per ovviare a questo inconveniente, è stato proposto di scartare le prime tre componenti principali, in modo da scartare le differenze causate dall'illuminazione; ciò, purtroppo, non è sempre corretto ed un simile approccio rischia di far perdere informazioni utili ai fini della classificazione [2]. Figura 1: Alcune Eigenfaces provenienti dai laboratori AT&T di Cambridge. Fonte: Wikipedia Il metodo Fisherfaces, proposto in [2], è un esempio di

2 Emanuele Torrenti - Riconoscimento di facce in immagini generiche 2 metodo subspaziale discriminante. Esso utilizza la Linear Discriminant Analysis(LDA) di Fisher per la ricerca di un insieme di caratteristiche che possano separare al meglio classi di facce, realizzando allo stesso tempo una riduzione della dimensionalità prima della classificazione. Ciascuna nuova dimensione è una combinazione lineare dei valori dei pixel e forma un template. Le combinazioni lineari ottenute per mezzo della LDA di Fisher sono dette Fisherfaces. Anche questo metodo adotta una trasformazione lineare per mezzo di una matrice W, tale da massimizzare il rapporto fra dispersione fra classi e dispersione entro la classe. metodo LDA è introdotta per risolvere efficacemente i problemi non lineari e derivare un insieme di vettori di base che siano un discriminante ottimale nello spazio delle caratteristiche. Per meglio comprendere il motivo per cui spesso occorre mappare lo spazio di input in uno a dimensionalità maggiore, si consideri il seguente esempio, tratto da [13]. Figura 2: L'immagine di sinistra, tratta dal database Yale, rappresenta una persona che indossa degli occhiali. L'immagine di destra è una Fisherface utilizzata in [2] per determinare se una persona indossa degli occhiali. L'algoritmo Bayesiano, che utilizza un sottospazio probabilistico è proposto in [11] e risolve il problema della classificazione attraverso la classificazione di variazioni intrapersonali ed extrapersonali. La Independent Component Analysis(ICA) rappresenta una generalizzazione della Principal Component Analysis, ed è stata applicata al riconoscimento di facce in [1]. Essa produce un sottospazio non ortogonale per la rappresentazione ed il riconoscimento di facce. In [1], il riconoscimento viene effettuato mediante combinazione dei risultati di due architetture. Nella prima, si trattano le immagini come variabili aleatorie ed i pixel come risultati; nella seconda, le immagini sono trattate come risultati ed i pixel come variabili aleatorie. Tuttavia, tutti i metodi lineari appena menzionati non sono applicabili al riconoscimento di facce in viste multiple a causa della distribuzione non lineare di pattern facciali. A causa di questi problemi non lineari, sono stati proposti, negli ultimi anni, alcuni metodi alcuni metodi di subspazio kernel. Questi metodi subspaziali non lineari combinano i punti di forza dei tradizionali metodi subspaziali e gli algoritmi kernel-machine per la risoluzione di problemi non lineari. Il metodo Kernel PCA[13] combina la PCA e le kernel machine per formare un metodo PCA non lineare. La Kernel Direct Discriminant Analysis(KDDA)[10] combina i punti di forza dei metodi LDA e degli algoritmi kernel machine per il riconoscimento di facce. Inizialmente, lo spazio dato in input viene mappato in maniera non lineare in uno spazio di caratteristiche implicito e ad alta dimensionalità, nel quale si spera che la distribuzione di pattern facciali sia linearizzata e semplificata. Successivamente, una nuova variante del Figura 3: Problema con due classi di dati non linearmente separabili in R 2 In figura 3 è possibile osservare un esempio di problema con due classi di dati non linearmente separabili in R 2. Le due classi sarebbero certamente separabili da una superficie decisionale quadratica(come un'ellisse o una circonferenza, ad esempio). Tuttavia, mappando lo spazio di input in uno tridimensionale: Figura 4: Il problema di figura 3 mappato in uno spazio tridimensionale, nel quale le classi sono linearmente separabili. le classi diventano linearmente separabili. In questo esempio è stata utilizzata una trasformazione del tipo x 1, x 2 x 1, x 2, x 1 2 x 2 2. Tuttavia, la miglior separabilità ottenibile con l'aumento della dimensionalità si paga con una maggiore complessità computazionale [13]. Tuttavia, questi metodi kernel non riescono ancora risolvere in maniera efficace problemi di esempio di dimensione

3 Emanuele Torrenti - Riconoscimento di facce in immagini generiche 3 limitata. Soffrono, infatti, del cosiddetto small sample size problem, riscontrabile nei compiti di pattern recognition ad alta dimensionalità quando il numero di esempi disponibili è inferiore alla loro dimensionalità [10]. Inoltre il loro processo di classificazione risulta oltremodo lento a causa degli enormi tempi di calcolo nelle kernel machine. Per velocizzare il processo di riconoscimento di facce in viste multiple e mantenere le prestazioni di generalizzazione, gli autori propongono un metodo che fa uso di support vector machines(svm). A differenza dei metodi subspaziali, questo metodo di selezione discriminativa di caratteristiche basato su SVM(SVM-DFS) seleziona direttamente più caratteristiche discriminative senza combinare linearmente le caratteristiche originali. Motivato dal successo della teoria dell'apprendimento statistico[15] su piccoli problemi di esempio, il metodo SVM-DFS integra la selezione di caratteristiche e la classificazione multi-classe in un unica e consistente struttura realizzando efficacemente l'obiettivo della selezione discriminativa di caratteristiche, secondo la relazione statistica fra selezione di caratteristiche e classificazione multi-classe. Le SVM sono state progettate originariamente per la classificazione binaria e le SVM multi-classe operano sempre combinando i risultati di molteplici classificatori binari[12]. Sfruttando le caratteristiche delle SVM, è possibile ordinare alcune caratteristiche discriminative per la selezione delle caratteristiche. In [5] un metodo ricorsivo basato su SVM per l'eliminazione di caratteristiche è stato proposto per selezionare caratteristiche per problemi di classificazione binaria. Il metodo SVM-DFS, utilizzando SVM multi-classe, è specificamente pensato per problemi di classificazione multi-classe. Per testare i vantaggi di tale metodo rispetto ai tradizionali metodi di subspazio kernel, sono stati condotti degli esperimenti usando sia SVM-DFS che KDDA per metterli a confronto. 2 Selezione discriminativa di caratteristiche basata su SVM(SVM- DFS) Il metodo proposto da Zhi-Gang Fan e Bao-Liang Lu è detto SVM-DFS. E' pensato per problemi di classificazione multiclasse e fa uso di SVM. 2.1 SVM multi-classe SVM(Support Vector Machine) è una tecnica di machine learning che trae il suo fondamento nella teoria dell'apprendimento statistico. Sulla base del concetto di dimensione VC(Vapnik- Chervonenkis) è possibile ottenere i limiti costruttivi sul tasso di convergenza del processo di apprendimento, che sono indipendenti dalla distribuzione. La dimensione VC di un classificatore è una misura della capacità di un algoritmo di classificazione statistica ed è uno dei concetti chiave dell'omonima teoria sulla classificazione statistica, ad opera di Vapnik e Chervonenkis [15]. In maniera informale, la dimensione VC può essere intesa la complessità del classificatore, ed è pari al numero di vettori che il classificatore è in grado di separare in due classi. Considerando un classificatore lineare, che opera in R 2 (una retta), possiamo affermare che questo ha dimensione VC pari a 3. Già con quattro punti, può risultare impossibile operare una classificazione lineare. E' necessario introdurre un classificatore più complesso, ad esempio una polinomiale, per poter operare la separazione. Figura 5: Separazione fra due classi di dati nel piano. a) E' sempre possibile separare linearmente tre punti; b) Non sempre è possibile farlo per quattro: sarebbe infatti possibile disporre i dati in modo tale che occorrano due iperpiani per la separazione. La dimensione VC del classificatore che opera in R 2 è, dunque, 3. La nuova comprensione del meccanismo dietro la generalizzazione, modifica sia il fondamento teorico della generalizzazione che l'approccio algoritmico al pattern recognition. Le SVM rappresentano un'innovazione teorica ed hanno elevata capacità di generalizzazione e di apprendimento in spazi ad elevata dimensionalità con un numero ridotto di dati di allenamento. Ciò è ottenuto minimizzando sia il limite sull'errore empirico che la complessità del classificatore. Con probabilità almeno 1- h, la disuguaglianza: R R emp h l, log l 2 si mantiene vera per l'insieme delle funzioni limitate. La quantità (1- h) è la confidenza con cui il bound è valido. Nella disuguaglianza, R è il rischio atteso, R emp è il rischio empirico, l è il numero di esempi di allenamento, h è la dimensione VC del classificatore adoperato e.,. è l'indice di confidenza VC del classificatore, che limita l'errore di generalizzazione. La quantità.,. vale: h l, log l = h l 1 log 2l h 1 l log E' noto che all'aumentare di h(dimensione VC), il rischio empirico diminuisce, ma aumenta l'indice di confidenza del classificatore. L'approccio di minimizzazione del rischio strutturale cerca di trovare un compromesso fra i due termini. Il fatto di poter controllare sia l'errore nell'insieme di allenamento sia la complessità del classificatore ha consentito alle SVM di essere applicate con successo a 3

4 Emanuele Torrenti - Riconoscimento di facce in immagini generiche 4 compiti di apprendimento su spazi ad elevata dimensionalità[15]. L'algoritmo SVM formula il problema di allenamento come quello che trova, fra tutti i possibili iperpiani di separazione, quello che massimizza la distanza dall'elemento più vicino delle due classi. In pratica, ciò è determinato risolvendo un problema di programmazione quadratica. La forma generale della funzione decisionale di una SVM per un punto x è data da: f x =sign support vectors y i i K x i, x b dove a i sono i parametri di Lagrange ottenuti nel passo di ottimizzazione; y i sono le etichette di classe e K(.,.) è la funzione di kernel, che può essere di vario tipo. La funzione lineare è K(x,y)= xy; la funzione a base radiale gaussiana(rbf) è K x, y =exp 1 x 2 2 y 2 ; la funzione polinomiale è K x, y = xy 1 n. Le SVM sono originariamente progettate per la classificazione binaria. Le SVM multi-classe sono estensioni delle SVM binarie. Attualmente, esistono due approcci per le SVM multi-classe. Uno consiste nel costruire e combinare diversi classificatori binari, mentre l'altro procede considerando direttamente tutti i dati in una formulazione di ottimizzazione[12]. La combinazione di classificatori binari può avvenire secondo tre modalità: uno contro tutti, uno contro uno, alcuni contro alcuni [9] Metodi per le SVM multi-classe: uno contro tutti e uno contro uno 4 Le SVM uno contro tutti costruiscono k modelli di SVM, dove k è il numero di classi. La i-esima SVM è allenata con tutti gli esempi nella classe i-esima aventi etichetta positiva e tutti gli altri esempi aventi etichetta negativa. Si può determinare che x si trova nella classe avente il più elevato valore della variabile decisionale. numero di classi k nella multi-classificazione è grande, il numero k(k 1)/2 dei classificatori modulari del metodo uno contro uno sarà molto grande e la velocità di risposta all'allenamento del modello finale di classificazione sarà molto lenta. Piuttosto, il metodo uno contro tutti ha soltanto k classificatori modulari e può avere una risposta più veloce rispetto al metodo uno contro uno. Nel lavoro che analizzo, considerando i tempi di risposta dei classificatori, sono state utilizzate SVM multi-classe uno contro tutti. 2.2 Selezione delle caratteristiche nella classificazione binaria Nel caso lineare della classificazione binaria, l'equazione della funzione decisionale può essere formulata come segue(cfr. figura 6): f x =sign w x b dove w è ottenuto a partire da: w= y i i x i support vectors 6 7 Il prodotto interno fra un vettore di pesi w= w 1, w 2,...,w n e un vettore di input x= x 1, x 2,..., x n determina il valore di f(x). Intuitivamente, le caratteristiche in ingresso in un sottoinsieme di x che sono pesate dal sottoinsieme con più grande valore assoluto di w influenzano molto la decisione della classificazione. Se il classificatore opera correttamente, il sottoinsieme di caratteristiche in input con il peso più grande potrebbe corrispondere alla caratteristica con maggior contenuto informativo[5]. Dunque, i pesi w i della funzione di decisione lineare possono essere usati come criteri di ordinamento delle caratteristiche. Secondo tale ordinamento possiamo scegliere la caratteristica più discriminativa per la classificazione binaria. classe di x arg max f i x i [1, k ] 5 Una SVM multi-classe uno contro uno costruisce k(k 1)/2 classificatori in cui ognuno è allenato sui dati delle due classi. La funzione di decisione per la classificazione fra la classe i-esima e la classe j-esima è f ij x. Dopo che tutti i classificatori sono stati costruiti, il testing futuro adopera una strategia di voto di tipo il maggiore vince. Se f ij x indica che x è nella classe i-esima, allora il voto per la classe i-esima viene incrementato di una unità. Altrimenti, viene incrementato il voto per la classe j-esima. A questo punto si predice che x è nella classe con voto più alto. In [12], tutti questi approcci sono studiati con attenzione e viene mostrato come il metodo uno contro tutti sia accurato tanto quanto ogni altro. L'unico metodo di formulazione di ottimizzazione è generalmente complicato e lento ad allenarsi, inoltre non è il più accurato. Quando il

5 Emanuele Torrenti - Riconoscimento di facce in immagini generiche 5 Figura 6: Classificazione binaria. Le due classi sono separate per mezzo di iperpiani. Gli esempi lungo gli iperpiani sono detti vettori di supporto. L'iperpiano centrale è detto ottimo ed ha distanza massima da ambo le classi. Inoltre, i vettori di supporto possono essere usati come prova per l'ordinamento delle caratteristiche[6][3]. Assumendo che la distanza fra l'iperpiano ottimale e i vettori di supporto sia D, l'iperpiano ottimale può essere visto come un iperpiano separatore D-margine posto al centro di un intervallo [-D, D]. Secondo [15], l'insieme degli iperpiani separatori D-margine ha la dimensione VC, h, limitata dalla disuguaglianza: [ h min R2 ], n dove R è un raggio di sfera che limita i vettori x X. La disuguaglianza (8) mostra la relazione fra il margine D e la dimensione VC: un D maggiore implica una dimensione VC minore. Di conseguenza, per ottenere un'elevata capacità di generalizzazione, si dovrebbe mantenere elevato il margine dopo la selezione delle caratteristiche. Tuttavia, a causa del fatto che dopo la selezione delle caratteristiche le dimensioni dello spazio di input vengono ridotte, anche il margine, tipicamente, viene ridotto, ma occorre fare tutto il possibile affinché la riduzione sia quanto più limitata possibile. Quindi, nel processo di selezione delle caratteristiche, si dovrebbero selezionare preferibilmente caratteristiche che rendano il margine più ampio possibile. Questa è un'altra prova per la classificazione delle caratteristiche. Per comprendere ciò, si considerino dei coefficienti c k è dati da: c k = 1 x l i,k 1 x i SV l j,k 9 j SV dove SV indica i vettori di supporto che appartengono agli esempi positivi, SV quelli che appartengono agli esempi negativi, l indica il numero di SV, l indica il numero di SV, x i, k indica la k-esima caratteristica del vettore di supporto i nello spazio di input R n. Il c k più grande indica che la caratteristica k-esima dello spazio di input può dare maggior contributo al mantenimento di un margine ampio. Dunque, può c k assistere w k per l'ordinamento delle caratteristiche. La soluzione consiste nel combinare le due prove, ovvero ordinando le caratteristiche secondo c k w k. Nel caso non lineare della classificazione binaria, una funzione di costo J è calcolata a partire dagli esempi di allenamento per l'ordinamento delle caratteristiche. DJ(i) indica il cambiamento, nella funzione di costo J causato dalla rimozione di una data caratteristica o, in maniera equivalente, portando il suo peso a zero. DJ(i) può essere adoperata come criterio per la classificazione delle caratteristiche. In[5], DJ(i) è calcolata espandendo J nella serie di Taylor del secondo ordine. All'ottimo di J, il termine di primo grado può essere trascurato, producendo: DJ i = J w i 2 Dw i 2 Dove il cambio di peso Dw i corrisponde alla rimozione della caratteristica i. Per le SVM non lineari con funzione di decisione non lineare f(x), la funzione di costo J, essendo minimizzata, è: J = 1 2 T H T v dove H è la matrice con elementi 10 y h y k K x h, x k, è il vettore dei parametri di Lagrange = 1, 1,..., n, e v è un vettore ad n dimensioni di 1(uno) [5]. Per calcolare il cambiamento nella funzione di costo causato dalla rimozione di una componente di input i, è sufficiente lasciare invariato il vettore alfa e ricalcolare la matrice H. Ciò corrisponde a calcolare K(xh ( i), xk ( i)), producendo la matrice H(-i), in cui tale notazione indica la rimozione della caratteristica i-esima. Di conseguenza, il criterio di classificazione delle caratteristiche per le SVM non lineari è: DJ i = 1 2 T H T H i Il calcolo di DJ(i) è un po' più oneroso rispetto al caso lineare. Pertanto, il cambiamento nella matrice H deve essere calcolato solo per i vettori di supporto, il che lo rende accessibile per un piccolo numero di vettori di supporto. Per convenienza di rappresentazione, sia nel caso lineare che in quello non lineare della classificazione binaria, si indicherà il criterio per l'ordinamento delle caratteristiche come r i per l'i-esima caratteristica nello spazio di input R n. Nel caso lineare della classificazione, r i è: r i =c i w i 13

6 Emanuele Torrenti - Riconoscimento di facce in immagini generiche 6 Mentre nel caso non lineare si ha: r i = 1 2 T H T H i 14 Un simile spazio degli eventi, in cui gli eventi sono a due a due disgiunti e la loro unione dà luogo allo spazio stesso è rappresentato in figura 7: Utilizzando il criterio di ordinamento r i, è possibile selezionare più caratteristiche discriminative per la classificazione binaria. 2.3 Selezione delle caratteristiche nella classificazione multi-classe Nel caso della classificazione multi-classe, si utilizzerà il metodo uno contro tutti per le SVM multi-classe. Poiché le SVM sono state pensate originariamente per la classificazione binaria, il modo in cui esse possano essere estese per la classificazione binaria è ancora oggetto di ricerche [12][7]. In [12], tutti gli approcci per le SVM sono studiati con cura, evidenziando come il metodo uno contro tutti sia accurato tanto quanto ogni altro. Nel lavoro analizzato è stato scelto il metodo uno contro tutti poiché esso risponde più velocemente del metodo uno contro uno, soprattutto se il numero di classi è molto elevato. Il problema della classificazione multi classe è molto più difficile rispetto al caso binario quando i dati possiedono un'elevata dimensionalità e la dimensione degli esempi è ridotta. Pare che l'accuratezza della classificazione degradi molto rapidamente al crescere del numero di classi[8], pertanto la selezione delle caratteristiche nella classificazione multi classe è un compito più difficile rispetto al caso binario. Si dovrebbe essere molto attenti nell'estendere la selezione delle caratteristiche dal caso binario a quello multi-classe. Per mezzo della relazione statistica fra la classificazione di caratteristiche e i sotto modelli multipli di SVM multi classe, nel lavoro qui analizzato viene proposto il metodo SVM-DFS per la selezione delle caratteristiche. Le SVM multi-classe uno contro tutti costruiscono k funzioni di decisione, dove k è il numero di classi. La funzione di decisione j-esima, f j x, è costruita con tutti gli esempi nella classe j-esima aventi etichetta positiva e tutti gli altri aventi etichetta negativa. La è u f j x n sotto modello di classificazione binaria per la distinzione della classe j-esima rispetto a tutte le altre. La r ij, calcolata a partire dalla f j x, indica il criterio di ordinamento della caratteristiche relativo alla caratteristica i-esima secondo il sotto modello di classificazione binaria f j x. Nella teoria di probabilità vi sono eventi certi, E, ed eventi impossibili, Ø. Si consideri j l'evento che la classe j- esima sia vera. Secondo la teoria delle probabilità, gli eventi 1, 2,..., k costituiscono una partizione dello spazio degli esempi: E= k e 15 = i j, i j 16 Figura 7: Spazio degli eventi, in cui gli eventi sono a due a due disgiunti. L'unione di tutti gli eventi dà luogo allo spazio degli eventi stesso. Sia P j la probabilità a priori che la classe j-esima sia vera. Si definisca un evento casuale S i come l'i-esima caratteristica è selezionata come caratteristica discriminativa. Sia P S i j la probabilità che accada S i condizionata da j. Quando si ha l'evento, j il j- esimo sotto modello di classificazione binaria, f j x, è efficace per la determinazione del risultato finale di classificazione. Sotto il sotto modello di classificazione, è possibile calcolare P S i j attraverso il criterio di ordinamento delle caratteristiche : r ij P S i j = r ij n r tj t =1 17 Secondo il teorema sulla probabilità totale, P S i può essere calcolato per mezzo di P S i j e P j : k P S i = P S i j P j j=1 18 A questo punto P S i, può essere usato come criterio di classificazione di caratteristiche per l'intero problema di classificazione multi-classe. L'algoritmo SVM-DFS ordina le caratteristiche decrementando il valore di P S i e seleziona le più elevate M caratteristiche come discriminanti, dove M è il numero di caratteristiche da selezionare, che può essere valutato allenando nuovamente i classificatori SVM con le M caratteristiche selezionate. M dovrebbe essere scelto in maniera tale che il margine i di ogni sotto modello SVM f i x riallenato sia ampio a sufficienza. i = 1 w i 19

7 Emanuele Torrenti - Riconoscimento di facce in immagini generiche 7 dove w (i) indica il vettore di pesi del sotto modello. Secondo [15], f i x i dove a j sono i parametri di Lagrange per il sotto modello f i x. Si definisca un coefficiente L: k L= i=i w i 2 = P i E' possibile usare il coefficiente L per valutare M, che può essere scelto in maniera tale che L sia piccolo abbastanza. Dopo che le M caratteristiche discriminative sono state selezionate attraverso il metodo SVM-DFS, i modelli SVM devono essere riallenati usando i dati di allenamento per gli ulteriori compiti di classificazione. 3 Esperimenti support vectors support vectors i j 20 i j 21 Sono stati condotti due insiemi di esperimenti per illustrare l'efficacia dell'algoritmo SVM-DFS. In tutti gli esperimenti riportati di seguito, è stato adoperato il database di facce UMIST[4], un database contenente 575 immagini in scala di grigio in vista multipla di 20 soggetti, che coprono una gran varietà di pose, dal profilo alla vista frontale, nonché di razze, generi e sembianze. Tutte le immagini in ingresso hanno dimensione 112x92 ed i risultanti vettori in ingresso hanno dimensione N= La figura 8 mostra alcuni esempi di immagini di un soggetto nel database. Il database complessivo è partizionato in due sottoinsiemi: l'insieme di allenamento e l'insieme di test. Il primo è composto da 240 immagini: 12 immagini per persona sono scelte con cura secondo la posizione della faccia. Le rimanenti 335 immagini sono usate per comporre l'insieme di test. Tutti gli esperimenti sono effettuati su un PC Pentium 3.0GHz con 1.0 GB di RAM. Per l'allenamento delle SVM il parametro C è impostato a C=10000 e s è impostato ad un valore ottimale nell'intervallo ( ). i tradizionali metodi di subspazio kernel, si utilizzeranno, a parità di condizioni, i metodi KDDA[10] e SVM-DFS, a parità di condizioni. I parametri sperimentali del metodo KDDA sono impostati secondo [10]; inoltre si adopera una funzione di kernel di tipo RBF. In questi esperimenti sul SVM-DFS, il numero di caratteristiche discriminative M selezionate è impostato a 2000, considerando sia il valore del coefficiente L che un compromesso fra tempo di risposta dei classificatori e accuratezza. Durante la selezione delle caratteristiche, il kernel usato da SVM-DFS è sempre di tipo lineare. Metodo Correttezza(%) Tempo di test(s) KDDA SVM-DFS SVM-DFS Tabella 1: Risultati del test. Confronto con il metodo KDDA 3.2 Studio delle prestazioni sotto varie dimensionalità Questo insieme di esperimenti consta di due sottoinsiemi: SVM-DFS-L e SVM-DFS-R. Gli esperimenti nell'insieme SVM-DFS-L adoperano il kernel lineare per la classificazione dopo la selezione delle caratteristiche per mezzo di SVM-DFS. Gli esperimenti nell'insieme SVM- DFS-R adoperano il kernel RBF per la classificazione dopo la selezione delle caratteristiche per mezzo di SVM-DFS. Durante la selezione delle caratteristiche, il kernel utilizzato da SVM-DFS è sempre di tipo lineare. Figura 9: Accuratezza del riconoscimento sotto varie dimensionalità Figura 8: Alcuni esempi di facce di un soggetto del database UMIST 3.1 Confronto con un metodo di subspazio kernel Negli esperimenti, per confrontare il metodo SVM-DFS con La figura 9 mostra l'accuratezza del riconoscimento sotto varie dimensionalità che, di fatto, è il numero di caratteristiche da selezionare. Utilizzando SVM-DFS, un vario numero di caratteristiche è stato selezionato ed è stata studiata la variazione dell'accuratezza causata dalla variazione nella dimensionalità. In figura 9, si può osservare che l'accuratezza è mantenuta in un ampio intervallo di dimensionalità, approssimativamente da 2000 a Inoltre, SVM-DFS-R è più accurato di SVM-DFS-L per basse dimensionalità- L'ovvia ragione di ciò è che SVM- DFS-R adopera un kernel non lineare e può costruire

8 Emanuele Torrenti - Riconoscimento di facce in immagini generiche 8 complicate superfici decisionali non lineari per la classificazione non lineare. Figura 10: Tempo di test sotto varie dimensionalità La figura 10 mostra il tempo di test sotto varie dimensionalità. Il tempo di test è dato dalla somma di tutti i tempi di test di ogni singolo test di esempio. E' possibile notare che il tempo di test decrescere al decrescere della dimensionalità, soprattuto per SVM-DFS-R. Nella tabella 2, in cui lineare indica SVM-DFS-L, e RBF indica SVM-DFS-R, vi sono i risultati complessivi del test complessivo sotto varie dimensionalità. Per mezzo di questi risultati sperimentali, è possibile osservare che SVM-DFS può accelerare il processo di classificazione senza inficiare il tasso di correttezza. Dimensionalità Correttezza(%) Tempo di test(s) Lineare RBF Lineare RBF Tabella 2: Tempi di test sotto varie dimensionalità 4 Conclusioni Nel lavoro qui analizzato è stato presentato un metodo discriminativo con selezione delle caratteristiche, per l'impegnativo compito del riconoscimento di facce in viste multiple: SVM-DFS. Sono stati integrati due compiti, selezione di caratteristiche e classificazione multi-classe, in un unica struttura, realizzando efficacemente il compito della selezione discriminativa di caratteristiche. Alla luce dei risultati sperimentali ottenuti operando sul database UMIST, è possibile osservare che SVM-DFS velocizza il processo di riconoscimento di facce in viste multiple senza inficiare la correttezza del riconoscimento. Per mezzo di un confronto con il metodo KDDA, si è visto che SVM-DFS ha battuto in prestazioni i tradizionali metodi di subspazio kernel. 5 Lavori futuri In lavori futuri, gli autori utilizzeranno la trasformata wavelet per il preprocessamento, prima di usare SVM-DFS. Essi ritengono, infatti che il suo uso possa rendere SVM- DFS più efficiente, rispetto all'analisi sul dominio spaziale, ovvero sui pixel grezzi. Bibliografia [1] M. S. Bartlett, J. R. Movellan, and T. J. Sejnowski. Face recognition by independent component analysis. IEEE Trans. Neural Networks, 13(6): , [2] P. Belhumeur, J. Hespanha, and D. Kriegman. Eigenfaces vs. fisherfaces: Recognition using class specific linear projection. IEEE Trans. Pattern Analysis and Machine Intelligence, 19(7): , [3] Z. G. Fan, K. A. Wang, and B. L. Lu. Feature selection for fast image classification with support vector machines. Proc. ICONIP 2004, LNCS 3316: , [4] D. B. Graham and N. M. Allinson. Characterizing virtual eigensignatures for general purpose face recognition. Face Recognition: From Theory to Applications, NATO ASI Series F, Computer and Systems Sciences, 163: , [5] I. Guyon, J. Weston, S. Barnhill, and V. Vapnik. Gene selection for cancer classification using support vector machines. Machine Learning, 46: , [6] B. Heisele, T. Serre, S. Prentice, and T. Poggio. Hierarchical classification and feature reduction for fast face detection with support vector machine. Pattern Recognition, 36: , [7] C. Hsu and C. Lin. A comparison of methods for multiclass support vector machines. IEEE Trans. Neural Networks, 13(2): , [8] T. Li, C. Zhang, and M. Ogihara. A comparative study of feature selection and multiclass classification methods for tissue classification based on gene expression. Bioinformatics, 20(15): , [9] B. L. Lu, K. A. Wang, M. Utiyama, and H. Isahara. A part-versus-part method for massively parallel training of support vector machines. Proc. IJCNN 2004, pages , [10] J. Lu, K. Plataniotis, and A. Venetsanopoulos. Face recognition using kernel direct discriminant analysis algorithms. IEEE Trans. Neural Networks, 14(1): , 2003.

9 Emanuele Torrenti - Riconoscimento di facce in immagini generiche 9 [11] B. Moghaddam, T. Jebara, and A. Pentland. Bayesian face recognition. Pattern Recognition, 33: , [12] R. Rifkin and A. Klautau. In defense of one-vs-all classification. Journal of Machine Learning Research, 5: , [13] B. Scholkopf, A. Smola, and K. R. Muller. Nonlinear component analysis as a kernel eigenvalue problem. Neural Computation, 10(5): , [14] M. Turk and A. Pentland. Eigenfaces for recognition. Journal of Cognitive Neuroscience, 3(1):71 86, [15] V. Vapnik. The Nature of Statistical Learning Theory. Springer-Verlag New York, [16] X. Wang and X. Tang. Unified subspace analysis for face recognition. Proc. ICCV 2003, 1: , 2003.

VC-dimension: Esempio

VC-dimension: Esempio VC-dimension: Esempio Quale è la VC-dimension di. y b = 0 f() = 1 f() = 1 iperpiano 20? VC-dimension: Esempio Quale è la VC-dimension di? banale. Vediamo cosa succede con 2 punti: 21 VC-dimension: Esempio

Dettagli

SVM. Veronica Piccialli. Roma 11 gennaio 2010. Università degli Studi di Roma Tor Vergata 1 / 14

SVM. Veronica Piccialli. Roma 11 gennaio 2010. Università degli Studi di Roma Tor Vergata 1 / 14 SVM Veronica Piccialli Roma 11 gennaio 2010 Università degli Studi di Roma Tor Vergata 1 / 14 SVM Le Support Vector Machines (SVM) sono una classe di macchine di che derivano da concetti riguardanti la

Dettagli

Dimensione di uno Spazio vettoriale

Dimensione di uno Spazio vettoriale Capitolo 4 Dimensione di uno Spazio vettoriale 4.1 Introduzione Dedichiamo questo capitolo ad un concetto fondamentale in algebra lineare: la dimensione di uno spazio vettoriale. Daremo una definizione

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 8 Support Vector Machines Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr

Dettagli

LE FUNZIONI A DUE VARIABILI

LE FUNZIONI A DUE VARIABILI Capitolo I LE FUNZIONI A DUE VARIABILI In questo primo capitolo introduciamo alcune definizioni di base delle funzioni reali a due variabili reali. Nel seguito R denoterà l insieme dei numeri reali mentre

Dettagli

e-dva - eni-depth Velocity Analysis

e-dva - eni-depth Velocity Analysis Lo scopo dell Analisi di Velocità di Migrazione (MVA) è quello di ottenere un modello della velocità nel sottosuolo che abbia dei tempi di riflessione compatibili con quelli osservati nei dati. Ciò significa

Dettagli

Analisi e diagramma di Pareto

Analisi e diagramma di Pareto Analisi e diagramma di Pareto L'analisi di Pareto è una metodologia statistica utilizzata per individuare i problemi più rilevanti nella situazione in esame e quindi le priorità di intervento. L'obiettivo

Dettagli

( x) ( x) 0. Equazioni irrazionali

( x) ( x) 0. Equazioni irrazionali Equazioni irrazionali Definizione: si definisce equazione irrazionale un equazione in cui compaiono uno o più radicali contenenti l incognita. Esempio 7 Ricordiamo quanto visto sulle condizioni di esistenza

Dettagli

Economia Internazionale e Politiche Commerciali (a.a. 12/13)

Economia Internazionale e Politiche Commerciali (a.a. 12/13) Economia Internazionale e Politiche Commerciali (a.a. 12/13) Soluzione Esame (11 gennaio 2013) Prima Parte 1. (9 p.) (a) Ipotizzate che in un mondo a due paesi, Brasile e Germania, e due prodotti, farina

Dettagli

Esempio. Approssimazione con il criterio dei minimi quadrati. Esempio. Esempio. Risultati sperimentali. Interpolazione con spline cubica.

Esempio. Approssimazione con il criterio dei minimi quadrati. Esempio. Esempio. Risultati sperimentali. Interpolazione con spline cubica. Esempio Risultati sperimentali Approssimazione con il criterio dei minimi quadrati Esempio Interpolazione con spline cubica. Esempio 1 Come procedere? La natura del fenomeno suggerisce che una buona approssimazione

Dettagli

Controlli Automatici T. Trasformata di Laplace e Funzione di trasferimento. Parte 3 Aggiornamento: Settembre 2010. Prof. L.

Controlli Automatici T. Trasformata di Laplace e Funzione di trasferimento. Parte 3 Aggiornamento: Settembre 2010. Prof. L. Parte 3 Aggiornamento: Settembre 2010 Parte 3, 1 Trasformata di Laplace e Funzione di trasferimento Prof. Lorenzo Marconi DEIS-Università di Bologna Tel. 051 2093788 Email: lmarconi@deis.unibo.it URL:

Dettagli

RELAZIONE TRA VARIABILI QUANTITATIVE. Lezione 7 a. Accade spesso nella ricerca in campo biomedico, così come in altri campi della

RELAZIONE TRA VARIABILI QUANTITATIVE. Lezione 7 a. Accade spesso nella ricerca in campo biomedico, così come in altri campi della RELAZIONE TRA VARIABILI QUANTITATIVE Lezione 7 a Accade spesso nella ricerca in campo biomedico, così come in altri campi della scienza, di voler studiare come il variare di una o più variabili (variabili

Dettagli

Il concetto di valore medio in generale

Il concetto di valore medio in generale Il concetto di valore medio in generale Nella statistica descrittiva si distinguono solitamente due tipi di medie: - le medie analitiche, che soddisfano ad una condizione di invarianza e si calcolano tenendo

Dettagli

Documentazione esterna al software matematico sviluppato con MatLab

Documentazione esterna al software matematico sviluppato con MatLab Documentazione esterna al software matematico sviluppato con MatLab Algoritmi Metodo di Gauss-Seidel con sovrarilassamento Metodo delle Secanti Metodo di Newton Studente Amelio Francesco 556/00699 Anno

Dettagli

Laboratorio di Pedagogia Sperimentale. Indice

Laboratorio di Pedagogia Sperimentale. Indice INSEGNAMENTO DI LABORATORIO DI PEDAGOGIA SPERIMENTALE LEZIONE III INTRODUZIONE ALLA RICERCA SPERIMENTALE (PARTE III) PROF. VINCENZO BONAZZA Indice 1 L ipotesi -----------------------------------------------------------

Dettagli

Rappresentazione dei numeri in un calcolatore

Rappresentazione dei numeri in un calcolatore Corso di Calcolatori Elettronici I A.A. 2010-2011 Rappresentazione dei numeri in un calcolatore Lezione 2 Università degli Studi di Napoli Federico II Facoltà di Ingegneria Rappresentazione dei numeri

Dettagli

QUANTIZZAZIONE diverse fasi del processo di conversione da analogico a digitale quantizzazione

QUANTIZZAZIONE diverse fasi del processo di conversione da analogico a digitale quantizzazione QUANTIZZAZIONE Di seguito lo schema che illustra le diverse fasi del processo di conversione da analogico a digitale. Dopo aver trattato la fase di campionamento, occupiamoci ora della quantizzazione.

Dettagli

LE SUCCESSIONI 1. COS E UNA SUCCESSIONE

LE SUCCESSIONI 1. COS E UNA SUCCESSIONE LE SUCCESSIONI 1. COS E UNA SUCCESSIONE La sequenza costituisce un esempio di SUCCESSIONE. Ecco un altro esempio di successione: Una successione è dunque una sequenza infinita di numeri reali (ma potrebbe

Dettagli

Determinare la grandezza della sottorete

Determinare la grandezza della sottorete Determinare la grandezza della sottorete Ogni rete IP possiede due indirizzi non assegnabili direttamente agli host l indirizzo della rete a cui appartiene e l'indirizzo di broadcast. Quando si creano

Dettagli

Ottimizzazione Multi Obiettivo

Ottimizzazione Multi Obiettivo Ottimizzazione Multi Obiettivo 1 Ottimizzazione Multi Obiettivo I problemi affrontati fino ad ora erano caratterizzati da una unica (e ben definita) funzione obiettivo. I problemi di ottimizzazione reali

Dettagli

Pro e contro delle RNA

Pro e contro delle RNA Pro e contro delle RNA Pro: - flessibilità: le RNA sono approssimatori universali; - aggiornabilità sequenziale: la stima dei pesi della rete può essere aggiornata man mano che arriva nuova informazione;

Dettagli

Più processori uguale più velocità?

Più processori uguale più velocità? Più processori uguale più velocità? e un processore impiega per eseguire un programma un tempo T, un sistema formato da P processori dello stesso tipo esegue lo stesso programma in un tempo TP T / P? In

Dettagli

Introduzione. Classificazione di Flynn... 2 Macchine a pipeline... 3 Macchine vettoriali e Array Processor... 4 Macchine MIMD... 6

Introduzione. Classificazione di Flynn... 2 Macchine a pipeline... 3 Macchine vettoriali e Array Processor... 4 Macchine MIMD... 6 Appunti di Calcolatori Elettronici Esecuzione di istruzioni in parallelo Introduzione... 1 Classificazione di Flynn... 2 Macchine a pipeline... 3 Macchine vettoriali e Array Processor... 4 Macchine MIMD...

Dettagli

Regressione non lineare con un modello neurale feedforward

Regressione non lineare con un modello neurale feedforward Reti Neurali Artificiali per lo studio del mercato Università degli studi di Brescia - Dipartimento di metodi quantitativi Marco Sandri (sandri.marco@gmail.com) Regressione non lineare con un modello neurale

Dettagli

Regressione Mario Guarracino Data Mining a.a. 2010/2011

Regressione Mario Guarracino Data Mining a.a. 2010/2011 Regressione Esempio Un azienda manifatturiera vuole analizzare il legame che intercorre tra il volume produttivo X per uno dei propri stabilimenti e il corrispondente costo mensile Y di produzione. Volume

Dettagli

Support Vector Machines introduzione. Vittorio Maniezzo Università di Bologna

Support Vector Machines introduzione. Vittorio Maniezzo Università di Bologna 7 Support Vector Machines introduzione Vittorio Maniezzo Università di Bologna 1 SVM - introduzione Le SV machinessono state sviluppate negli AT&T Bell Laboratoriesda Vapnike colleghi (Boseret al., 1992,

Dettagli

Tecniche di Prototipazione. Introduzione

Tecniche di Prototipazione. Introduzione Tecniche di Prototipazione Introduzione Con il termine prototipo si intende il primo esempio di un prodotto che deve essere sviluppato e che consente di poter effettuare considerazioni preliminari prima

Dettagli

come nasce una ricerca

come nasce una ricerca PSICOLOGIA SOCIALE lez. 2 RICERCA SCIENTIFICA O SENSO COMUNE? Paola Magnano paola.magnano@unikore.it ricevimento: martedì ore 10-11 c/o Studio 16, piano -1 PSICOLOGIA SOCIALE COME SCIENZA EMPIRICA le sue

Dettagli

REGOLAZIONE (E TASSAZIONE OTTIMALE) DI UN MONOPOLIO CON PIÙ LINEE DI PRODUZIONE

REGOLAZIONE (E TASSAZIONE OTTIMALE) DI UN MONOPOLIO CON PIÙ LINEE DI PRODUZIONE REGOLAZIONE (E TASSAZIONE OTTIMALE) DI UN MONOPOLIO CON PIÙ LINEE DI PRODUZIONE Nella Sezione 16.5 abbiamo visto come un regolatore che voglia fissare il prezzo del monopolista in modo da minimizzare la

Dettagli

Capitolo 13: L offerta dell impresa e il surplus del produttore

Capitolo 13: L offerta dell impresa e il surplus del produttore Capitolo 13: L offerta dell impresa e il surplus del produttore 13.1: Introduzione L analisi dei due capitoli precedenti ha fornito tutti i concetti necessari per affrontare l argomento di questo capitolo:

Dettagli

CONTINUITÀ E DERIVABILITÀ Esercizi proposti. 1. Determinare lim M(sinx) (M(t) denota la mantissa di t)

CONTINUITÀ E DERIVABILITÀ Esercizi proposti. 1. Determinare lim M(sinx) (M(t) denota la mantissa di t) CONTINUITÀ E DERIVABILITÀ Esercizi proposti 1. Determinare lim M(sin) (M(t) denota la mantissa di t) kπ/ al variare di k in Z. Ove tale limite non esista, discutere l esistenza dei limiti laterali. Identificare

Dettagli

Per studio di funzione intendiamo un insieme di procedure che hanno lo scopo di analizzare le proprietà di una funzione f ( x) R R

Per studio di funzione intendiamo un insieme di procedure che hanno lo scopo di analizzare le proprietà di una funzione f ( x) R R Studio di funzione Per studio di funzione intendiamo un insieme di procedure che hanno lo scopo di analizzare le proprietà di una funzione f ( x) R R : allo scopo di determinarne le caratteristiche principali.

Dettagli

1. PRIME PROPRIETÀ 2

1. PRIME PROPRIETÀ 2 RELAZIONI 1. Prime proprietà Il significato comune del concetto di relazione è facilmente intuibile: due elementi sono in relazione se c è un legame tra loro descritto da una certa proprietà; ad esempio,

Dettagli

Ottimizazione vincolata

Ottimizazione vincolata Ottimizazione vincolata Ricordiamo alcuni risultati provati nella scheda sulla Teoria di Dini per una funzione F : R N+M R M di classe C 1 con (x 0, y 0 ) F 1 (a), a = (a 1,, a M ), punto in cui vale l

Dettagli

LEZIONE 23. Esempio 23.1.3. Si consideri la matrice (si veda l Esempio 22.2.5) A = 1 2 2 3 3 0

LEZIONE 23. Esempio 23.1.3. Si consideri la matrice (si veda l Esempio 22.2.5) A = 1 2 2 3 3 0 LEZIONE 23 231 Diagonalizzazione di matrici Abbiamo visto nella precedente lezione che, in generale, non è immediato che, data una matrice A k n,n con k = R, C, esista sempre una base costituita da suoi

Dettagli

METODI per effettuare previsioni con analisi di tipo WHAT-IF

METODI per effettuare previsioni con analisi di tipo WHAT-IF METODI per effettuare previsioni con analisi di tipo WHAT-IF 1. TABELLA DATI Una tabella di dati è un intervallo che mostra come la modifica di alcuni valori nelle formule ne influenza i risultati. Le

Dettagli

Statistica. Lezione 6

Statistica. Lezione 6 Università degli Studi del Piemonte Orientale Corso di Laurea in Infermieristica Corso integrato in Scienze della Prevenzione e dei Servizi sanitari Statistica Lezione 6 a.a 011-01 Dott.ssa Daniela Ferrante

Dettagli

Probabilità condizionata: p(a/b) che avvenga A, una volta accaduto B. Evento prodotto: Evento in cui si verifica sia A che B ; p(a&b) = p(a) x p(b/a)

Probabilità condizionata: p(a/b) che avvenga A, una volta accaduto B. Evento prodotto: Evento in cui si verifica sia A che B ; p(a&b) = p(a) x p(b/a) Probabilità condizionata: p(a/b) che avvenga A, una volta accaduto B Eventi indipendenti: un evento non influenza l altro Eventi disgiunti: il verificarsi di un evento esclude l altro Evento prodotto:

Dettagli

Elementi di informatica

Elementi di informatica Elementi di informatica Sistemi di numerazione posizionali Rappresentazione dei numeri Rappresentazione dei numeri nei calcolatori rappresentazioni finalizzate ad algoritmi efficienti per le operazioni

Dettagli

LEZIONE 31. B i : R n R. R m,n, x = (x 1,..., x n ). Allora sappiamo che è definita. j=1. a i,j x j.

LEZIONE 31. B i : R n R. R m,n, x = (x 1,..., x n ). Allora sappiamo che è definita. j=1. a i,j x j. LEZIONE 31 31.1. Domini di funzioni di più variabili. Sia ora U R n e consideriamo una funzione f: U R m. Una tale funzione associa a x = (x 1,..., x n ) U un elemento f(x 1,..., x n ) R m : tale elemento

Dettagli

RAPPRESENTAZIONE GRAFICA E ANALISI DEI DATI SPERIMENTALI CON EXCEL

RAPPRESENTAZIONE GRAFICA E ANALISI DEI DATI SPERIMENTALI CON EXCEL RAPPRESENTAZIONE GRAFICA E ANALISI DEI DATI SPERIMENTALI CON EXCEL 1 RAPPRESENTAZIONE GRAFICA Per l analisi dati con Excel si fa riferimento alla versione 2007 di Office, le versioni successive non differiscono

Dettagli

Luigi Piroddi piroddi@elet.polimi.it

Luigi Piroddi piroddi@elet.polimi.it Automazione industriale dispense del corso 10. Reti di Petri: analisi strutturale Luigi Piroddi piroddi@elet.polimi.it Analisi strutturale Un alternativa all analisi esaustiva basata sul grafo di raggiungibilità,

Dettagli

I ricavi ed i costi di produzione

I ricavi ed i costi di produzione I ricavi ed i costi di produzione Supponiamo che le imprese cerchino di operare secondo comportamenti efficienti, cioè comportamenti che raggiungono i fini desiderati con mezzi minimi (o, che è la stessa

Dettagli

Tavola riepilogativa degli insiemi numerici

Tavola riepilogativa degli insiemi numerici N : insieme dei numeri naturali Z : insieme dei numeri interi Q : insieme dei numeri razionali I : insieme dei numeri irrazionali R : insieme dei numeri reali Tavola riepilogativa degli insiemi numerici

Dettagli

Ottimizzazione nella gestione dei progetti Capitolo 4: la gestione dei costi (Programmazione multimodale): formulazioni

Ottimizzazione nella gestione dei progetti Capitolo 4: la gestione dei costi (Programmazione multimodale): formulazioni Ottimizzazione nella gestione dei progetti Capitolo 4: la gestione dei costi (Programmazione multimodale): formulazioni CARLO MANNINO Università di Roma La Sapienza Dipartimento di Informatica e Sistemistica

Dettagli

Corso di Componenti e Impianti Termotecnici LE RETI DI DISTRIBUZIONE PERDITE DI CARICO LOCALIZZATE

Corso di Componenti e Impianti Termotecnici LE RETI DI DISTRIBUZIONE PERDITE DI CARICO LOCALIZZATE LE RETI DI DISTRIBUZIONE PERDITE DI CARICO LOCALIZZATE 1 PERDITE DI CARICO LOCALIZZATE Sono le perdite di carico (o di pressione) che un fluido, in moto attraverso un condotto, subisce a causa delle resistenze

Dettagli

La distribuzione Normale. La distribuzione Normale

La distribuzione Normale. La distribuzione Normale La Distribuzione Normale o Gaussiana è la distribuzione più importante ed utilizzata in tutta la statistica La curva delle frequenze della distribuzione Normale ha una forma caratteristica, simile ad una

Dettagli

Parte II Indice. Operazioni aritmetiche tra valori rappresentati in binario puro. Rappresentazione di numeri con segno

Parte II Indice. Operazioni aritmetiche tra valori rappresentati in binario puro. Rappresentazione di numeri con segno Parte II Indice Operazioni aritmetiche tra valori rappresentati in binario puro somma sottrazione Rappresentazione di numeri con segno modulo e segno complemento a 2 esercizi Operazioni aritmetiche tra

Dettagli

Esercizi su. Funzioni

Esercizi su. Funzioni Esercizi su Funzioni ๒ Varie Tracce extra Sul sito del corso ๓ Esercizi funz_max.cc funz_fattoriale.cc ๔ Documentazione Il codice va documentato (commentato) Leggibilità Riduzione degli errori Manutenibilità

Dettagli

Corrispondenze e funzioni

Corrispondenze e funzioni Corrispondenze e funzioni L attività fondamentale della mente umana consiste nello stabilire corrispondenze e relazioni tra oggetti; è anche per questo motivo che il concetto di corrispondenza è uno dei

Dettagli

SISTEMI DI NUMERAZIONE E CODICI

SISTEMI DI NUMERAZIONE E CODICI SISTEMI DI NUMERAZIONE E CODICI Il Sistema di Numerazione Decimale Il sistema decimale o sistema di numerazione a base dieci usa dieci cifre, dette cifre decimali, da O a 9. Il sistema decimale è un sistema

Dettagli

Funzioni funzione dominio codominio legge argomento variabile indipendente variabile dipendente

Funzioni funzione dominio codominio legge argomento variabile indipendente variabile dipendente Funzioni In matematica, una funzione f da X in Y consiste in: 1. un insieme X detto dominio di f 2. un insieme Y detto codominio di f 3. una legge che ad ogni elemento x in X associa uno ed un solo elemento

Dettagli

risulta (x) = 1 se x < 0.

risulta (x) = 1 se x < 0. Questo file si pone come obiettivo quello di mostrarvi come lo studio di una funzione reale di una variabile reale, nella cui espressione compare un qualche valore assoluto, possa essere svolto senza necessariamente

Dettagli

1 Applicazioni Lineari tra Spazi Vettoriali

1 Applicazioni Lineari tra Spazi Vettoriali 1 Applicazioni Lineari tra Spazi Vettoriali Definizione 1 (Applicazioni lineari) Si chiama applicazione lineare una applicazione tra uno spazio vettoriale ed uno spazio vettoriale sul campo tale che "!$%!

Dettagli

Matematica 1 - Corso di Laurea in Ingegneria Meccanica

Matematica 1 - Corso di Laurea in Ingegneria Meccanica Matematica 1 - Corso di Laurea in Ingegneria Meccanica Esercitazione su massimi e minimi vincolati 9 dicembre 005 Esercizio 1. Considerare l insieme C = {(x,y) R : (x + y ) = x } e dire se è una curva

Dettagli

Domande a scelta multipla 1

Domande a scelta multipla 1 Domande a scelta multipla Domande a scelta multipla 1 Rispondete alle domande seguenti, scegliendo tra le alternative proposte. Cercate di consultare i suggerimenti solo in caso di difficoltà. Dopo l elenco

Dettagli

Mercati finanziari e valore degli investimenti

Mercati finanziari e valore degli investimenti 7 Mercati finanziari e valore degli investimenti Problemi teorici. Nei mercati finanziari vengono vendute e acquistate attività. Attraverso tali mercati i cambiamenti nella politica del governo e le altre

Dettagli

Il modello generale di commercio internazionale

Il modello generale di commercio internazionale Capitolo 6 Il modello generale di commercio internazionale [a.a. 2013/14] adattamento italiano di Novella Bottini (ulteriore adattamento di Giovanni Anania) 6-1 Struttura della presentazione Domanda e

Dettagli

4. Operazioni elementari per righe e colonne

4. Operazioni elementari per righe e colonne 4. Operazioni elementari per righe e colonne Sia K un campo, e sia A una matrice m n a elementi in K. Una operazione elementare per righe sulla matrice A è una operazione di uno dei seguenti tre tipi:

Dettagli

2 Argomenti introduttivi e generali

2 Argomenti introduttivi e generali 1 Note Oltre agli esercizi di questa lista si consiglia di svolgere quelli segnalati o assegnati sul registro e genericamente quelli presentati dal libro come esercizio o come esempio sugli argomenti svolti

Dettagli

LEZIONE 3. Ing. Andrea Ghedi AA 2009/2010. Ing. Andrea Ghedi AA 2009/2010

LEZIONE 3. Ing. Andrea Ghedi AA 2009/2010. Ing. Andrea Ghedi AA 2009/2010 LEZIONE 3 "Educare significa aiutare l'animo dell'uomo ad entrare nella totalità della realtà. Non si può però educare se non rivolgendosi alla libertà, la quale definisce il singolo, l'io. Quando uno

Dettagli

Matematica e Statistica

Matematica e Statistica Matematica e Statistica Prova d esame (0/07/03) Università di Verona - Laurea in Biotecnologie - A.A. 0/3 Matematica e Statistica Prova di MATEMATICA (0/07/03) Università di Verona - Laurea in Biotecnologie

Dettagli

Lezione 8. La macchina universale

Lezione 8. La macchina universale Lezione 8 Algoritmi La macchina universale Un elaboratore o computer è una macchina digitale, elettronica, automatica capace di effettuare trasformazioni o elaborazioni su i dati digitale= l informazione

Dettagli

4 3 4 = 4 x 10 2 + 3 x 10 1 + 4 x 10 0 aaa 10 2 10 1 10 0

4 3 4 = 4 x 10 2 + 3 x 10 1 + 4 x 10 0 aaa 10 2 10 1 10 0 Rappresentazione dei numeri I numeri che siamo abituati ad utilizzare sono espressi utilizzando il sistema di numerazione decimale, che si chiama così perché utilizza 0 cifre (0,,2,3,4,5,6,7,8,9). Si dice

Dettagli

PROGETTO INDAGINE DI OPINIONE SUL PROCESSO DI FUSIONE DEI COMUNI NEL PRIMIERO

PROGETTO INDAGINE DI OPINIONE SUL PROCESSO DI FUSIONE DEI COMUNI NEL PRIMIERO PROGETTO INDAGINE DI OPINIONE SUL PROCESSO DI FUSIONE DEI COMUNI NEL PRIMIERO L indagine si è svolta nel periodo dal 26 agosto al 16 settembre 2014 con l obiettivo di conoscere l opinione dei residenti

Dettagli

2 + (σ2 - ρσ 1 ) 2 > 0 [da -1 ρ 1] b = (σ 2. 2 - ρσ1 σ 2 ) = (σ 1

2 + (σ2 - ρσ 1 ) 2 > 0 [da -1 ρ 1] b = (σ 2. 2 - ρσ1 σ 2 ) = (σ 1 1 PORTAFOGLIO Portafoglio Markowitz (2 titoli) (rischiosi) due titoli rendimento/varianza ( μ 1, σ 1 ), ( μ 2, σ 2 ) Si suppone μ 1 > μ 2, σ 1 > σ 2 portafoglio con pesi w 1, w 2 w 1 = w, w 2 = 1- w 1

Dettagli

Introduzione agli Algoritmi Genetici Prof. Beatrice Lazzerini

Introduzione agli Algoritmi Genetici Prof. Beatrice Lazzerini Introduzione agli Algoritmi Genetici Prof. Beatrice Lazzerini Dipartimento di Ingegneria della Informazione Via Diotisalvi, 2 56122 PISA ALGORITMI GENETICI (GA) Sono usati per risolvere problemi di ricerca

Dettagli

Note su quicksort per ASD 2010-11 (DRAFT)

Note su quicksort per ASD 2010-11 (DRAFT) Note su quicksort per ASD 010-11 (DRAFT) Nicola Rebagliati 7 dicembre 010 1 Quicksort L algoritmo di quicksort è uno degli algoritmi più veloci in pratica per il riordinamento basato su confronti. L idea

Dettagli

Capitolo 2 Distribuzioni di frequenza

Capitolo 2 Distribuzioni di frequenza Edizioni Simone - Vol. 43/1 Compendio di statistica Capitolo 2 Distribuzioni di frequenza Sommario 1. Distribuzioni semplici. - 2. Distribuzioni doppie. - 3. Distribuzioni parziali: condizionate e marginali.

Dettagli

CONCETTO DI LIMITE DI UNA FUNZIONE REALE

CONCETTO DI LIMITE DI UNA FUNZIONE REALE CONCETTO DI LIMITE DI UNA FUNZIONE REALE Il limite di una funzione è uno dei concetti fondamentali dell'analisi matematica. Tramite questo concetto viene formalizzata la nozione di funzione continua e

Dettagli

Codifiche a lunghezza variabile

Codifiche a lunghezza variabile Sistemi Multimediali Codifiche a lunghezza variabile Marco Gribaudo marcog@di.unito.it, gribaudo@elet.polimi.it Assegnazione del codice Come visto in precedenza, per poter memorizzare o trasmettere un

Dettagli

Probabilità discreta

Probabilità discreta Probabilità discreta Daniele A. Gewurz 1 Che probabilità c è che succeda...? Una delle applicazioni della combinatoria è nel calcolo di probabilità discrete. Quando abbiamo a che fare con un fenomeno che

Dettagli

Corso di Matematica per la Chimica

Corso di Matematica per la Chimica Dott.ssa Maria Carmela De Bonis a.a. 203-4 I sistemi lineari Generalità sui sistemi lineari Molti problemi dell ingegneria, della fisica, della chimica, dell informatica e dell economia, si modellizzano

Dettagli

Capitolo 25: Lo scambio nel mercato delle assicurazioni

Capitolo 25: Lo scambio nel mercato delle assicurazioni Capitolo 25: Lo scambio nel mercato delle assicurazioni 25.1: Introduzione In questo capitolo la teoria economica discussa nei capitoli 23 e 24 viene applicata all analisi dello scambio del rischio nel

Dettagli

Scheduling della CPU. Sistemi multiprocessori e real time Metodi di valutazione Esempi: Solaris 2 Windows 2000 Linux

Scheduling della CPU. Sistemi multiprocessori e real time Metodi di valutazione Esempi: Solaris 2 Windows 2000 Linux Scheduling della CPU Sistemi multiprocessori e real time Metodi di valutazione Esempi: Solaris 2 Windows 2000 Linux Sistemi multiprocessori Fin qui si sono trattati i problemi di scheduling su singola

Dettagli

Complemento al corso di Fondamenti di Informatica I corsi di laurea in ingegneria, settore dell informazione Università la Sapienza Consorzio Nettuno

Complemento al corso di Fondamenti di Informatica I corsi di laurea in ingegneria, settore dell informazione Università la Sapienza Consorzio Nettuno Rappresentazione di numeri Complemento al corso di Fondamenti di Informatica I corsi di laurea in ingegneria, settore dell informazione Università la Sapienza Consorzio Nettuno Un numero e un entità teorica,

Dettagli

Introduzione all analisi dei segnali digitali.

Introduzione all analisi dei segnali digitali. Introduzione all analisi dei segnali digitali. Lezioni per il corso di Laboratorio di Fisica IV Isidoro Ferrante A.A. 2001/2002 1 Segnali analogici Si dice segnale la variazione di una qualsiasi grandezza

Dettagli

PROCESSO DI INDICIZZAZIONE SEMANTICA

PROCESSO DI INDICIZZAZIONE SEMANTICA PROCESSO DI INDICIZZAZIONE SEMANTICA INDIVIDUAZIONE DEI TEMI/CONCETTI SELEZIONE DEI TEMI/CONCETTI ESPRESSIONE DEI CONCETTI NEL LINGUAGGIO DI INDICIZZAZIONE TIPI DI INDICIZZAZIONE SOMMARIZZAZIONE INDICIZZAZIONE

Dettagli

Sistemi Informativi Territoriali. Map Algebra

Sistemi Informativi Territoriali. Map Algebra Paolo Mogorovich Sistemi Informativi Territoriali Appunti dalle lezioni Map Algebra Cod.735 - Vers.E57 1 Definizione di Map Algebra 2 Operatori locali 3 Operatori zonali 4 Operatori focali 5 Operatori

Dettagli

ELABORAZIONE DI DATI TRIDIMENSIONALI - RELAZIONE HOMEWORK 2

ELABORAZIONE DI DATI TRIDIMENSIONALI - RELAZIONE HOMEWORK 2 DAVIDE ZANIN 1035601 ELABORAZIONE DI DATI TRIDIMENSIONALI - RELAZIONE HOMEWORK 2 SOMMARIO Elaborazione di dati tridimensionali - Relazione Homework 2... 1 Obiettivo... 2 Descrizione della procedura seguita...

Dettagli

ESAME DI STATO DI LICEO SCIENTIFICO CORSO SPERIMENTALE P.N.I. 2004

ESAME DI STATO DI LICEO SCIENTIFICO CORSO SPERIMENTALE P.N.I. 2004 ESAME DI STAT DI LICE SCIENTIFIC CRS SPERIMENTALE P.N.I. 004 Il candidato risolva uno dei due problemi e 5 dei 0 quesiti in cui si articola il questionario. PRBLEMA Sia la curva d equazione: ke ove k e

Dettagli

La Programmazione Lineare

La Programmazione Lineare 4 La Programmazione Lineare 4.1 INTERPRETAZIONE GEOMETRICA DI UN PROBLEMA DI PROGRAMMAZIONE LINEARE Esercizio 4.1.1 Fornire una rappresentazione geometrica e risolvere graficamente i seguenti problemi

Dettagli

Automazione Industriale (scheduling+mms) scheduling+mms. adacher@dia.uniroma3.it

Automazione Industriale (scheduling+mms) scheduling+mms. adacher@dia.uniroma3.it Automazione Industriale (scheduling+mms) scheduling+mms adacher@dia.uniroma3.it Introduzione Sistemi e Modelli Lo studio e l analisi di sistemi tramite una rappresentazione astratta o una sua formalizzazione

Dettagli

Parte 2. Determinante e matrice inversa

Parte 2. Determinante e matrice inversa Parte. Determinante e matrice inversa A. Savo Appunti del Corso di Geometria 013-14 Indice delle sezioni 1 Determinante di una matrice, 1 Teorema di Cramer (caso particolare), 3 3 Determinante di una matrice

Dettagli

~ Copyright Ripetizionando - All rights reserved ~ http://ripetizionando.wordpress.com STUDIO DI FUNZIONE

~ Copyright Ripetizionando - All rights reserved ~ http://ripetizionando.wordpress.com STUDIO DI FUNZIONE STUDIO DI FUNZIONE Passaggi fondamentali Per effettuare uno studio di funzione completo, che non lascia quindi margine a una quasi sicuramente errata inventiva, sono necessari i seguenti 7 passaggi: 1.

Dettagli

LE FIBRE DI UNA APPLICAZIONE LINEARE

LE FIBRE DI UNA APPLICAZIONE LINEARE LE FIBRE DI UNA APPLICAZIONE LINEARE Sia f:a B una funzione tra due insiemi. Se y appartiene all immagine di f si chiama fibra di f sopra y l insieme f -1 y) ossia l insieme di tutte le controimmagini

Dettagli

Teoria dei Giochi. Anna Torre

Teoria dei Giochi. Anna Torre Teoria dei Giochi Anna Torre Almo Collegio Borromeo 26 marzo 2015 email: anna.torre@unipv.it sito web del corso:www-dimat.unipv.it/atorre/borromeo2015.html COOPERAZIONE Esempio: strategie correlate e problema

Dettagli

CAPITOLO 8 LA VERIFICA D IPOTESI. I FONDAMENTI

CAPITOLO 8 LA VERIFICA D IPOTESI. I FONDAMENTI VERO FALSO CAPITOLO 8 LA VERIFICA D IPOTESI. I FONDAMENTI 1. V F Un ipotesi statistica è un assunzione sulle caratteristiche di una o più variabili in una o più popolazioni 2. V F L ipotesi nulla unita

Dettagli

Capitolo 4: Ottimizzazione non lineare non vincolata parte II. E. Amaldi DEIB, Politecnico di Milano

Capitolo 4: Ottimizzazione non lineare non vincolata parte II. E. Amaldi DEIB, Politecnico di Milano Capitolo 4: Ottimizzazione non lineare non vincolata parte II E. Amaldi DEIB, Politecnico di Milano 4.3 Algoritmi iterativi e convergenza Programma non lineare (PNL): min f(x) s.v. g i (x) 0 1 i m x S

Dettagli

Esame di Stato 2015 - Tema di Matematica

Esame di Stato 2015 - Tema di Matematica Esame di Stato 5 - Tema di Matematica PROBLEMA Il piano tariffario proposto da un operatore telefonico prevede, per le telefonate all estero, un canone fisso di euro al mese, più centesimi per ogni minuto

Dettagli

Lezione 10: Il problema del consumatore: Preferenze e scelta ottimale

Lezione 10: Il problema del consumatore: Preferenze e scelta ottimale Corso di Scienza Economica (Economia Politica) prof. G. Di Bartolomeo Lezione 10: Il problema del consumatore: Preferenze e scelta ottimale Facoltà di Scienze della Comunicazione Università di Teramo Scelta

Dettagli

Strutturazione logica dei dati: i file

Strutturazione logica dei dati: i file Strutturazione logica dei dati: i file Informazioni più complesse possono essere composte a partire da informazioni elementari Esempio di una banca: supponiamo di voler mantenere all'interno di un computer

Dettagli

Testi di Esercizi e Quesiti 1

Testi di Esercizi e Quesiti 1 Architettura degli Elaboratori, 2009-2010 Testi di Esercizi e Quesiti 1 1. Una rete logica ha quattro variabili booleane di ingresso a 0, a 1, b 0, b 1 e due variabili booleane di uscita z 0, z 1. La specifica

Dettagli

Metodi Matematici e Informatici per la Biologia----31 Maggio 2010

Metodi Matematici e Informatici per la Biologia----31 Maggio 2010 Metodi Matematici e Informatici per la Biologia----31 Maggio 2010 COMPITO 4 (3 CREDITI) Nome: Cognome: Matricola: ISTRUZIONI Gli esercizi che seguono sono di tre tipi: Domande Vero/Falso: cerchiate V o

Dettagli

RICERCA OPERATIVA GRUPPO B prova scritta del 22 marzo 2007

RICERCA OPERATIVA GRUPPO B prova scritta del 22 marzo 2007 RICERCA OPERATIVA GRUPPO B prova scritta del 22 marzo 2007 Rispondere alle seguenti domande marcando a penna la lettera corrispondente alla risposta ritenuta corretta (una sola tra quelle riportate). Se

Dettagli

General Linear Model. Esercizio

General Linear Model. Esercizio Esercizio General Linear Model Una delle molteplici applicazioni del General Linear Model è la Trend Surface Analysis. Questa tecnica cerca di individuare, in un modello di superficie, quale tendenza segue

Dettagli

Ricerca Operativa Esercizi sul metodo del simplesso. Luigi De Giovanni, Laura Brentegani

Ricerca Operativa Esercizi sul metodo del simplesso. Luigi De Giovanni, Laura Brentegani Ricerca Operativa Esercizi sul metodo del simplesso Luigi De Giovanni, Laura Brentegani 1 1) Risolvere il seguente problema di programmazione lineare. ma + + 3 s.t. 2 + + 2 + 2 + 3 5 2 + 2 + 6,, 0 Soluzione.

Dettagli

LEZIONE n. 5 (a cura di Antonio Di Marco)

LEZIONE n. 5 (a cura di Antonio Di Marco) LEZIONE n. 5 (a cura di Antonio Di Marco) IL P-VALUE (α) Data un ipotesi nulla (H 0 ), questa la si può accettare o rifiutare in base al valore del p- value. In genere il suo valore è un numero molto piccolo,

Dettagli

Metodologia per l analisi dei dati sperimentali L analisi di studi con variabili di risposta multiple: Regressione multipla

Metodologia per l analisi dei dati sperimentali L analisi di studi con variabili di risposta multiple: Regressione multipla Il metodo della regressione può essere esteso dal caso in cui si considera la variabilità della risposta della y in relazione ad una sola variabile indipendente X ad una situazione più generale in cui

Dettagli

1) Si consideri un esperimento che consiste nel lancio di 5 dadi. Lo spazio campionario:

1) Si consideri un esperimento che consiste nel lancio di 5 dadi. Lo spazio campionario: Esempi di domande risposta multipla (Modulo II) 1) Si consideri un esperimento che consiste nel lancio di 5 dadi. Lo spazio campionario: 1) ha un numero di elementi pari a 5; 2) ha un numero di elementi

Dettagli