Impiego di classificatori nell analisi di immagini

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Impiego di classificatori nell analisi di immagini"

Transcript

1 Impiego di classificatori nell analisi di immagini Davide Devescovi 1 La classificazione Con il termine classificazione si intende una procedura statistica che permette di associare ciascun oggetto (che sia un immagine, un pattern, un dato numerico... ), appartenente a un generico spazio multidimensionale, a una o più etichette, corrispondenti alle possibili classi di cui può far parte un oggetto; si parla di classificazione esclusiva quando ciascun oggetto può appartenere a una sola classe, o di classificazione continua o fuzzy se un oggetto può appartenere, con un certo grado di probabilità, a più classi. Per ottenere una classificazione si usano le informazioni riguardanti alcuni tratti salienti (feature, caratteristiche) degli oggetti in esame, e li si confronta, in un apposito spazio multidimensionale, con quelli di un training set: se questo training set è etichettato, e quindi le possibili classi sono note e ogni campione nel set è già associato alla classe di appartenenza, si parla di apprendimento supervisionato; in caso contrario, cioè quando le possibili classi vanno direttamente ricavate dai dati stessi, abbiamo a che fare con apprendimento non supervisionato. Una formalizzazione del problema di classificazione può essere la seguente: partendo da una serie di dati di addestramento {(x 1,y), (x 2,y),..., (x n,y) } si deve produrre un classificatore h: X Y che realizzi il mappaggio di nuovi elementi x X sulle etichette y Y. 2 Tipologie di classificatori I metodi di classificazione sono decisamente numerosi, anche a causa del fatto che più classificatori possono essere combinati tra loro (vedi paragrafo 2.6), ma in generale possiamo identificare due tipi principali di approcci: quello statistico e quello sintattico. Il primo approccio cerca in genere di massimizzare la probabilità a posteriori (cioè la probabilità che un campione appartenga a una data classe, che sarà quindi quella scelta), ad esempio a partire dalle stime (ottenute dal trainig set) delle probabilità a priori delle classi e delle probabilità condizionali (qual è la probabilità che il prossimo pattern osservato sia x se la sua classe di appartenenza è W), come nel caso dei classificatori Bayesiani, (paragrafo 2.1); oppure minimizzando iterativamente l errore di predizione, come fanno le reti neurali (paragrafo 2.2). Il secondo approccio, invece, è molto più pragmatico, dato che si concentra sull analisi di caratteristiche distintive degli oggetti o pattern da classificare: trattando queste feature in uno spazio multidimensionale appositamente costruito, la classificazione comporta il confronto tra le caratteristiche strutturali delle feature del campione da testare e di quelle del training set, sia con apprendimento supervisionato (ad esempio l algoritmo Nearest Neighbor, paragrafo 2.3) che non supervisionato (come nel caso del Clustering, paragrafo 2.4). 1

2 Segue quindi una lista (tutt altro che esaustiva) dei più comuni tipi di classificatori utilizzati. 2.1 Classificatori Bayesiani Come si intuisce dal nome, i classificatori Bayesiani fanno uso del teorema di Bayes per calcolare le probabilità a posteriori, stimando i dati statistici necessari a partire dal training set (addestramento supervisionato). Supponiamo di avere un insieme di possibili classi C e una serie di attributi (o feature) A 1, A 2,..., A k usati per discriminare tra le classi, e indichiamo con lettere minuscole (c, a 1... ) particolari valori assunti dalle variabili. La classificazione ottimale sarà allora quella per cui la probabilità di una certa classe, data una serie di valori assunti dagli attributi, è massima: max P r(c = c A 1 = a 1 A 2 = a 2... A k = a k ) Per il teorema di Bayes si ha che questa probabilità è uguale a: max P r(a 1 = a 1 A 2 = a 2... A k = a k C = c) P r(a 1 = a 1 A 2 = a 2... A k = a k ) P r(c = c) La probabilità a priori di avere una data classe c si può stimare facilmente dal training set (a patto che sia composto in maniera da essere rappresentativo), mentre il denominatore dell equazione è irrilevante, dato che è lo stesso per tutte le classi dell insieme C in quanto da esse indipendente. Si tratta quindi di riuscire a stimare la probabilità condizionale a numeratore per ciascuno degli attributi; fatto questo, si otterrebbe un classificatore Bayesiano ottimo, in grado di fornire la classificazione migliore in assoluto. Il problema è che tale stima è molto complicata a causa delle dipendenze tra attributi, e anche con poche feature rischia di diventare computazionalmente irrealizzabile. Per ovviare al problema si può usare un Naive Bayes Classifier che, come dice il nome, fa un ipotesi piuttosto naive sulle feature, ovvero che siano completamente indipendenti. Se questo è il caso, si ha che P r(a 1 = a 1 A 2 = a 2... A k = a k C = c) = P r(a 1 = a 1 C = c) e quindi che P r(a 1 = a 1 A 2 = a 2... A k = a k C = c) equivale a P r(a 1 = a 1 C = c)p r(a 2 = a 2 C = c)... P r(a k = a k C = c) A questo punto si può ricavare tutto il necessario dal training set, ad esempio così: P r(a j = a j C = c) = count(a j = a j C = c) count(c = c) grazie a cui si hanno a disposizione tutti i dati per calcolare le probabilità a posteriori P r(c = c A 1 = a 1...) e scegliere quindi la classe che ha probabilità maggiore. I classificatori naive sono piuttosto semplici da realizzare e non richiedono un grande carico computazionale; le assunzioni sull indipendenza delle feature sono il più delle volte irrealistiche, ma ciononostante le prestazioni di questi classificatori sono piuttosto buone se ben addestrati. 2

3 Per trovare una via di mezzo tra questi due estremi (dipendenza totale tra tutte le feature / indipendenza totale) si può usare l approccio delle Reti Bayesiane, un particolare tipo di grafi diretti aciclici che consentono di rappresentare relazioni di causalità tra feature, riuscendo a tenere in considerazione solo le dipendenze effettive tra attributi alleggerendo notevolmente il calcolo rispetto al caso di classificatore ottimale. Per approfondimenti sulle reti bayesiane e sulle ipotesi di indipendenza e causalità si può leggere questo articolo[1] dal taglio divulgativo. Qualche dettaglio in più sul Naive Bayesian Learning si trova invece in questo paper[2]. 2.2 Neural Networks Una rete neurale è un insieme di elementi (neuroni) interconnessi tra di loro in modo da ottenere un comportamento globale complesso, che è determinato appunto dalle connessioni (e dai loro pesi) e dai parametri dei neuroni. Il caso più semplice di rete neurale è il percettrone (figura 1), di fatto un singolo neurone che riceve una serie di valori in input e, in base a una funzione di attivazione, produce un determinato output; un percettrone viene addestrato modificando iterativamente i pesi degli archi di input, fino ad ottenere l output desiderato. Come Figura 1: Un percettrone è facile intuire, però, il percettrone ha potenzialità piuttosto limitate, tant è che non riesce neppure a rappresentare l operazione di XOR in quanto non linearmente separabile. Si passa quindi all utilizzo di topologie di rete più complesse, che prevedono uno strato di neuroni di input, uno strato di output e uno o più strati nascosti (figura 2); sono poi presenti varianti ricorsive, in cui cioè gli output vengono reindirizzati verso lo strato di input o gli strati nascosti. Figura 2: Un esempio di rete neurale Ciascun neurone è caratterizzato da una funzione di attivazione, che può essere scelta in base alle esigenze (step, tangente iperbolica, sigmoide... ); inoltre ciascun collegamento ha un peso che moltiplica il valore di input di quel collegamento, e proprio sui pesi si concentra la fase di addestramento della rete. Prendiamo il caso più semplice, l addestramento supervisionato: in questa situazione possiamo stabilire tutti i valori di input della rete e i rispettivi valori di output desiderati: ciò che resta da determinare sono i vari pesi, in modo da minimizzare l errore tra l output ottenuto e quello desiderato. L algoritmo più noto per l addestramento è quello della backpropagation: si parte dall errore all uscita della rete, e si calcola di quanto vanno corretti i pesi in uscita dall ultimo strato di neuroni per avvicinarsi al risultato ideale, usando una stima di massima verosimiglianza (minimizzare l errore equivale a massimizzare la probabilità dei dati ). Questa correzione può essere vista come l errore dallo strato precedente, che 3

4 quindi ripete la procedura e cerca di aggiustare a sua volta i propri pesi per avvicinarsi all output richiesto: in sostanza l errore si propaga per tutta la rete. Il procedimento viene ripetuto iterativamente, finché non viene raggiunto un errore finale ritenuto tollerabile. A questo proposito è importante notare che ottenere un errore eccessivamente piccolo non è un risultato positivo, perché in questo caso significa che la rete ha imparato a memoria i valori del training set, e se le verranno presentati nuovi dati difficilmente riuscirà a lavorare con successo perché ha perso in generalità nel corso dell addestramento. Questo problema è noto con il termine di overfitting, ed esistono alcuni metodi per ridurne l impatto, tra cui i più comuni sono l early stopping e il weight decay. L early stopping prevede che una parte del training set non venga passata alla rete per l addestramento, ma venga mantenuta nascosta per essere usata come set di validazione; dopo ogni passo di backpropagation si misura l errore sia sui dati usati nel training che sui dati nascosti : quando l overfitting entrerà in gioco si noterà che l errore sui dati di training tenderà a 0, mentre (dopo essere sceso nelle prime fasi di addestramento) quello sui dati di confronto tenderà ad aumentare nuovamente. Appena si nota un aumento dell errore sul set di validazione si deve interrompere l apprendimento, perché da quel punto in avanti la rete perderebbe in generalità e non apprenderebbe, ma si limiterebbe ad imparare a memoria. Il weight decay invece prevede un termine di penalizzazione, durante la backpropagation, per i pesi che assumono valori assoluti grandi; senza entrare nel dettaglio, basti sapere che pesi molto grandi tendono a ridurre la generalità della rete (in sostanza causano una varianza eccessiva, per cui al minimo discostarsi dai valori che la rete ha imparato l output tende a diventare imprevedibile e poco attendibile), per cui penalizzando i grandi valori assoluti si riescono a ridurre gli effetti dell overfitting. È evidente che le reti neurali possono avere una grande varietà di applicazioni: dall analisi di trend, approssimazione di funzioni, filtraggio e compressione di dati... Naturalmente uno dei loro possibili usi è la classificazione: in particolare dato un training set etichettato si può realizzare apprendimento supervisionato come spiegato in precedenza, impostando gli input (valori delle feature) e gli output desiderati (le etichette). È però anche possibile addestrare le reti in maniera non supervisionata, senza cioè fornire output desiderati: in questi casi la rete si dovrà adattare in base ai risultati ottenuti nei vari passi di addestramento; in questo modo si possono realizzare operazioni di clustering (di cui parleremo nella sezione 2.4). 2.3 Nearest Neighbor L algoritmo Nearest Neighbor è un metodo di classificazione supervisionato basato su feature riconoscibili: a ciascuna feature viene assegnata una dimensione, in modo che si formi uno spazio multidimensionale di feature. All interno di questo spazio vengono disegnate le feature estratte da un training set etichettato, in cui le classi sono note a priori. Completata questa fase di apprendimento, si analizzano i campioni da classificare: anche da questi si estraggono le feature scelte, che vengono quindi confrontate con quelle del training set nello spazio multidimensionale; un campione sarà assegnata alla classe del vicino più vicino, appunto il nearest neighbor, solitamente usando la metrica di distanza euclidea (ma altre scelte sono possibili). È chiaro che l algoritmo sarà tanto più oneroso quanto più grande è il training set e quanto maggiore è il numero di feature considerate: si ha a che fare evidentemente con un 4

5 trade-off, perché un training set più ampio è tendenzialmente più rappresentativo, e un alto numero di feature permette di discriminare meglio tra le possibili classi, ma a fronte di questi vantaggi la complessità dei calcoli aumenta. Sono state quindi elaborate alcune varianti dell algoritmo, principalmente per ridurre il numero di distanze da calcolare: ad esempio è possibile partizionare lo spazio di feature e misurare la distanza solo rispetto ad alcuni dei volumi così ottenuti. K-nearest neighbor è una variante che determina i k elementi più vicini: ognuno di questi vota per la classe cui appartiene, e il campione in esame verrà assegnato alla classe più votata. 2.4 Clustering Con il termine clustering si denota un famiglia di metodi non supervisionati in grado di individuare raggruppamenti intrinseci (cluster) tra i dati nello spazio multidimensonale, e di creare in corrispondenza di tali raggruppamenti le classi. Queste classi sono inizialmente incognite, e non è noto nemmeno il loro numero, cosa che rende il problema decisamente complesso. I metodi di clustering possono essere ricondotti a due famiglie: Clustering gerarchico: attraverso operazioni di tipo bottom-up o top-down organizza i dati in una sequenza innestata di gruppi che possono essere visualizzati come un albero. Clustering partizionale: individua (solitamente attraverso algoritmi euristici iterativi) delle partizioni che minimizzano un dato criterio di clustering, ad esempio la somma dei quadrati degli errori. Comuni a entrambe le famiglie sono i criteri di clustering che si possono scegliere per specificare il grado di ottimalità di ogni soluzione ammissibile; a seconda del criterio scelto esistono poi vari algoritmi di clustering che forniscono una procedura per determinare le soluzioni che lo ottimizzano. La maggior parte dei criteri di clustering sono definiti sulla base delle due osservazioni seguenti: i pattern all interno dello stesso cluster devono essere tra loro più simili rispetto a pattern appartenenti a cluster diversi; i cluster sono costituiti da nuvole di punti a densità relativamente elevata, separate da zone dove la densità è più bassa. Tra i diversi criteri possibili: somma dei quadrati degli errori: minimizza i quadrati delle distanze dai centri delle classi (detto anche criterio di minima varianza). altri criteri basati su varianza intraclasse: si tratta di una famiglia di metodi tutti tesi a minimizzare la varianza all interno delle classi. criteri basati su scattering: tendono a minimizzare la varianza intraclasse e allo stesso tempo a massimizzare quella inter-classe Clustering gerarchico Il clustering gerarchico opera in maniera simile al modo di eseguire classificazione in tassonomia biologica, dove ad esempio gli insetti vengono gerarchicamente classificati specializzandone le specie a partire da famiglie molto ampie fino a famiglie molto più ridotte. 5

6 Gli algoritmi possono essere bottom-up (agglomerativi) o top-down (divisivi). Nel primo caso si parte cercando di aggregare singoli elementi e ad ogni passo (livello) si fondono in un cluster gli elementi o i sotto-cluster che sono tra loro più simili rispetto a un determinato criterio. Nel secondo (più complesso e quindi meno utilizzato) si parte con un singolo cluster e ad ogni livello si suddividono in sotto-cluster Figura 3: Clustering gerarchico gli elementi più diversi. In entrambi i casi il risultato può essere rappresentato attraverso un albero. I metodi gerarchici (tra i più noti possiamo citare Single-Link e Complete-Link) sono nella pratica utilizzati soprattutto quando i pattern sono discretizzati e non appartengono a uno spazio metrico. In tal caso infatti criteri di somiglianza ad-hoc possono essere implementati per controllare l aggregazione e la divisione Clustering partizionale Gli algoritmi più comunemente utilizzati sono K-means (o la sua variante Fuzzy C-means) e Expectation-Maximization (EM). K-means Si tratta di un metodo molto semplice computazionalmente e altrettanto semplice da implementare, che ottimizza il criterio somma dei quadrati degli errori. Nella sua versione base, l algoritmo può essere così descritto: - genera K cluster e determinane il centro; oppure genera direttamente K punti da usare come centri dei cluster; - assegna ciascun punto al cluster il cui centro è più vicino, in base al criterio di distanza scelto (euclidea, Mahalonobis... ); - ricalcola i centri dei cluster come media delle coordinate di tutti i punti che vi appartengono; - ripeti finché il criterio di terminazione non è soddisfatto (in genere il criterio di terminazione prevede che i centri rimangano costanti, e che quindi le partizioni non cambino tra due passi successivi). Questo algoritmo tende a convergere piuttosto rapidamente (è raro che occorrano più di 10 passi) e a fornire risultati piuttosto buoni, a patto di partire da una soluzione iniziale ragionevole. K-means ha alcuni svantaggi: innanzitutto il numero di classi K deve essere noto a priori; inoltre l ottimizzazione è iterativa e locale, quindi si può avere convergenza su un massimo locale della soluzione. La variante fuzzy del K-means consente a un pattern di appartenere con un certo grado di probabilità a diverse classi; questa variante fornisce a volte una convergenza più robusta verso la soluzione finale, ma soffre in sostanza degli stessi problemi della versione standard di K-means. Diverse varianti sono state proposte per risolvere questi problemi: ad esempio per minimizzare il rischio di convergenza verso minimi locali l algoritmo può essere eseguito tante 6

7 volte a partire da soluzioni iniziali diverse, casuali o magari prodotte da un metodo evoluzionistico (algoritmo genetico). Le tecniche di clustering validation (la determinazione del numero di classi senza che questa informazione sia nota), invece, tendono a valutare a posteriori la bontà delle soluzioni prodotte per diversi valori di K, e a sceglierne una sulla base di un criterio di validazione che tenga conto sia della bontà della soluzione sia della sua complessità. Expectation-Maximization Il metodo di Expectation-Maximization si basa sull ipotesi che i dati nello spazio siano stati generati da un mix di distribuzioni, cioè che ogni classe abbia generato dati in accordo con una specifica distribuzione, ma al termine della generazione i pattern appaiono come prodotti da un unica distribuzione multi-modale. Obiettivo del clustering attraverso EM è quello di risalire (a partire dai pattern del training set) ai parametri delle singole distribuzioni che li hanno generati. A tal fine si ipotizza nota la forma delle distribuzioni e si assume, per semplicità, che esse siano tutte dello stesso tipo: il caso più frequente è quello di mix di s distribuzioni multinormali (gaussiane) di cui si vogliono stimare dai dati i parametri di definizione. EM è nato per il calcolo della massima verosomiglianza (maximum likelihood) nel caso in cui i dati a disposizione X={x 1,x 2,...x n } siano incompleti a causa della mancanza di alcuni valori Y={y 1,y 2,...y n }. Pertanto ogni pattern completo z i =[x i, y i ], i=1..n è costituito da due parti di cui solo la prima è nota. In realtà in alcuni casi, ad esempio quando si devono derivare i parametri delle distribuzioni gaussiane, i dati sono completi, ma le potenzialità di EM vengono sfruttate per rendere trattabile la complessità della massimizzazione. L algoritmo consiste di due passi, che vengono ripetuti iterativamente fino a convergenza: nel passo di Expectation viene calcolato il valore atteso del log likelihood completo: log L(θ Z) = log L(θ X, Y ) = log P r(x, Y θ) a partire dal training set e da una stima iniziale dei parametri θ; nel passo di Maximization viene calcolato il set di valori di parametri che massimizza il valore atteso ottenuto nel passo di Expectation. Questo set di valori viene usato come stima di parametri nel successivo passo di Expectation. L algoritmo converge sempre, ma corre il rischio di cadere in un ottimo locale; inoltre, come per k-means, con alcune soluzioni iniziali si possono ottenere cattivi risultati, e non è semplice determinare il numero ottimale di cluster se non sono noti a priori. 7

8 2.5 Altri tipi di classificatori Esistono molte altre tipologie di classificatori; fra queste vale la pena di citare Support Vector Machines e Discriminant Analysis (DA). SVM è un algoritmo per la classificazione supervisionata che cerca di risolvere il problema di individuare l iperpiano di separazione ottimo tra due classi, ovvero quell iperpiano che separa, con il massimo margine, gli elementi di una classe da quelli dell altra, in modo da poter poi applicare questo stesso iperpiano a nuovi campioni che gli vengano sottoposti. Quando si ha a che fare con classi linearmente separabili non sorgono particolari problemi; se invece Figura 4: SVM ricerca l iperpiano di separazione ottimo si tratta con classi non lineramente separabili bisogna usare una sorta di trucco, modificando l algoritmo di SVM in modo che cerchi l iperpiano in spazi di dimensionalità superiore: se due classi non sono linearmente separabili nel nostro spazio multidimensionale, è però probabile che lo siano se aumentiamo la dimensionalità. Inoltre è da notare il fatto che SVM operi solo nel caso di due classi; esistono però alcuni sistemi che consentono di ottenere buoni risultati anche nel caso generico di n classi. DA è un metodo per trovare la combinazione lineare di feature che meglio divide due o più classi; può essere usata come un classificatore lineare, ma più spesso per la riduzione di dimensionalità per una successiva classificazione: in questo caso il suo scopo è cercare di ottenere un set di feature più piccolo rispetto all originale, ma che sia comunque altrettanto rappresentativo, in modo da ridurre la complessità computazionale. 2.6 Multiclassificatori Un multiclassificatore è un sistema in cui diversi classificatori sono utilizzati (normalmente in parallelo, ma talvolta anche in cascata o in modo gerarchico) per eseguire la classificazione dei pattern; le decisioni dei singoli classificatori sono quindi fuse ad un qualche livello della catena di classificazione. Recentemente è stato dimostrato (teoricamente ma soprattutto nella pratica) che l utilizzo di combinazioni di classificatori (in inglese multiclassifier, combination of classifiers, classifier fusion) può migliorare, talvolta anche molto marcatamente, le prestazioni di un singolo classificatore. Pertanto può essere opportuno, anziché spendere mesi per migliorare di un epsilon l accuratezza del proprio classificatore, affiancare ad esso altri classificatori basati su feature/algoritmi diversi. La combinazione è comunque efficace solo nel caso in cui i singoli classificatori siano in qualche modo indipendenti tra loro, ovvero non commettano tutti lo stesso tipo di errori. L indipendenza (o diversità) è normalmente ottenuta cercando di: Utilizzare feature diverse per identificare i pattern Utilizzare algoritmi diversi per l estrazione delle feature Utilizzare diversi algoritmi di classificazione 8

9 Addestrare lo stesso algoritmo di classificazione su training set diversi (bagging) Insistere nell addestramento di alcuni classificatori con i pattern più frequentemente erroneamente classificati (boosting) La combinazione dei classificatori può essere eseguita a livello di decisione o a livello di confidenza Fusione a livello di decisione Ogni singolo classificatore fornisce in output la propria decisione, che consiste della classe cui ha assegnato il pattern e opzionalmente del livello di affidabilità della classificazione eseguita (ovvero di quanto il classificatore si sente sicuro della decisione presa). Le decisioni possono essere tra loro combinate in diversi modi (schemi di voto, schemi basati su ranking,... ). Uno dei più noti e semplici metodi di fusione è la cosiddetta majority vote rule: ogni classificatore vota per una classe, e il pattern viene assegnato alla classe maggiormente votata; l affidabilità del multi-classificatore può essere calcolata mediando le singole confidenze. Nel borda count, invece, ogni classificatore produce una classifica o ranking delle classi (dalla prima all ultima) a seconda della probabilità che a ciascuna di esse appartenga il pattern da classificare. I ranking vengono convertiti in punteggi che vengono tra loro sommati, e la classe con il più elevato punteggio finale è quella scelta dal multi-classificatore. prestazioni Fusione a livello di confidenza Ogni singolo classificatore fornisce in output la confidenza di classificazione del pattern rispetto a ciascuna delle classi, ovvero un vettore di dimensionalità s in cui l i-esimo elemento indica la probabilità di appartenenza del pattern alla classe i-esima. Diversi metodi di fusione sono possibili, tra cui somma, media, prodotto, max, min. Il metodo della somma è uno dei più noti e utilizzati per la sua robustezza: prevede di eseguire la somma vettoriale dei diversi vettori confidenza, e di classificare il pattern sulla base dell elemento maggiore. Una variante molto efficace è quella della somma pesata, dove la somma dei vettori confidenza è eseguita pesando i diversi classificatori in base al loro grado di abilità: i gradi di abilità possono essere definiti in base alle singole prestazioni dei classificatori, ad esempio in maniera inversamente proporzionale all errore di classificazione. 3 Applicazioni dei classificatori nel campo dell analisi di immagini I classificatori possono essere utilizzati in diversi campi dell analisi di immagini, a partire dal semplice clustering di pixel fino a operazioni avanzate quali il riconoscimento di volti. Tuttavia l argomento è ancora campo di ricerca, e non esistono approcci standard o teorie ben consolidate: ad esempio la scelta sul tipo di classificatore da utilizzare è più che altro lasciata all intuito o all esperienza. Allo stesso modo scegliere un approccio statistico piuttosto che uno sintattico ha in ogni caso pro e contro: l approccio statistico può essere più preciso e consente di avere un indicazione probabilistica riguardo all appartenenza a 9

10 una piuttosto che a un altra classe, ma è raro che la mole di dati coinvolta nell analisi di immagini possa essere trattata in tempi ragionevoli da un approccio di questo tipo; viceversa, un approccio sintattico è più rapido, ma meno preciso e senza indicazione di probabilità per l appartenenza a una classe. In generale è quindi possibile risolvere uno stesso problema con diversi tipi di classificatori, e un certo classificatore può essere applicato a più operazioni; nei seguenti paragrafi vedremo quindi alcune delle applicazioni più comuni per i classificatori, tenendo conto che non sono necessariamente né le uniche né le migliori. 3.1 Classificazione a livello di pixel Può essere utile applicare algoritmi di classificazione a basso livello, lavorando direttamente sulle caratteristiche (di colore e intensità) dei pixel che compongono un immagine: in questa situazione le dimensionalità in gioco non sono elevate, e si può quindi pensare di utilizzare un classificatore Bayesiano. Una possibile applicazione è il riconoscimento dei pixel che rappresentano la pelle. Utilizzando istogrammi e un training set sufficientemente ampio, è infatti possibile ricavare le probabilità condizionali: la probabilità che, se abbiamo osservato un pixel di pelle, questo sia un generico pixel x si può calcolare come la percentuale di pixel di pelle presenti nel box 1 del pixel x. Le probabilità a priori delle due classi (pelle/non pelle) sono facilmente calcolabili come percentuale sul totale del training set, quindi come visto in precedenza si riesce a ottenere la probabilità a posteriori per ciacsun pixel. Un applicazione simile può essere quella necessaria nell analisi di un immagine satellitare, per cercare di associare un pixel a un tipo di terreno (boscoso, coltivato, urbano... ). Come detto in precedenza, non c è un unico sistema per un unico problema: in questo caso infatti possiamo usare gli istogrammi e un classificatore bayesiano, ma potremmo anche preferire apprendimento non supervisionato addestrando una rete neurale (in grado di rilevare relazioni non lineari), oppure usare direttamente l algoritmo K-means per clustering partizionale. 3.2 Segmentazione Il più delle volte prendere in considerazione i singoli pixel non è sufficiente, dato che molti tra i pixel presenti nell immagine saranno potenzialmente inutili (ad esempio i pixel di sfondo), e un analisi completa porta a un forte degrado delle prestazioni. È desiderabile riuscire a raggruppare i pixel correlati in una rappresentazione compatta, in modo da poter lavorare su un immagine ad alto livello, prendendo in considerazione solo determinati componenti. Le caratteristiche desiderate per queste rappresentazioni tendono a essere sempre le stesse, indipendentemente dal campo specifico di applicazione: il numero di componenti in un immagine non dovrebbe essere elevato e i componenti dovrebbero essere rappresentativi degli oggetti presenti nella scena. Il processo di ottenere questi componenti è detto segmentazione. Il problema della segmentazione si presenta in contesti diversi, e si può quindi affrontare in modi altrettando diversi. Ad esempio si parla di segmentazione quando si vuole rias- 1 Ricordiamo che un istogramma divide uno spazio di colori (RGB, grayscale,... ) in una serie di box. Ad esempio, per l intensità in scala di grigio una possibile divisione in box può essere 0-64, , ,

11 sumere il contenuto di un video, dividendolo in sequenze di frame simili e scegliendo un frame rappresentativo per ogni sequenza: il video è così riassunto da questi frame. In questo caso si fa uso di algoritmi di Shot Boundary Detection per rilevare il cambiamento di scena; algoritmi di questo tipo sono ad esempio implementati da codec di tipo MPEG-4 (quali DivX, XviD... ) per rilevare le posizioni migliori in cui inserire un key frame 2. Un ulteriore possibile applicazione della segmentazione è il cosiddetto Background Subtraction (figura 5): si vuole identificare solo la parte di immagine rilevante, sottraendo i pixel che rappresentano lo sfondo, che non contiene informazioni utili, confrontando una serie di fotogrammi successivi della stessa scena, in cui lo sfondo può venire parzialmente coperto da oggetti in movimento. Sempre grazie alla segmentazione si può cercare di rilevare la Figura 5: Background Subtraction presenza di una persona (problema tutt ora aperto) considerandola come unione di più segmenti (braccia, gambe, torso): nell immagine questi segmenti corrisponderanno a regioni uniformi (se i vestiti non hanno texture particolari), quindi sarà opportuno segmentare l immagine cercando zone dello stesso colore. Per identificare edifici in immagini satellitari si può segmentare l immagine in regioni poligonali, così come per il tracking di automobili in video di sorveglianza stradale e di controllo del traffico; e per cercare di rilevare una determinata parte meccanica si può cominciare a cercarne le componenti, che il più delle volte corrisponderanno a linee o cerchi. L approccio più naturale al problema della segmentazione è quello del clustering, dato che il nostro scopo è rappresentare un immagine in termini di cluster di pixel che hanno una relazione tra loro, non solo a livello di caratteristiche intrinseche (colore, intensità... ) ma anche spaziali (distanze, disposizioni nello spazio... ); possiamo quindi usare algoritmi di clustering (gerarchici o partizonali). In particolare vengono spesso utilizzati sia K-means che EM, visto che i metodi gerarchici faticano a gestire il grande numero di pixel presente senza fare uso di qualche tecnica per riassumere i dati più significativi. K-means può essere applicato scegliendo una determinata misura di distanza, ad esempio una che consideri sia il colore che la posizione di un pixel, in modo da suddividere l immagine nei suoi componenti principali; anche EM si può applicare in questo caso, per ottenere segmentazione di colori o texture, ponendo il problema in termini di dati mancanti. Si può ipotizzare che ogni pixel sia generato da una particolare distribuzione di probabilità scelta fra N possibili (dove N è il numero di segmenti che compone l immagine); ognuna di queste distribuzioni è una gaussiana con determinati parametri incogniti 2 Un key frame è un fotogramma che viene memorizzato nella sua interezza; i fotogrammi seguenti, per risparmiare spazio, vengono definiti in funzione del keyframe, specificando quali pixel differiscono e di quanto. 11

12 che vogliamo ricavare, in modo da poter risalire a quale segmento ha generato quale pixel, ovvero ottenere una segmentazione dell immagine. Un altro modo per realizzare una segmentazione è tramite il model fitting, ovvero sostenere che un gruppo di pixel deve essere considerato un segmento in quanto appartiene a un determinato modello, ad esempio una linea o una circonferenza. In questo caso il modello è esplicito, e il livello di astrazione si alza: per esempio non è possibile cercare gruppi di punti che formano una linea guardando solo alle relazioni tra coppie di punti, come avviene invece nel clustering puro. Tuttavia è possibile applicare una versione modificata di K-means per il fitting di linee: anziché partire da K centri, si ipotizzano K rette nell immagine, e a ogni passo si associa un punto alla retta più vicina, ricalcolando poi la retta come interpolazione dei punti. In maniera simile a quanto visto per la segmentazione, anche EM si può adattare al fitting di linee. EM può però essere applicato anche nel caso di Motion Segmentation, cioè quando si vuole determinare il movimento compiuto dai pixel confrontando due immagini successive: ci saranno regioni dell immagine che avranno compiuto lo stesso spostamento (in genere, punti alla stessa distanza dalla telecamera si sposteranno allo stesso modo nell immagine; i punti dello sfondo si sposteranno di poco, quelli di oggetti in primo piano subiranno spostamenti più significativi), e quindi si potranno identificare diversi Motion Fields, segmentando di fatto l immagine. Infine EM può essere anche usato nel Background Subtraction cui abbiamo accennato in precedenza, ponendo il problema come un problema di dati mancanti; facciamo finta che le immagini successive della nostra scena siano sempre lo stesso frame a cui è stato aggiunto di volta in volta del rumore: in questo modo tutto ciò che è rumore non fa parte dello sfondo, e usando i valori attesi dei dati mancanti possiamo ricostruire (e quindi sottrarre) il background. 3.3 Object Recognition L altro campo che analizzeremo è quello dell Object Recognition. Si tratta di un settore molto complicato, che include in realtà un gran numero di sottoproblemi e di diversi approcci, in cui ancora non esistono standard o soluzioni generali veramente efficaci. I classificatori entrano spesso in gioco in questo contesto, alcune volte in maniera determinante, altre volte facendo da supporto per ottimizzare altre tecniche Pose Consistency Questo approccio cerca di riconoscere un oggetto nell immagine ipotizzando un mappaggio tra le feature geometriche dell oggetto e quelle visualizzate nell immagine, stimando quindi la posa dell oggetto nell ambiente. In particolare si definiscono frame groups quei gruppi di feature considerati sufficientemente caratteristici, ad esempio tre punti, o tre direzioni e un punto. Un semplice algoritmo è il seguente: per ciascun frame group nell oggetto e per ciascun frame group nell immagine si usano le possibili corrispondenze per stimare una posa dell oggetto e ricostruirlo, riproiettandolo sull immagine; se questa retroproiezione è consistente, abbiamo trovato l oggetto nella posa ipotizzata. Chiaramente verrà scelta la posa per cui l aderenza della retroproiezione all immagine è massima. È chiaro che il numero di possibili corrispondenze da calcolare potrà essere piuttosto elevato: un sistema che si può usare per ridurlo è il Pose Clustering. In genere un oggetto avrà molti frame group, e quindi ci saranno molte corrispondenze tra oggetto e immagine 12

13 che indicheranno la stessa posa. Viceversa, le corrispondenze errate, dovute a rumore, indicheranno pose completamente diverse e isolate. Anziché verificare tutte le possibili pose, si può quindi effettuare una sorta di clustering delle pose, andando ad analizzare solo quelle più votate, cioè più frequenti nel corso dell analisi. In realtà questo sistema non si tratta di un vero e proprio classificatore, in quanto è un semplice sistema di voto per ridurre l albero di ricerca Template Matching Nei problemi di Object Recognition capita di frequente di cercare oggetti dalla forma semplice e contenuti stilizzati, quali ad esempio un volto umano (tendenzialmente un ovale al cui interno troviamo caratteristiche più o meno comuni: occhi, bocca, sopracciglia, fronte... ): l idea del template matching è verificare se l oggetto è presente in tutte le finestre di una determinata dimensione (ad esempio rettangolare) all interno di un immagine. Se non si conoscono grandezza e orientamento dell oggetto, si può ruotare o scalare la finestra di ricerca per tenerne conto (aumentando però i tempi di computazione). I metodi più semplici di template matching prevedono una semplice correlazione a livello di pixel tra un immagine campione e la finestra di ricerca; in genere i risultati possono essere buoni in casi molto specifici (condizioni di illuminazione costanti, stessa prospettiva sotto cui l oggetto è inquadrato... ), ma in casi più generali è opportuno usare dei classificatori addestrati con un buon numero di esempi. La scelta del classificatore da usare è piuttosto ampia, ad esempio sono stati realizzati rilevatori di volti usando reti neurali. In particolare, una prima rete neurale è usata per stimare l orientamento del volto, quindi una seconda rete si occupa di trovare il volto vero e proprio. Questo metodo funziona però solo con volti inquadrati frontalmente e in condizioni di illuminazione uniformi, che vanno assicurate o al momento della ripresa o tramite postprocessing sull immagine acquisita. Per poter individuare un generico oggetto, in Figura 6: Riconoscimento di volti condizioni di illuminazione generica e da un punto di vista qualunque è necessario un enorme numero di esempi, e il tempo di computazione non può che risentirne. Una strada forse più promettente è quella di lavorare nello spazio delle feature. Usando SVM, ad esempio, è stato ideato un algoritmo in grado di rilevare dei pedoni in immagini urbane o comunque con sfondo generico. Sempre nel campo del rilevamento di volti si è pensato all utilizzo di multiclassificatori: una cascata di classificatori che sfruttano la tecnica di boosting (vedi paragrafo 2.6) e lavorano sulle cosiddette Haar-like features riescono a riconoscere con discreta rapidità la presenza di un volto. La stessa tecnica si può estendere a un generico oggetto (ad esempio un automobile). Un applicazione molto interessante è quella del riconoscimento real-time di una classe di oggetti grazie a un vocabolario visuale appreso; l apprendimento si basa su un set di 13

14 immagini segmentate ed etichettate 3, mentre il riconoscimento effettua clustering nello spazio delle feature. Il rilevamento dell oggetto è molto rapido e indipendente da illuminazione, punto di vista o colore. Altre informazioni e alcuni video dimostrativi sul sito di Microsoft Research[3]. Un altro metodo di cui vale la pena parlare è il Principal Component Analysis: si tratta di un parente del Discriminant Analysis, dato che è utilizzato per la riduzione dimensionale dello spazio delle feature. Usando PCA si ricavano nuove feature come funzioni lineari delle originali; queste nuove feature occuperanno uno spazio dimensionale più ridotto, in cui è ad esempio possibile applicare un classificatore tipo Nearest Neighbor per identificare un oggetto. L idea di PCA è basata sul fatto che l uomo è in grado di riconoscere un numero enorme di volti, evidentemente riuscendo a farlo solo sulla base di pochi parametri; allo stesso modo PCA consente di ricavare da un immagine delle Eigenpictures (da Eigenvector, autovettore) che riassumono le informazioni più importanti dell immagine. Questo sistema è stato applicato per l identificazione di volti (non solo il rilevamento di un volto, ma anche l associazione del volto a una determinata persona) con risultati piuttosto buoni, anche se a fronte di un training set di oltre 2500 immagini (con diverse espressioni facciali, inquadrature, illuminazioni... ) per 16 individui Relational Matching I Relational Matchers tentano di descrivere un oggetto in base alle relazioni tra template caratteristici che lo compongono: anziché considerare un template unico, che risulterebbe il più delle volte troppo complesso per essere riconosciuto direttamente, si considerano template più ridotti che sono in qualche modo collegati tra loro: ad esempio anziché cercare di riconoscere direttamente una faccia intera si possono localizzare speratamente occhi, naso e bocca. I possibili template rilevati vengono messi in relazioni con metodi probabilistici, incrementando di volta in volta l assemblato complessivo: ad esempio si parte da quello che si ritiene essere un occhio, dopodiché si aggiunge la bocca (se questa rispetta i vincoli imposti dal modello), e così via, fino a ottenere l oggetto completo. In questa situazione un classificatore addestrato su un gran numero di esempi può venire utilizzato per ridurre il numero di ricerche da effettuare, eliminando a priori le ipotesi che non porteranno mai a una ricostruzione sensata. Il problema dell approccio di Relational Matching è che difficilmente è in grado di gestire oggetti complessi, dato che per ora questi sistemi funzionano abbastanza bene con oggetti semplici (quali appunto un volto), e sembra difficile riuscire a costruire matcher per modelli più complicati. 3 Esiste anche un algoritmo, LOCUS, che pare possa funzionare con apprendimento non supervisionato, cioè con immagini non etichettate. 14

15 4 Conclusioni I classificatori trovano ampio uso in vari campi della computer vision, e molte volte vengono usati in congiunzione con altre tecniche (geometriche, probabilistiche) di analisi di immagini, ad esempio per focalizzare l analisi (riducendo il peso computazionale). Finora non esistono standard o linee guida per quel che riguarda la scelta del tipo di classificatore, né per la configurazione di uno specifico classificatore: in genere l approccio migliore è valutare la tipologia di problema e provare a utilizzare il tipo di classificatore più adatto, eventualmente anche aggiustandolo e ottimizzandolo con un po di trial and error. Per quel che riguarda il processing real-time, molti dei classificatori e delle applicazioni visti richiedono una buona dose di computazioni, quindi non è semplice raggiungere il tempo reale; d altro canto buoni risultati sembrano ottenibili con multiclassificatori e classificatori a cascata (si veda ad esempio questo paper su real-time object detection[4]). Riferimenti bibliografici [1] Eugene Charniak, Bayesian Networks without Tears [2] Charles Elkan, Naive Bayesian Learning reperibile su [3] Microsoft Research Cambridge, [4] Paul Viola, Michael Jones, Robust Real Time Object Detection reperibile su [5] Davide Forsyth, Jean Ponce, Computer Vision: a Modern Approach. Prentice-Hall, [6] Various Wikipedia entries 15

Pro e contro delle RNA

Pro e contro delle RNA Pro e contro delle RNA Pro: - flessibilità: le RNA sono approssimatori universali; - aggiornabilità sequenziale: la stima dei pesi della rete può essere aggiornata man mano che arriva nuova informazione;

Dettagli

APPUNTI DI MATEMATICA LE FRAZIONI ALGEBRICHE ALESSANDRO BOCCONI

APPUNTI DI MATEMATICA LE FRAZIONI ALGEBRICHE ALESSANDRO BOCCONI APPUNTI DI MATEMATICA LE FRAZIONI ALGEBRICHE ALESSANDRO BOCCONI Indice 1 Le frazioni algebriche 1.1 Il minimo comune multiplo e il Massimo Comun Divisore fra polinomi........ 1. Le frazioni algebriche....................................

Dettagli

risulta (x) = 1 se x < 0.

risulta (x) = 1 se x < 0. Questo file si pone come obiettivo quello di mostrarvi come lo studio di una funzione reale di una variabile reale, nella cui espressione compare un qualche valore assoluto, possa essere svolto senza necessariamente

Dettagli

Corso di. Dott.ssa Donatella Cocca

Corso di. Dott.ssa Donatella Cocca Corso di Statistica medica e applicata Dott.ssa Donatella Cocca 1 a Lezione Cos'è la statistica? Come in tutta la ricerca scientifica sperimentale, anche nelle scienze mediche e biologiche è indispensabile

Dettagli

Ricerca di outlier. Ricerca di Anomalie/Outlier

Ricerca di outlier. Ricerca di Anomalie/Outlier Ricerca di outlier Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Ricerca di Anomalie/Outlier Cosa sono gli outlier? L insieme di dati che sono considerevolmente differenti dalla

Dettagli

4 3 4 = 4 x 10 2 + 3 x 10 1 + 4 x 10 0 aaa 10 2 10 1 10 0

4 3 4 = 4 x 10 2 + 3 x 10 1 + 4 x 10 0 aaa 10 2 10 1 10 0 Rappresentazione dei numeri I numeri che siamo abituati ad utilizzare sono espressi utilizzando il sistema di numerazione decimale, che si chiama così perché utilizza 0 cifre (0,,2,3,4,5,6,7,8,9). Si dice

Dettagli

Capitolo 2. Operazione di limite

Capitolo 2. Operazione di limite Capitolo 2 Operazione di ite In questo capitolo vogliamo occuparci dell operazione di ite, strumento indispensabile per scoprire molte proprietà delle funzioni. D ora in avanti riguarderemo i domini A

Dettagli

Capitolo 13: L offerta dell impresa e il surplus del produttore

Capitolo 13: L offerta dell impresa e il surplus del produttore Capitolo 13: L offerta dell impresa e il surplus del produttore 13.1: Introduzione L analisi dei due capitoli precedenti ha fornito tutti i concetti necessari per affrontare l argomento di questo capitolo:

Dettagli

Librerie digitali. Video. Gestione di video. Caratteristiche dei video. Video. Metadati associati ai video. Metadati associati ai video

Librerie digitali. Video. Gestione di video. Caratteristiche dei video. Video. Metadati associati ai video. Metadati associati ai video Video Librerie digitali Gestione di video Ogni filmato è composto da più parti Video Audio Gestito come visto in precedenza Trascrizione del testo, identificazione di informazioni di interesse Testo Utile

Dettagli

Raccomandazione del Parlamento europeo 18/12/2006 CLASSE PRIMA COMPETENZE ABILITÀ CONOSCENZE. Operare con i numeri

Raccomandazione del Parlamento europeo 18/12/2006 CLASSE PRIMA COMPETENZE ABILITÀ CONOSCENZE. Operare con i numeri COMPETENZA CHIAVE MATEMATICA Fonte di legittimazione Raccomandazione del Parlamento europeo 18/12/2006 CLASSE PRIMA COMPETENZE ABILITÀ CONOSCENZE L alunno utilizza il calcolo scritto e mentale con i numeri

Dettagli

VC-dimension: Esempio

VC-dimension: Esempio VC-dimension: Esempio Quale è la VC-dimension di. y b = 0 f() = 1 f() = 1 iperpiano 20? VC-dimension: Esempio Quale è la VC-dimension di? banale. Vediamo cosa succede con 2 punti: 21 VC-dimension: Esempio

Dettagli

ELABORAZIONE DI DATI TRIDIMENSIONALI - RELAZIONE HOMEWORK 2

ELABORAZIONE DI DATI TRIDIMENSIONALI - RELAZIONE HOMEWORK 2 DAVIDE ZANIN 1035601 ELABORAZIONE DI DATI TRIDIMENSIONALI - RELAZIONE HOMEWORK 2 SOMMARIO Elaborazione di dati tridimensionali - Relazione Homework 2... 1 Obiettivo... 2 Descrizione della procedura seguita...

Dettagli

Analisi e diagramma di Pareto

Analisi e diagramma di Pareto Analisi e diagramma di Pareto L'analisi di Pareto è una metodologia statistica utilizzata per individuare i problemi più rilevanti nella situazione in esame e quindi le priorità di intervento. L'obiettivo

Dettagli

Dimensione di uno Spazio vettoriale

Dimensione di uno Spazio vettoriale Capitolo 4 Dimensione di uno Spazio vettoriale 4.1 Introduzione Dedichiamo questo capitolo ad un concetto fondamentale in algebra lineare: la dimensione di uno spazio vettoriale. Daremo una definizione

Dettagli

Regressione non lineare con un modello neurale feedforward

Regressione non lineare con un modello neurale feedforward Reti Neurali Artificiali per lo studio del mercato Università degli studi di Brescia - Dipartimento di metodi quantitativi Marco Sandri (sandri.marco@gmail.com) Regressione non lineare con un modello neurale

Dettagli

Webinar e Manuale Operativo Tecnica di Trading

Webinar e Manuale Operativo Tecnica di Trading Webinar e Manuale Operativo Tecnica di Trading Intraday guida passo passo per operare su time frame H1 e 5/15/30 min v.1.2 29 Novembre 2011 19:30 Premessa Per fare trading ci vuole la giusta mentalità

Dettagli

I motori di ricerca. Che cosa sono. Stefania Marrara Corso di Sistemi Informativi

I motori di ricerca. Che cosa sono. Stefania Marrara Corso di Sistemi Informativi I motori di ricerca Stefania Marrara Corso di Sistemi Informativi a.a 2002/2003 Che cosa sono Un motore di ricerca è uno strumento per mezzo del quale è possibile ricercare alcuni termini (parole) all

Dettagli

Il concetto di valore medio in generale

Il concetto di valore medio in generale Il concetto di valore medio in generale Nella statistica descrittiva si distinguono solitamente due tipi di medie: - le medie analitiche, che soddisfano ad una condizione di invarianza e si calcolano tenendo

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 4 Reti neurali per la classificazione Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com

Dettagli

Esercizi su. Funzioni

Esercizi su. Funzioni Esercizi su Funzioni ๒ Varie Tracce extra Sul sito del corso ๓ Esercizi funz_max.cc funz_fattoriale.cc ๔ Documentazione Il codice va documentato (commentato) Leggibilità Riduzione degli errori Manutenibilità

Dettagli

Introduzione. Classificazione di Flynn... 2 Macchine a pipeline... 3 Macchine vettoriali e Array Processor... 4 Macchine MIMD... 6

Introduzione. Classificazione di Flynn... 2 Macchine a pipeline... 3 Macchine vettoriali e Array Processor... 4 Macchine MIMD... 6 Appunti di Calcolatori Elettronici Esecuzione di istruzioni in parallelo Introduzione... 1 Classificazione di Flynn... 2 Macchine a pipeline... 3 Macchine vettoriali e Array Processor... 4 Macchine MIMD...

Dettagli

Algoritmi di clustering

Algoritmi di clustering Algoritmi di clustering Dato un insieme di dati sperimentali, vogliamo dividerli in clusters in modo che: I dati all interno di ciascun cluster siano simili tra loro Ciascun dato appartenga a uno e un

Dettagli

Analisi dei requisiti e casi d uso

Analisi dei requisiti e casi d uso Analisi dei requisiti e casi d uso Indice 1 Introduzione 2 1.1 Terminologia........................... 2 2 Modello del sistema 4 2.1 Requisiti hardware........................ 4 2.2 Requisiti software.........................

Dettagli

TRAGUARDI PER LO SVILUPPO DELLE COMPETENZE AL TERMINE DELLA SCUOLA PRIMARIA

TRAGUARDI PER LO SVILUPPO DELLE COMPETENZE AL TERMINE DELLA SCUOLA PRIMARIA SCUOLA PRIMARIA DI CORTE FRANCA MATEMATICA CLASSE QUINTA TRAGUARDI PER LO SVILUPPO DELLE COMPETENZE AL TERMINE DELLA SCUOLA PRIMARIA L ALUNNO SVILUPPA UN ATTEGGIAMENTO POSITIVO RISPETTO ALLA MATEMATICA,

Dettagli

Sommario. Definizione di informatica. Definizione di un calcolatore come esecutore. Gli algoritmi.

Sommario. Definizione di informatica. Definizione di un calcolatore come esecutore. Gli algoritmi. Algoritmi 1 Sommario Definizione di informatica. Definizione di un calcolatore come esecutore. Gli algoritmi. 2 Informatica Nome Informatica=informazione+automatica. Definizione Scienza che si occupa dell

Dettagli

~ Copyright Ripetizionando - All rights reserved ~ http://ripetizionando.wordpress.com STUDIO DI FUNZIONE

~ Copyright Ripetizionando - All rights reserved ~ http://ripetizionando.wordpress.com STUDIO DI FUNZIONE STUDIO DI FUNZIONE Passaggi fondamentali Per effettuare uno studio di funzione completo, che non lascia quindi margine a una quasi sicuramente errata inventiva, sono necessari i seguenti 7 passaggi: 1.

Dettagli

SVM. Veronica Piccialli. Roma 11 gennaio 2010. Università degli Studi di Roma Tor Vergata 1 / 14

SVM. Veronica Piccialli. Roma 11 gennaio 2010. Università degli Studi di Roma Tor Vergata 1 / 14 SVM Veronica Piccialli Roma 11 gennaio 2010 Università degli Studi di Roma Tor Vergata 1 / 14 SVM Le Support Vector Machines (SVM) sono una classe di macchine di che derivano da concetti riguardanti la

Dettagli

Il Problem-Based Learning dalla pratica alla teoria

Il Problem-Based Learning dalla pratica alla teoria Il Problem-Based Learning dalla pratica alla teoria Il Problem-based learning (apprendimento basato su un problema) è un metodo di insegnamento in cui un problema costituisce il punto di inizio del processo

Dettagli

Domande a scelta multipla 1

Domande a scelta multipla 1 Domande a scelta multipla Domande a scelta multipla 1 Rispondete alle domande seguenti, scegliendo tra le alternative proposte. Cercate di consultare i suggerimenti solo in caso di difficoltà. Dopo l elenco

Dettagli

Automazione Industriale (scheduling+mms) scheduling+mms. adacher@dia.uniroma3.it

Automazione Industriale (scheduling+mms) scheduling+mms. adacher@dia.uniroma3.it Automazione Industriale (scheduling+mms) scheduling+mms adacher@dia.uniroma3.it Introduzione Sistemi e Modelli Lo studio e l analisi di sistemi tramite una rappresentazione astratta o una sua formalizzazione

Dettagli

Il database management system Access

Il database management system Access Il database management system Access Corso di autoistruzione http://www.manualipc.it/manuali/ corso/manuali.php? idcap=00&idman=17&size=12&sid= INTRODUZIONE Il concetto di base di dati, database o archivio

Dettagli

GUIDA AL CALCOLO DEI COSTI DELLE ATTIVITA DI RICERCA DOCUMENTALE

GUIDA AL CALCOLO DEI COSTI DELLE ATTIVITA DI RICERCA DOCUMENTALE GUIDA AL CALCOLO DEI COSTI DELLE ATTIVITA DI RICERCA DOCUMENTALE L applicazione elaborata da Nordest Informatica e disponibile all interno del sito è finalizzata a fornirvi un ipotesi dell impatto economico

Dettagli

Indice. pagina 2 di 10

Indice. pagina 2 di 10 LEZIONE PROGETTAZIONE ORGANIZZATIVA DOTT.SSA ROSAMARIA D AMORE Indice PROGETTAZIONE ORGANIZZATIVA---------------------------------------------------------------------------------------- 3 LA STRUTTURA

Dettagli

ISTITUTO COMPRENSIVO MONTEGROTTO TERME SCUOLA PRIMARIA DISCIPLINA: MATEMATICA - CLASSE PRIMA OBIETTIVI DI APPRENDIMENTO

ISTITUTO COMPRENSIVO MONTEGROTTO TERME SCUOLA PRIMARIA DISCIPLINA: MATEMATICA - CLASSE PRIMA OBIETTIVI DI APPRENDIMENTO PRIMA DELLA DISCIPLINA: MATEMATICA - CLASSE PRIMA L alunno si muove con sicurezza nel calcolo scritto e mentale con i numeri naturali. Legge e comprende testi che coinvolgono aspetti logici e matematici.

Dettagli

Stima per intervalli Nei metodi di stima puntuale è sempre presente un ^ errore θ θ dovuto al fatto che la stima di θ in genere non coincide con il parametro θ. Sorge quindi l esigenza di determinare una

Dettagli

La distribuzione Normale. La distribuzione Normale

La distribuzione Normale. La distribuzione Normale La Distribuzione Normale o Gaussiana è la distribuzione più importante ed utilizzata in tutta la statistica La curva delle frequenze della distribuzione Normale ha una forma caratteristica, simile ad una

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Computazione per l interazione naturale: macchine che apprendono Corso di Interazione Naturale! Prof. Giuseppe Boccignone! Dipartimento di Informatica Università di Milano! boccignone@di.unimi.it boccignone.di.unimi.it/in_2015.html

Dettagli

Siamo così arrivati all aritmetica modulare, ma anche a individuare alcuni aspetti di come funziona l aritmetica del calcolatore come vedremo.

Siamo così arrivati all aritmetica modulare, ma anche a individuare alcuni aspetti di come funziona l aritmetica del calcolatore come vedremo. DALLE PESATE ALL ARITMETICA FINITA IN BASE 2 Si è trovato, partendo da un problema concreto, che con la base 2, utilizzando alcune potenze della base, operando con solo addizioni, posso ottenere tutti

Dettagli

VALORE DELLE MERCI SEQUESTRATE

VALORE DELLE MERCI SEQUESTRATE La contraffazione in cifre: NUOVA METODOLOGIA PER LA STIMA DEL VALORE DELLE MERCI SEQUESTRATE Roma, Giugno 2013 Giugno 2013-1 Il valore economico dei sequestri In questo Focus si approfondiscono alcune

Dettagli

Elementi di Psicometria con Laboratorio di SPSS 1

Elementi di Psicometria con Laboratorio di SPSS 1 Elementi di Psicometria con Laboratorio di SPSS 1 29-Analisi della potenza statistica vers. 1.0 (12 dicembre 2014) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca

Dettagli

Fasi di creazione di un programma

Fasi di creazione di un programma Fasi di creazione di un programma 1. Studio Preliminare 2. Analisi del Sistema 6. Manutenzione e Test 3. Progettazione 5. Implementazione 4. Sviluppo 41 Sviluppo di programmi Per la costruzione di un programma

Dettagli

Introduzione all analisi dei segnali digitali.

Introduzione all analisi dei segnali digitali. Introduzione all analisi dei segnali digitali. Lezioni per il corso di Laboratorio di Fisica IV Isidoro Ferrante A.A. 2001/2002 1 Segnali analogici Si dice segnale la variazione di una qualsiasi grandezza

Dettagli

per immagini guida avanzata Uso delle tabelle e dei grafici Pivot Geometra Luigi Amato Guida Avanzata per immagini excel 2000 1

per immagini guida avanzata Uso delle tabelle e dei grafici Pivot Geometra Luigi Amato Guida Avanzata per immagini excel 2000 1 Uso delle tabelle e dei grafici Pivot Geometra Luigi Amato Guida Avanzata per immagini excel 2000 1 Una tabella Pivot usa dati a due dimensioni per creare una tabella a tre dimensioni, cioè una tabella

Dettagli

Metodi statistici per le ricerche di mercato

Metodi statistici per le ricerche di mercato Metodi statistici per le ricerche di mercato Prof.ssa Isabella Mingo A.A. 2014-2015 Facoltà di Scienze Politiche, Sociologia, Comunicazione Corso di laurea Magistrale in «Organizzazione e marketing per

Dettagli

Algoritmi e strutture dati. Codici di Huffman

Algoritmi e strutture dati. Codici di Huffman Algoritmi e strutture dati Codici di Huffman Memorizzazione dei dati Quando un file viene memorizzato, esso va memorizzato in qualche formato binario Modo più semplice: memorizzare il codice ASCII per

Dettagli

CORSO ACCESS PARTE II. Esistono diversi tipi di aiuto forniti con Access, generalmente accessibili tramite la barra dei menu (?)

CORSO ACCESS PARTE II. Esistono diversi tipi di aiuto forniti con Access, generalmente accessibili tramite la barra dei menu (?) Ambiente Access La Guida di Access Esistono diversi tipi di aiuto forniti con Access, generalmente accessibili tramite la barra dei menu (?) Guida in linea Guida rapida Assistente di Office indicazioni

Dettagli

Probabilità discreta

Probabilità discreta Probabilità discreta Daniele A. Gewurz 1 Che probabilità c è che succeda...? Una delle applicazioni della combinatoria è nel calcolo di probabilità discrete. Quando abbiamo a che fare con un fenomeno che

Dettagli

Strumenti di indagine per la valutazione psicologica

Strumenti di indagine per la valutazione psicologica Strumenti di indagine per la valutazione psicologica 2.2 Mettere a punto un test psicologico Davide Massidda davide.massidda@gmail.com Da dove partire C'è davvero bisogno di un nuovo strumento di misura?

Dettagli

Strutturazione logica dei dati: i file

Strutturazione logica dei dati: i file Strutturazione logica dei dati: i file Informazioni più complesse possono essere composte a partire da informazioni elementari Esempio di una banca: supponiamo di voler mantenere all'interno di un computer

Dettagli

Determinare la grandezza della sottorete

Determinare la grandezza della sottorete Determinare la grandezza della sottorete Ogni rete IP possiede due indirizzi non assegnabili direttamente agli host l indirizzo della rete a cui appartiene e l'indirizzo di broadcast. Quando si creano

Dettagli

Corrispondenze e funzioni

Corrispondenze e funzioni Corrispondenze e funzioni L attività fondamentale della mente umana consiste nello stabilire corrispondenze e relazioni tra oggetti; è anche per questo motivo che il concetto di corrispondenza è uno dei

Dettagli

Esercitazione 1 del corso di Statistica 2 Prof. Domenico Vistocco

Esercitazione 1 del corso di Statistica 2 Prof. Domenico Vistocco Esercitazione 1 del corso di Statistica 2 Prof. Domenico Vistocco Alfonso Iodice D Enza April 26, 2007 1...prima di cominciare Contare, operazione solitamente semplice, può diventare complicata se lo scopo

Dettagli

Mete e coerenze formative. Dalla scuola dell infanzia al biennio della scuola secondaria di II grado

Mete e coerenze formative. Dalla scuola dell infanzia al biennio della scuola secondaria di II grado Mete e coerenze formative Dalla scuola dell infanzia al biennio della scuola secondaria di II grado Area disciplinare: Area Matematica Finalità Educativa Acquisire gli alfabeti di base della cultura Disciplina

Dettagli

La Videosorveglianza Criteri per il dimensionamento dello storage

La Videosorveglianza Criteri per il dimensionamento dello storage La Videosorveglianza Criteri per il dimensionamento dello storage Serie vol 1005/2010 L importanza di registrare le immagini video Il valore di un sistema di videosorveglianza non dipende solo dall abilità

Dettagli

APPUNTI SU PROBLEMI CON CALCOLO PERCENTUALE

APPUNTI SU PROBLEMI CON CALCOLO PERCENTUALE APPUNTI SU PROBLEMI CON CALCOLO PERCENTUALE 1. Proporzionalità diretta e proporzionalità inversa Analizziamo le seguenti formule Peso Lordo = Peso Netto + Tara Ricavo = Utile + Costo Rata = Importo + Interesse

Dettagli

Aprire WEKA Explorer Caricare il file circletrain.arff Selezionare random split al 66% come modalità di test Selezionare J48 come classificatore e

Aprire WEKA Explorer Caricare il file circletrain.arff Selezionare random split al 66% come modalità di test Selezionare J48 come classificatore e Alberi di decisione Aprire WEKA Explorer Caricare il file circletrain.arff Selezionare random split al 66% come modalità di test Selezionare J48 come classificatore e lanciarlo con i parametri di default.

Dettagli

ColorSplitter. La separazione automatica dei colori di Colibri.. Perché ColorSplitter? Come opera ColorSplitter?

ColorSplitter. La separazione automatica dei colori di Colibri.. Perché ColorSplitter? Come opera ColorSplitter? ColorSplitter La separazione automatica dei colori di Colibri.. ColorSplitter è una nuova funzionalità aggiunta a Colibri, che permette di elaborare un immagine trasformandola in una separata in canali

Dettagli

Traduzione e adattamento a cura di Gylas per Giochi Rari

Traduzione e adattamento a cura di Gylas per Giochi Rari Traduzione e adattamento a cura di Gylas per Giochi Rari Versione 1.0 Luglio 2001 NOTA. La presente traduzione non sostituisce in alcun modo il regolamento originale del gioco; il presente documento è

Dettagli

Obiettivo Principale: Aiutare gli studenti a capire cos è la programmazione

Obiettivo Principale: Aiutare gli studenti a capire cos è la programmazione 4 LEZIONE: Programmazione su Carta a Quadretti Tempo della lezione: 45-60 Minuti. Tempo di preparazione: 10 Minuti Obiettivo Principale: Aiutare gli studenti a capire cos è la programmazione SOMMARIO:

Dettagli

Codifiche a lunghezza variabile

Codifiche a lunghezza variabile Sistemi Multimediali Codifiche a lunghezza variabile Marco Gribaudo marcog@di.unito.it, gribaudo@elet.polimi.it Assegnazione del codice Come visto in precedenza, per poter memorizzare o trasmettere un

Dettagli

SPC e distribuzione normale con Access

SPC e distribuzione normale con Access SPC e distribuzione normale con Access In questo articolo esamineremo una applicazione Access per il calcolo e la rappresentazione grafica della distribuzione normale, collegata con tabelle di Clienti,

Dettagli

GUIDA RAPIDA PER LA COMPILAZIONE DELLA SCHEDA CCNL GUIDA RAPIDA PER LA COMPILAZIONE DELLA SCHEDA CCNL

GUIDA RAPIDA PER LA COMPILAZIONE DELLA SCHEDA CCNL GUIDA RAPIDA PER LA COMPILAZIONE DELLA SCHEDA CCNL GUIDA RAPIDA BOZZA 23/07/2008 INDICE 1. PERCHÉ UNA NUOVA VERSIONE DEI MODULI DI RACCOLTA DATI... 3 2. INDICAZIONI GENERALI... 4 2.1. Non modificare la struttura dei fogli di lavoro... 4 2.2. Cosa significano

Dettagli

PROGETTO EM.MA PRESIDIO

PROGETTO EM.MA PRESIDIO PROGETTO EM.MA PRESIDIO di PIACENZA Bentornati Il quadro di riferimento di matematica : INVALSI e TIMSS A CONFRONTO LE PROVE INVALSI Quadro di riferimento per la valutazione Quadro di riferimento per i

Dettagli

E naturale chiedersi alcune cose sulla media campionaria x n

E naturale chiedersi alcune cose sulla media campionaria x n Supponiamo che un fabbricante stia introducendo un nuovo tipo di batteria per un automobile elettrica. La durata osservata x i delle i-esima batteria è la realizzazione (valore assunto) di una variabile

Dettagli

Come masterizzare dischi con Nero 11

Come masterizzare dischi con Nero 11 Come masterizzare dischi con Nero 11 Non c è dubbio che Nero è diventato un sinonimo di masterizzatore di dischi, data la lunga esperienza sul mercato. Molte persone pensano in questo programma nel momento

Dettagli

Indice generale. OOA Analisi Orientata agli Oggetti. Introduzione. Analisi

Indice generale. OOA Analisi Orientata agli Oggetti. Introduzione. Analisi Indice generale OOA Analisi Orientata agli Oggetti Introduzione Analisi Metodi d' analisi Analisi funzionale Analisi del flusso dei dati Analisi delle informazioni Analisi Orientata agli Oggetti (OOA)

Dettagli

f(x) = 1 x. Il dominio di questa funzione è il sottoinsieme proprio di R dato da

f(x) = 1 x. Il dominio di questa funzione è il sottoinsieme proprio di R dato da Data una funzione reale f di variabile reale x, definita su un sottoinsieme proprio D f di R (con questo voglio dire che il dominio di f è un sottoinsieme di R che non coincide con tutto R), ci si chiede

Dettagli

LE FUNZIONI A DUE VARIABILI

LE FUNZIONI A DUE VARIABILI Capitolo I LE FUNZIONI A DUE VARIABILI In questo primo capitolo introduciamo alcune definizioni di base delle funzioni reali a due variabili reali. Nel seguito R denoterà l insieme dei numeri reali mentre

Dettagli

1. Scopo dell esperienza.

1. Scopo dell esperienza. 1. Scopo dell esperienza. Lo scopo di questa esperienza è ricavare la misura di tre resistenze il 4 cui ordine di grandezza varia tra i 10 e 10 Ohm utilizzando il metodo olt- Amperometrico. Tale misura

Dettagli

Slide Cerbara parte1 5. Le distribuzioni teoriche

Slide Cerbara parte1 5. Le distribuzioni teoriche Slide Cerbara parte1 5 Le distribuzioni teoriche I fenomeni biologici, demografici, sociali ed economici, che sono il principale oggetto della statistica, non sono retti da leggi matematiche. Però dalle

Dettagli

CURRICULUM SCUOLA PRIMARIA MATEMATICA

CURRICULUM SCUOLA PRIMARIA MATEMATICA Ministero dell istruzione, dell università e della ricerca Istituto Comprensivo Giulio Bevilacqua Via Cardinale Giulio Bevilacqua n 8 25046 Cazzago San Martino (Bs) telefono 030 / 72.50.53 - fax 030 /

Dettagli

Uso di base delle funzioni in Microsoft Excel

Uso di base delle funzioni in Microsoft Excel Uso di base delle funzioni in Microsoft Excel Le funzioni Una funzione è un operatore che applicato a uno o più argomenti (valori, siano essi numeri con virgola, numeri interi, stringhe di caratteri) restituisce

Dettagli

matematica probabilmente

matematica probabilmente IS science centre immaginario scientifico Laboratorio dell'immaginario Scientifico - Trieste tel. 040224424 - fax 040224439 - e-mail: lis@lis.trieste.it - www.immaginarioscientifico.it indice Altezze e

Dettagli

Corso di Informatica

Corso di Informatica Corso di Informatica Modulo T3 1-Sottoprogrammi 1 Prerequisiti Tecnica top-down Programmazione elementare 2 1 Introduzione Lo scopo di questa Unità è utilizzare la metodologia di progettazione top-down

Dettagli

Clustering. Utilizziamo per la realizzazione dell'esempio due tipologie di software:

Clustering. Utilizziamo per la realizzazione dell'esempio due tipologie di software: Esercizio Clustering Utilizziamo per la realizzazione dell'esempio due tipologie di software: - XLSTAT.xls - Cluster.exe XLSTAT.xls XLSTAT.xls è una macro di Excel che offre la possibilità di effettuare

Dettagli

5.2.1 RELAZIONI TRA TABELLE 1. 5.2.4.1 Creare una relazione uno-a-uno, uno-a-molti tra tabelle 9

5.2.1 RELAZIONI TRA TABELLE 1. 5.2.4.1 Creare una relazione uno-a-uno, uno-a-molti tra tabelle 9 5.2.1 RELAZIONI TRA TABELLE 1 5.2.4.1 Creare una relazione uno-a-uno, uno-a-molti tra tabelle 9 Il grado di un verso di un associazione indica quanti record della tabella di partenza si associano ad un

Dettagli

Lezione 8. La macchina universale

Lezione 8. La macchina universale Lezione 8 Algoritmi La macchina universale Un elaboratore o computer è una macchina digitale, elettronica, automatica capace di effettuare trasformazioni o elaborazioni su i dati digitale= l informazione

Dettagli

1. Distribuzioni campionarie

1. Distribuzioni campionarie Università degli Studi di Basilicata Facoltà di Economia Corso di Laurea in Economia Aziendale - a.a. 2012/2013 lezioni di statistica del 3 e 6 giugno 2013 - di Massimo Cristallo - 1. Distribuzioni campionarie

Dettagli

Esponenziali elogaritmi

Esponenziali elogaritmi Esponenziali elogaritmi Potenze ad esponente reale Ricordiamo che per un qualsiasi numero razionale m n prendere n>0) si pone a m n = n a m (in cui si può sempre a patto che a sia un numero reale positivo.

Dettagli

Gli attributi di STUDENTE saranno: Matricola (chiave primaria), Cognome, Nome.

Gli attributi di STUDENTE saranno: Matricola (chiave primaria), Cognome, Nome. Prof. Francesco Accarino Raccolta di esercizi modello ER Esercizio 1 Un università vuole raccogliere ed organizzare in un database le informazioni sui propri studenti in relazione ai corsi che essi frequentano

Dettagli

Regressione Mario Guarracino Data Mining a.a. 2010/2011

Regressione Mario Guarracino Data Mining a.a. 2010/2011 Regressione Esempio Un azienda manifatturiera vuole analizzare il legame che intercorre tra il volume produttivo X per uno dei propri stabilimenti e il corrispondente costo mensile Y di produzione. Volume

Dettagli

e-dva - eni-depth Velocity Analysis

e-dva - eni-depth Velocity Analysis Lo scopo dell Analisi di Velocità di Migrazione (MVA) è quello di ottenere un modello della velocità nel sottosuolo che abbia dei tempi di riflessione compatibili con quelli osservati nei dati. Ciò significa

Dettagli

LE CARATTERISTICHE DEI PRODOTTI MULTIVARIANTE

LE CARATTERISTICHE DEI PRODOTTI MULTIVARIANTE LE CARATTERISTICHE DEI PRODOTTI MULTIVARIANTE Che cosa sono e a cosa servono le caratteristiche? Oltre a descrivere le qualità di un prodotto con un testo generico (descrizione) è possibile dettagliare

Dettagli

Elementi di Psicometria con Laboratorio di SPSS 1

Elementi di Psicometria con Laboratorio di SPSS 1 Elementi di Psicometria con Laboratorio di SPSS 1 12-Il t-test per campioni appaiati vers. 1.2 (7 novembre 2014) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca

Dettagli

13. Campi vettoriali

13. Campi vettoriali 13. Campi vettoriali 1 Il campo di velocità di un fluido Il concetto di campo in fisica non è limitato ai fenomeni elettrici. In generale il valore di una grandezza fisica assegnato per ogni punto dello

Dettagli

GRUPPO MY- social media solutions / Via G.Dottori 94, Perugia / PI 03078860545

GRUPPO MY- social media solutions / Via G.Dottori 94, Perugia / PI 03078860545 Capitolo 3 - Dalla strategia al piano editoriale GRUPPO MY- social media solutions / Via G.Dottori 94, Perugia / PI 03078860545 Social Toolbox ed i contenuti presenti nel seguente documento (incluso a

Dettagli

Corso di Matematica per la Chimica

Corso di Matematica per la Chimica Dott.ssa Maria Carmela De Bonis a.a. 203-4 I sistemi lineari Generalità sui sistemi lineari Molti problemi dell ingegneria, della fisica, della chimica, dell informatica e dell economia, si modellizzano

Dettagli

CHIUSURE di MAGAZZINO di FINE ANNO

CHIUSURE di MAGAZZINO di FINE ANNO CHIUSURE di MAGAZZINO di FINE ANNO Operazioni da svolgere per il riporto delle giacenze di fine esercizio Il documento che segue ha lo scopo di illustrare le operazioni che devono essere eseguite per:

Dettagli

ESEMPIO 1: eseguire il complemento a 10 di 765

ESEMPIO 1: eseguire il complemento a 10 di 765 COMPLEMENTO A 10 DI UN NUMERO DECIMALE Sia dato un numero N 10 in base 10 di n cifre. Il complemento a 10 di tale numero (N ) si ottiene sottraendo il numero stesso a 10 n. ESEMPIO 1: eseguire il complemento

Dettagli

Testo alla base del Pitgame redatto dal prof. Yvan Lengwiler, Università di Basilea

Testo alla base del Pitgame redatto dal prof. Yvan Lengwiler, Università di Basilea Testo alla base del Pitgame redatto dal prof. Yvan Lengwiler, Università di Basilea Funzionamento di un mercato ben organizzato Nel Pitgame i giocatori che hanno poche informazioni private interagiscono

Dettagli

Federico Laschi. Conclusioni

Federico Laschi. Conclusioni Lo scopo di questa tesi è stato quello di proporre alcuni algoritmi di allocazione dinamica della capacità trasmissiva, basati su tecniche di predizione on-line dei processi di traffico. Come prima analisi

Dettagli

ARCHITETTURA DI RETE FOLEGNANI ANDREA

ARCHITETTURA DI RETE FOLEGNANI ANDREA ARCHITETTURA DI RETE FOLEGNANI ANDREA INTRODUZIONE È denominata Architettura di rete un insieme di livelli e protocolli. Le reti sono organizzate gerarchicamente in livelli, ciascuno dei quali interagisce

Dettagli

Plate Locator Riconoscimento Automatico di Targhe

Plate Locator Riconoscimento Automatico di Targhe Progetto per Laboratorio di Informatica 3 - Rimotti Daniele, Santinelli Gabriele Plate Locator Riconoscimento Automatico di Targhe Il programma plate_locator.m prende come input: l immagine della targa

Dettagli

Progettazione di un Database

Progettazione di un Database Progettazione di un Database Per comprendere il processo di progettazione di un Database deve essere chiaro il modo con cui vengono organizzati e quindi memorizzati i dati in un sistema di gestione di

Dettagli

Report di valutazione studiolegalebraggio.it

Report di valutazione studiolegalebraggio.it Roma, li 15/01/2013 Report di valutazione studiolegalebraggio.it Il presente documento è redatto allo scopo di mostrare e analizzare le performance del sito web a due mesi e mezzo dalla pubblicazione online,

Dettagli

EXPLOit Content Management Data Base per documenti SGML/XML

EXPLOit Content Management Data Base per documenti SGML/XML EXPLOit Content Management Data Base per documenti SGML/XML Introduzione L applicazione EXPLOit gestisce i contenuti dei documenti strutturati in SGML o XML, utilizzando il prodotto Adobe FrameMaker per

Dettagli

Organizzazione degli archivi

Organizzazione degli archivi COSA E UN DATA-BASE (DB)? è l insieme di dati relativo ad un sistema informativo COSA CARATTERIZZA UN DB? la struttura dei dati le relazioni fra i dati I REQUISITI DI UN DB SONO: la ridondanza minima i

Dettagli

Ottimizzazione delle interrogazioni (parte I)

Ottimizzazione delle interrogazioni (parte I) Ottimizzazione delle interrogazioni I Basi di Dati / Complementi di Basi di Dati 1 Ottimizzazione delle interrogazioni (parte I) Angelo Montanari Dipartimento di Matematica e Informatica Università di

Dettagli

03. Il Modello Gestionale per Processi

03. Il Modello Gestionale per Processi 03. Il Modello Gestionale per Processi Gli aspetti strutturali (vale a dire l organigramma e la descrizione delle funzioni, ruoli e responsabilità) da soli non bastano per gestire la performance; l organigramma

Dettagli

Quando troncare uno sviluppo in serie di Taylor

Quando troncare uno sviluppo in serie di Taylor Quando troncare uno sviluppo in serie di Taylor Marco Robutti October 13, 2014 Lo sviluppo in serie di Taylor di una funzione è uno strumento matematico davvero molto utile, e viene spesso utilizzato in

Dettagli