Feature Selection per la Classificazione

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Feature Selection per la Classificazione"

Transcript

1 1 1 Dipartimento di Informatica e Sistemistica Sapienza Università di Roma Corso di Algoritmi di Classificazione e Reti Neurali 20/11/2009, Roma

2 Outline Feature Selection per problemi di Classificazione Classificazione e Feature Selection Metodi per la Feature Selection Modelli Lineari Spider Info

3 Apprendimento Supervisionato Consideriamo una dipendenza funzionale g : X Y ed un insieme di coppie di valori (Training Set): T = {(x i, y i ) x i X, y i Y and i = 1,...,m} GOAL: Estrarre una stima ĝ di g

4 Apprendimento Supervisionato Consideriamo una dipendenza funzionale g : X Y ed un insieme di coppie di valori (Training Set): T = {(x i, y i ) x i X, y i Y and i = 1,...,m} GOAL: Estrarre una stima ĝ di g

5 Apprendimento Supervisionato Consideriamo una dipendenza funzionale g : X Y ed un insieme di coppie di valori (Training Set): T = {(x i, y i ) x i X, y i Y and i = 1,...,m} GOAL: Estrarre una stima ĝ di g

6 Problemi di Classificazione Spazio di Input diviso in k sottoinsiemi X 1,...,X k X tali che Spazio di Output Y = {1,...,k} X i X j = i, j = 1,...,k, i j GOAL: Assegnare ciascun vettore di input x al sottoinsieme a cui appartiene Classificazione Binaria: due insiemi X 1, X 2 X, tali che X 1 X 2 = +1 se x X 1 g(x) = (1) 1 se x X 2

7 Problemi di Classificazione Spazio di Input diviso in k sottoinsiemi X 1,...,X k X tali che Spazio di Output Y = {1,...,k} X i X j = i, j = 1,...,k, i j GOAL: Assegnare ciascun vettore di input x al sottoinsieme a cui appartiene Classificazione Binaria: due insiemi X 1, X 2 X, tali che X 1 X 2 = +1 se x X 1 g(x) = (1) 1 se x X 2

8 Problemi di Classificazione Spazio di Input diviso in k sottoinsiemi X 1,...,X k X tali che Spazio di Output Y = {1,...,k} X i X j = i, j = 1,...,k, i j GOAL: Assegnare ciascun vettore di input x al sottoinsieme a cui appartiene Classificazione Binaria: due insiemi X 1, X 2 X, tali che X 1 X 2 = +1 se x X 1 g(x) = (1) 1 se x X 2

9 Approssimazione di g Quattro classi di Macchine per Apprendimento: 1) Perceptron 2) MultiLayer Perceptron Networks (MLPN) 3) Radial Basis Function Networks (RBFN) 4) Support Vector Machines (SVM) Stima ĝ di g con buone capacità di generalizzazione. Una Macchina per Apprendimento generalizza bene quando ha la capacità di calcolare correttamente l input-output mapping per dati di test non inclusi nel training set.

10 Approssimazione di g Quattro classi di Macchine per Apprendimento: 1) Perceptron 2) MultiLayer Perceptron Networks (MLPN) 3) Radial Basis Function Networks (RBFN) 4) Support Vector Machines (SVM) Stima ĝ di g con buone capacità di generalizzazione. Una Macchina per Apprendimento generalizza bene quando ha la capacità di calcolare correttamente l input-output mapping per dati di test non inclusi nel training set.

11 Approssimazione di g Quattro classi di Macchine per Apprendimento: 1) Perceptron 2) MultiLayer Perceptron Networks (MLPN) 3) Radial Basis Function Networks (RBFN) 4) Support Vector Machines (SVM) Stima ĝ di g con buone capacità di generalizzazione. Una Macchina per Apprendimento generalizza bene quando ha la capacità di calcolare correttamente l input-output mapping per dati di test non inclusi nel training set.

12 Approssimazione di g Quattro classi di Macchine per Apprendimento: 1) Perceptron 2) MultiLayer Perceptron Networks (MLPN) 3) Radial Basis Function Networks (RBFN) 4) Support Vector Machines (SVM) Stima ĝ di g con buone capacità di generalizzazione. Una Macchina per Apprendimento generalizza bene quando ha la capacità di calcolare correttamente l input-output mapping per dati di test non inclusi nel training set.

13 Approssimazione di g Quattro classi di Macchine per Apprendimento: 1) Perceptron 2) MultiLayer Perceptron Networks (MLPN) 3) Radial Basis Function Networks (RBFN) 4) Support Vector Machines (SVM) Stima ĝ di g con buone capacità di generalizzazione. Una Macchina per Apprendimento generalizza bene quando ha la capacità di calcolare correttamente l input-output mapping per dati di test non inclusi nel training set.

14 Approssimazione di g Quattro classi di Macchine per Apprendimento: 1) Perceptron 2) MultiLayer Perceptron Networks (MLPN) 3) Radial Basis Function Networks (RBFN) 4) Support Vector Machines (SVM) Stima ĝ di g con buone capacità di generalizzazione. Una Macchina per Apprendimento generalizza bene quando ha la capacità di calcolare correttamente l input-output mapping per dati di test non inclusi nel training set.

15 Approssimazione di g Quattro classi di Macchine per Apprendimento: 1) Perceptron 2) MultiLayer Perceptron Networks (MLPN) 3) Radial Basis Function Networks (RBFN) 4) Support Vector Machines (SVM) Stima ĝ di g con buone capacità di generalizzazione. Una Macchina per Apprendimento generalizza bene quando ha la capacità di calcolare correttamente l input-output mapping per dati di test non inclusi nel training set.

16 Generalizzazione GENERALIZZAZIONE strettamente connessa con COMPLESSITÀ Overfitting ĝ troppo complessa approssimazione non buona di g sul Test Set Underfitting ĝ troppo semplice approssimazione non buona di g sul Training Set GOAL: Trovare complessità ottimale per ĝ (i.e. il modello più semplice che garantisce buone performance sui dati di training)

17 Generalizzazione GENERALIZZAZIONE strettamente connessa con COMPLESSITÀ Overfitting ĝ troppo complessa approssimazione non buona di g sul Test Set Underfitting ĝ troppo semplice approssimazione non buona di g sul Training Set GOAL: Trovare complessità ottimale per ĝ (i.e. il modello più semplice che garantisce buone performance sui dati di training)

18 Generalizzazione GENERALIZZAZIONE strettamente connessa con COMPLESSITÀ Overfitting ĝ troppo complessa approssimazione non buona di g sul Test Set Underfitting ĝ troppo semplice approssimazione non buona di g sul Training Set GOAL: Trovare complessità ottimale per ĝ (i.e. il modello più semplice che garantisce buone performance sui dati di training)

19 Procedure di Cross-Validation - k-fold Cross-Validation: 1) Training Set diviso in k distiti segmenti T 1,..., T k ; 2) Funzione ĝ costruita mediante un algoritmo d apprendimento utilizzando i dati da k 1 segmenti; 3) Performance testate utilizzando i segmenti rimanenti; 4) Processo iterato per ognuna delle k possibili scelte per il segmento omesso dal processo di training, e calcolo della media sui k risultati. - Leave-one-out: k uguale al numero dei dati di training GOAL: Valutare le capacità di generalizzazione di ĝ

20 Procedure di Cross-Validation - k-fold Cross-Validation: 1) Training Set diviso in k distiti segmenti T 1,..., T k ; 2) Funzione ĝ costruita mediante un algoritmo d apprendimento utilizzando i dati da k 1 segmenti; 3) Performance testate utilizzando i segmenti rimanenti; 4) Processo iterato per ognuna delle k possibili scelte per il segmento omesso dal processo di training, e calcolo della media sui k risultati. - Leave-one-out: k uguale al numero dei dati di training GOAL: Valutare le capacità di generalizzazione di ĝ

21 Curse of Dimensionality informazione contenuta nelle feature (i.e. componenti di x i contenute nel Training Set) Feature divise in tre gruppi: 1. feature irrilevanti 2. feature ridondanti 3. feature rilevanti Feature rilevanti non note a priori, molte feature incluse nel modello per descrivere al meglio il dominio. Elevato numero di features e limitato numero di esempi di training. Curse of dimensionality : dati molto sparsi e rappresentazione del fenomeno non adeguata. Costruzione di una buona approssimazione ĝ mediante un numero limitato di feature.

22 Curse of Dimensionality informazione contenuta nelle feature (i.e. componenti di x i contenute nel Training Set) Feature divise in tre gruppi: 1. feature irrilevanti 2. feature ridondanti 3. feature rilevanti Feature rilevanti non note a priori, molte feature incluse nel modello per descrivere al meglio il dominio. Elevato numero di features e limitato numero di esempi di training. Curse of dimensionality : dati molto sparsi e rappresentazione del fenomeno non adeguata. Costruzione di una buona approssimazione ĝ mediante un numero limitato di feature.

23 Curse of Dimensionality informazione contenuta nelle feature (i.e. componenti di x i contenute nel Training Set) Feature divise in tre gruppi: 1. feature irrilevanti 2. feature ridondanti 3. feature rilevanti Feature rilevanti non note a priori, molte feature incluse nel modello per descrivere al meglio il dominio. Elevato numero di features e limitato numero di esempi di training. Curse of dimensionality : dati molto sparsi e rappresentazione del fenomeno non adeguata. Costruzione di una buona approssimazione ĝ mediante un numero limitato di feature.

24 Curse of Dimensionality informazione contenuta nelle feature (i.e. componenti di x i contenute nel Training Set) Feature divise in tre gruppi: 1. feature irrilevanti 2. feature ridondanti 3. feature rilevanti Feature rilevanti non note a priori, molte feature incluse nel modello per descrivere al meglio il dominio. Elevato numero di features e limitato numero di esempi di training. Curse of dimensionality : dati molto sparsi e rappresentazione del fenomeno non adeguata. Costruzione di una buona approssimazione ĝ mediante un numero limitato di feature.

25 Curse of Dimensionality informazione contenuta nelle feature (i.e. componenti di x i contenute nel Training Set) Feature divise in tre gruppi: 1. feature irrilevanti 2. feature ridondanti 3. feature rilevanti Feature rilevanti non note a priori, molte feature incluse nel modello per descrivere al meglio il dominio. Elevato numero di features e limitato numero di esempi di training. Curse of dimensionality : dati molto sparsi e rappresentazione del fenomeno non adeguata. Costruzione di una buona approssimazione ĝ mediante un numero limitato di feature.

26 Curse of Dimensionality informazione contenuta nelle feature (i.e. componenti di x i contenute nel Training Set) Feature divise in tre gruppi: 1. feature irrilevanti 2. feature ridondanti 3. feature rilevanti Feature rilevanti non note a priori, molte feature incluse nel modello per descrivere al meglio il dominio. Elevato numero di features e limitato numero di esempi di training. Curse of dimensionality : dati molto sparsi e rappresentazione del fenomeno non adeguata. Costruzione di una buona approssimazione ĝ mediante un numero limitato di feature.

27 Feature Selection Definizione Processo per selezionare un sottoinsieme minimo di features, garantendo buone performance e una stima accurata di g sul Training Set Motivazioni: 1. riduzione dei dati 2. miglioramento della predizione 3. comprensione dei dati

28 Feature Selection in Pratica Scelta del Sottoinsieme di Features In uno spazio n-dimensionale, i metodi di feature selection cercano di trovare il migliore sottoinsieme, tra i 2 n sottoinsiemi candidati, in accordo con uno specifico criterio Problema Ricerca troppo costosa quando n diventa grande Soluzione Procedura per prevenire la ricerca esaustiva

29 Feature Selection in Pratica Scelta del Sottoinsieme di Features In uno spazio n-dimensionale, i metodi di feature selection cercano di trovare il migliore sottoinsieme, tra i 2 n sottoinsiemi candidati, in accordo con uno specifico criterio Problema Ricerca troppo costosa quando n diventa grande Soluzione Procedura per prevenire la ricerca esaustiva

30 Feature Selection in Pratica Scelta del Sottoinsieme di Features In uno spazio n-dimensionale, i metodi di feature selection cercano di trovare il migliore sottoinsieme, tra i 2 n sottoinsiemi candidati, in accordo con uno specifico criterio Problema Ricerca troppo costosa quando n diventa grande Soluzione Procedura per prevenire la ricerca esaustiva

31 Approcci Basati sul Machine Learning Suddivisi in tre diverse classi: 1. Filter: selezionano un sottoinsieme di variabili in fase di preprocessamento, senza tener conto del predittore utilizzato. 2. Wrapper: utilizzano una determinata macchina per l apprendimento come black box per determinare il potere predittivo di un sottoinsieme di variabili. 3. Metodi Embedded: Selezione delle variabili come parte del processo di training.

32 Metodi Filter Indipendenti dal predittore utilizzato per la classificazione Performance valutate solo sulla base di metriche calcolate direttamente dai dati Meno costosi dei metodi Wrapper

33 Metodi Filter: Funzione di Scoring Funzione di Scoring dato un sottoinsieme di variabili S, e un insieme di training D, la funzione di scoring F(S) calcola la rilevanza del sottoinsieme S per la classificazione. Funzione di Scoring Utilizzando questi indici per le singole feature x j con j = 1,..., n, possiamo ordinare le variabili: F(x j1 ) F(x j2 ) F(x jn ). Scelta Feature Le feature con un valore basso della funzione di scoring vengono scartate

34 Metodi Filter: Funzione di Scoring Funzione di Scoring dato un sottoinsieme di variabili S, e un insieme di training D, la funzione di scoring F(S) calcola la rilevanza del sottoinsieme S per la classificazione. Funzione di Scoring Utilizzando questi indici per le singole feature x j con j = 1,..., n, possiamo ordinare le variabili: F(x j1 ) F(x j2 ) F(x jn ). Scelta Feature Le feature con un valore basso della funzione di scoring vengono scartate

35 Un esempio di Funzione di Scoring: F-Score F-Score dato un insieme di vettori di training x i, con i = 1,..., m, indichiamo il numero di istanze positive e negative rispettivamente con n + e n. Il valore F-score viene calcolato come segue: F(i) = ( x (+) i x i ) 2 + ( x ( ) 1 n+ n + 1 k=1 (x(+) x (+) ) k,i i n 1 i x i ) 2 n k=1 (x( ) k,i x ( ) i ) 2 Significato numeratore indica la discriminazione tra le due classi il denominatore indica la discriminazione per singola classe maggiore l indice, maggiore la possibilità che la variabile considerata sia capace di discriminare.

36 Un esempio di Funzione di Scoring: F-Score F-Score dato un insieme di vettori di training x i, con i = 1,..., m, indichiamo il numero di istanze positive e negative rispettivamente con n + e n. Il valore F-score viene calcolato come segue: F(i) = ( x (+) i x i ) 2 + ( x ( ) 1 n+ n + 1 k=1 (x(+) x (+) ) k,i i n 1 i x i ) 2 n k=1 (x( ) k,i x ( ) i ) 2 Significato numeratore indica la discriminazione tra le due classi il denominatore indica la discriminazione per singola classe maggiore l indice, maggiore la possibilità che la variabile considerata sia capace di discriminare.

37 F-Score: Problema F-score non rivela la mutua informazione tra le feature

38 Metodi Wrappers Utilizza le performance di predizione di un classificatore per determinare l importanza di un sottoinsieme di variabili Necessaria una strategia di ricerca efficiente (ricerca esaustiva possibile solo se numero di variabili limitato) Costo dipende dal metodo di ricerca utilizzato

39 Strategie di Ricerca Greedy Metodi Greedy Rappresentano una classe di strategie di ricerca molto efficiente dal punto di vista computazionale Forward Selection Comincia dall insieme vuoto e include progressivamente nuove variabili Backward Elimination Comincia dall insieme completo delle feature e elimina progressivamente le variabili meno promettenti

40 Strategie di Ricerca Greedy Metodi Greedy Rappresentano una classe di strategie di ricerca molto efficiente dal punto di vista computazionale Forward Selection Comincia dall insieme vuoto e include progressivamente nuove variabili Backward Elimination Comincia dall insieme completo delle feature e elimina progressivamente le variabili meno promettenti

41 Metodi Embedded Incorporano la feature selection come parte del processo di training Problema formulato come segue: min g(w, X, Y) w R n (2) s.t. w 0 s 0 g misura le performance del classificatore selezionato, descritto dal vettore di parametri w, e dal training set (X, Y). Norma l 0 formulata come segue: w 0 = card{w i : w i 0}

42 Metodi Embedded II Problema (2) riscritto come segue: min w R n g(w, X, Y) + λs(w) (3) con λ > 0, s approssimazione di w 0. alcuni embedded methods aggiungono o rimuovono in maniera iterativa le features dai dati per approssimare una soluzione del problema (3).

43 Modelli Lineari per la Feature Selection Consideriamo due insiemi A e B in R n di m e k punti rispettivamente A e B sono rappresentati dalle matrici A R m n e B R k n : ogni punto rappresenta una riga della matrice. Vogliamo costruire un iperpiano di separazione: P = {x x R n, x T w = γ}, (4) eliminando il maggior numero di componenti possibili di w. L iperpiano di separazione P determina due semispazi aperti: - {x x R n, x T w > γ} contenente principalmente punti di A; - {x x R n, x T w < γ} contenente principalmente punti di B.

44 Modelli Lineari per la Feature Selection II Vogliamo soddisfare le seguenti disuguaglianze: Versione normalizzata: Aw > eγ, Bw < eγ (5) Aw γ + e, Bw eγ e. (6) Nelle applicazioni reali dati linearmente separabili sono difficili da trovare. Cerchiamo di soddisfare le (6), in senso approssimato: 1 min f(w, γ) = min w,γ w,γ m ( Aw + eγ + e) k (Bw eγ + e)+ 1 (7) Norma l 1 definita come segue: x 1 = n x i i=1

45 Definizione del problema Formulazione (7) equivalente alla seguente formulazione: min w,γ,y,z s.t. e T y m + et z k Aw + eγ + e y Bw eγ + e z y 0, z 0 (8) questo problema di programmazione lineare, o equivalentemente la (7), definisce un iperpiano P che soddisfa le (6) in maniera approssimata. Nella feature selection vogliamo eliminare il maggior numero possibile di elementi di w, dunque introduciamo il seguente problema: min w,γ,y,z (1 λ)( et y m + et z k ) + λ w 0 s.t. Aw + eγ + e y λ [0, 1) Bw eγ + e z y 0, z 0 (9)

46 Approssimazione della norma-zero Formulazione (9) equivalente alla seguente formulazione: min w,γ,y,z,v (1 λ)( et y m + et z k ) + λ n s(v i ) i=1 s.t. Aw + eγ + e y λ [0, 1) Bw eγ + e z v w v y 0, z 0 (10) con s : R R + funzione gradino tale che s(t) = 1 per t > 0 e s(t) = 0 per t 0. Funzione gradino discontinua, tipicamente rimpiazzata da una funzione smooth: - funzione sigmoidale; - funzione esponenziale concava; - funzione logaritmica. Per rendere il problema (9) trattabile, possibile rimpiazzare la norma l 0 con la norma l 1.

47 Formulazione ottenuta mediante Funzione Esponenziale Concava Sostituendo la funzione gradino con una funzione esponenziale concava, otteniamo il seguente problema di programmazione concava: min w,γ,y,z,v s.t. (1 λ)( et y m + et z k Aw + eγ + e y Bw eγ + e z v w v y 0, z 0 ) + λ n (1 ε αv i ) i=1 (11) con λ [0, 1).

48 Algoritmo di Frank-Wolfe Problema da risolvere min f(x) x P (12) P R n poliedro non vuoto f : R n R concava, continuamente differenziabile, limitata inferiormente su P

49 Algoritmo di Frank-Wolfe Frank-Wolfe con passo unitario (FW1) 1. Sia x 0 R n il punto iniziale; 2. Per k = 0, 1,..., se x k / arg min x P f(xk ) T x calcola una soluzione x k+1 di altrimenti ESCI. min x P f(xk ) T x Proposizione 1 L algoritmo di Frank-Wolfe con passo unitario converge a un vertice stazionario del problema (12) in un numero finito di iterazioni. [O.L. Mangasarian, Applied Mathematics and Parallel Computing, 1996]

50 Algoritmo di Frank-Wolfe Frank-Wolfe con passo unitario (FW1) 1. Sia x 0 R n il punto iniziale; 2. Per k = 0, 1,..., se x k / arg min x P f(xk ) T x calcola una soluzione x k+1 di altrimenti ESCI. min x P f(xk ) T x Proposizione 1 L algoritmo di Frank-Wolfe con passo unitario converge a un vertice stazionario del problema (12) in un numero finito di iterazioni. [O.L. Mangasarian, Applied Mathematics and Parallel Computing, 1996]

51 Spider: Informazioni Utili Software per Machine Learning in Matlab Contiene una serie di tool per la Feature Selection disponbile al sito:

52 Spider: Programmi per Feature Selection featsel: tool per effettuare il ranking delle variabili secondo uno specifico criterio rfe: eliminazione ricorsiva delle feature fsv: feature selection basata sull approssimazione della norma zero mediante formulazione esponenziale concava

53 Scaricare Lezioni lezioni disponbili al sito: rinaldi/didattica

Regressione non lineare con un modello neurale feedforward

Regressione non lineare con un modello neurale feedforward Reti Neurali Artificiali per lo studio del mercato Università degli studi di Brescia - Dipartimento di metodi quantitativi Marco Sandri (sandri.marco@gmail.com) Regressione non lineare con un modello neurale

Dettagli

VC-dimension: Esempio

VC-dimension: Esempio VC-dimension: Esempio Quale è la VC-dimension di. y b = 0 f() = 1 f() = 1 iperpiano 20? VC-dimension: Esempio Quale è la VC-dimension di? banale. Vediamo cosa succede con 2 punti: 21 VC-dimension: Esempio

Dettagli

Uno standard per il processo KDD

Uno standard per il processo KDD Uno standard per il processo KDD Il modello CRISP-DM (Cross Industry Standard Process for Data Mining) è un prodotto neutrale definito da un consorzio di numerose società per la standardizzazione del processo

Dettagli

Esperienze di Apprendimento Automatico per il corso di Intelligenza Artificiale

Esperienze di Apprendimento Automatico per il corso di Intelligenza Artificiale Esperienze di Apprendimento Automatico per il corso di lippi@dsi.unifi.it Dipartimento Sistemi e Informatica Università di Firenze Dipartimento Ingegneria dell Informazione Università di Siena Introduzione

Dettagli

Sommario. 1 Specifiche della soluzione. Davide Anastasia, Nicola Cogotti. 27 dicembre 2005

Sommario. 1 Specifiche della soluzione. Davide Anastasia, Nicola Cogotti. 27 dicembre 2005 Utilizzo delle reti neurali di tipo MLP e RBF per l approssimazione di funzioni reali di variabile reale note mediante coppie di punti (x,y) in presenza di rumore Davide Anastasia, Nicola Cogotti 27 dicembre

Dettagli

Università degli studi di Genova

Università degli studi di Genova Università degli studi di Genova Facoltà di Ingegneria TESI DI LAUREA Sviluppo di un modulo ad elevate prestazioni per Data Mining con SQL Server Relatore: Prof. Ing. Davide Anguita Correlatore: Dott.

Dettagli

Metodi incrementali. ² Backpropagation on-line. ² Lagrangiani aumentati

Metodi incrementali. ² Backpropagation on-line. ² Lagrangiani aumentati Metodi incrementali ² Backpropagation on-line ² Lagrangiani aumentati 1 Backpropagation on-line Consideriamo un problema di addestramento di una rete neurale formulato come problema di ottimizzazione del

Dettagli

Backpropagation in MATLAB

Backpropagation in MATLAB Modello di neurone BACKPROPAGATION Backpropagation in MATLAB Prof. Beatrice Lazzerini Dipartimento di Ingegneria dell Informazione Via Diotisalvi 2, 56122 Pisa La funzione di trasferimento, che deve essere

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Computazione per l interazione naturale: macchine che apprendono Corso di Interazione Naturale! Prof. Giuseppe Boccignone! Dipartimento di Informatica Università di Milano! boccignone@di.unimi.it boccignone.di.unimi.it/in_2015.html

Dettagli

CIRCUITI INTELLIGENTI Parte 5: PCA e ICA

CIRCUITI INTELLIGENTI Parte 5: PCA e ICA Ing. Simone SCARDAPANE Circuiti e Algoritmi per l Elaborazione dei Segnali Anno Accademico 2012/2013 Indice della Lezione 1. Analisi delle Componenti Principali 2. Auto-Associatori 3. Analisi delle Componenti

Dettagli

Ingegneria di Manutenzione II. Intelligence diagnostica

Ingegneria di Manutenzione II. Intelligence diagnostica 1 Ingegneria di Manutenzione II Intelligence diagnostica Stefano Ierace, Luigi Troiano stefano.ierace@unibg.it - troiano@unisannio.it Università degli Studi di Bergamo Università del Sannio Obiettivi del

Dettagli

Esercizi di Ricerca Operativa I

Esercizi di Ricerca Operativa I Esercizi di Ricerca Operativa I Dario Bauso, Raffaele Pesenti May 10, 2006 Domande Programmazione lineare intera 1. Gli algoritmi per la programmazione lineare continua possono essere usati per la soluzione

Dettagli

Data Mining. Gabriella Trucco gabriella.trucco@unimi.it

Data Mining. Gabriella Trucco gabriella.trucco@unimi.it Data Mining Gabriella Trucco gabriella.trucco@unimi.it Perché fare data mining La quantità dei dati memorizzata su supporti informatici è in continuo aumento Pagine Web, sistemi di e-commerce Dati relativi

Dettagli

Capitolo 3: Ottimizzazione Discreta. E. Amaldi DEIB, Politecnico di Milano

Capitolo 3: Ottimizzazione Discreta. E. Amaldi DEIB, Politecnico di Milano Capitolo 3: Ottimizzazione Discreta E. Amaldi DEIB, Politecnico di Milano 3.1 Modelli di PLI e PLMI Moltissimi problemi decisionali complessi possono essere formulati o approssimati come problemi di Programmazione

Dettagli

4. Matrici e Minimi Quadrati

4. Matrici e Minimi Quadrati & C. Di Natale: Matrici e sistemi di equazioni di lineari Formulazione matriciale del metodo dei minimi quadrati Regressione polinomiale Regressione non lineare Cross-validazione e overfitting Regressione

Dettagli

RETI NEURALI (II PARTE)

RETI NEURALI (II PARTE) RETI NEURALI (II PARTE) HOPFIELD Neural Net è utilizzata come MEMORIA ASSOCIATIVA e come CLASSIFICATORE input e output sono BINARI {+, -} i pesi sono fissati con un apprendimento non iterativo (fixed point

Dettagli

Lezione 10. La classificazione dell Intelligenza Artificiale

Lezione 10. La classificazione dell Intelligenza Artificiale Lezione 10 Intelligenza Artificiale Cosa è l Intelligenza Artificiale Elaborazione del linguaggio naturale La visione artificiale L apprendimento nelle macchine La classificazione dell Intelligenza Artificiale

Dettagli

Artificial Neural Network(ANN)

Artificial Neural Network(ANN) Artificial Neural Network(ANN) Dott.ssa Elisa Turricchia Alma Mater Studiorum - Università di Bologna ANN: Definizione Una rete neurale artificiale definisce un modello matematico per la simulazione di

Dettagli

Metodi di ottimizzazione per le reti neurali

Metodi di ottimizzazione per le reti neurali Metodi di ottimizzazione per le reti neurali L. Grippo DIS, Università di Roma La Sapienza M. Sciandrone IASI, Consiglio Nazionale delle Ricerche, Roma Generalità sulle reti neurali Addestramento di reti

Dettagli

Utilizzo di tecniche di Data Mining per la previsione di situazioni anomale in un sistema informativo aziendale

Utilizzo di tecniche di Data Mining per la previsione di situazioni anomale in un sistema informativo aziendale Università degli Studi di Padova Facoltà di Ingegneria Corso di Laurea Magistrale in Ingeneria Informatica Tesi di Laurea Magistrale Utilizzo di tecniche di Data Mining per la previsione di situazioni

Dettagli

Segmentazione di Immagini Mammografiche con Convolutional Neural Networks

Segmentazione di Immagini Mammografiche con Convolutional Neural Networks Alma Mater Studiorum Università di Bologna Scuola di Scienze Corso di Laurea Magistrale in Fisica Segmentazione di Immagini Mammografiche con Convolutional Neural Networks Relatore: Prof. Renato Campanini

Dettagli

Funzioni di più variabili. Ottimizzazione libera e vincolata

Funzioni di più variabili. Ottimizzazione libera e vincolata libera e vincolata Generalità. Limiti e continuità per funzioni di 2 o Piano tangente. Derivate successive Formula di Taylor libera vincolata Lo ordinario è in corrispondenza biunivoca con i vettori di

Dettagli

Indirizzo Giuridico Economico Aziendale

Indirizzo Giuridico Economico Aziendale Premessa Questa breve trattazione non vuole costituire una guida completa ed esauriente sull argomento, ma vuole fornire solamente i concetti fondamentali necessari per il raggiungimento degli obiettivi

Dettagli

DATA MINING IN TIME SERIES

DATA MINING IN TIME SERIES Modellistica e controllo dei sistemi ambientali DATA MINING IN TIME SERIES 01 Dicembre 2009 Dott. Ing.. Roberto Di Salvo Dipartimento di Ingegneria Elettrica Elettronica e dei Sistemi Anno Accademico 2009-2010

Dettagli

DATA MINING PER IL MARKETING

DATA MINING PER IL MARKETING DATA MINING PER IL MARKETING Andrea Cerioli andrea.cerioli@unipr.it Sito web del corso GLI ALBERI DI CLASSIFICAZIONE Algoritmi di classificazione Zani-Cerioli, Cap. XI CHAID: Chi-square Automatic Interaction

Dettagli

Neural Network Toolbox

Neural Network Toolbox Neural Network Toolbox In questa sede verrà presentata una trattazione esauriente delle caretteristiche fondamentali del Neuron Network Toolbox presente come pacchetto supplementare al software Matlab

Dettagli

Computazione per l interazione naturale: Modelli dinamici

Computazione per l interazione naturale: Modelli dinamici Computazione per l interazione naturale: Modelli dinamici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2015.html

Dettagli

Realizzazione di un sistema predittivo dei risultati del campionato di calcio italiano di serie A 2006/2007

Realizzazione di un sistema predittivo dei risultati del campionato di calcio italiano di serie A 2006/2007 Realizzazione di un sistema predittivo dei risultati del campionato di calcio italiano di serie A 2006/2007 Docente Prof. Giuseppe Manco Studenti Matr.. 96803 Francesco Aiello Matr.. 94881 Vittorio Leo

Dettagli

IL COMPONENTE DATA MINING MODEL DEL PROGETTO

IL COMPONENTE DATA MINING MODEL DEL PROGETTO IL COMPONENTE DATA MINING MODEL DEL PROGETTO Relatore: prof. Anna Corazza Tutor Aziendale: dr. Massimo Brescia 1 PROGETTO DAME (DAta Mining& Exploration) Progettazione di web application per effettuare

Dettagli

Metodi Numerici per Equazioni Ellittiche

Metodi Numerici per Equazioni Ellittiche Metodi Numerici per Equazioni Ellittiche Vediamo ora di descrivere una tecnica per la risoluzione numerica della più semplice equazione ellittica lineare, l Equazione di Laplace: u xx + u yy = 0, (x, y)

Dettagli

Ricerca Operativa Dualità e programmazione lineare

Ricerca Operativa Dualità e programmazione lineare Ricerca Operativa Dualità e programmazione lineare L. De Giovanni AVVERTENZA: le note presentate di seguito non hanno alcuna pretesa di completezza, né hanno lo scopo di sostituirsi alle spiegazioni del

Dettagli

Statistical learning Strumenti quantitativi per la gestione

Statistical learning Strumenti quantitativi per la gestione Statistical learning Strumenti quantitativi per la gestione Emanuele Taufer Vendite Simbologia Reddito Statistical learning A cosa ci serve f? 1 Previsione 2 Inferenza Previsione Errore riducibile e errore

Dettagli

Orange Discrimination Automatic System

Orange Discrimination Automatic System Università degli studi di Catania Facoltà di Ingegneria Informatica Orange Discrimination Automatic System Mazza Dario Merlino Sebastiano Monaco Davide Giuseppe Priscimone Eugenio Giuseppe INDEX 1. Introduzione

Dettagli

Tecniche avanzate di sintesi di algoritmi: Programmazione dinamica Algoritmi greedy

Tecniche avanzate di sintesi di algoritmi: Programmazione dinamica Algoritmi greedy Tecniche avanzate di sintesi di algoritmi: Programmazione dinamica Algoritmi greedy Dr Maria Federico Programmazione dinamica Solitamente usata per risolvere problemi di ottimizzazione il problema ammette

Dettagli

Pro e contro delle RNA

Pro e contro delle RNA Pro e contro delle RNA Pro: - flessibilità: le RNA sono approssimatori universali; - aggiornabilità sequenziale: la stima dei pesi della rete può essere aggiornata man mano che arriva nuova informazione;

Dettagli

1. Aspetti di Marketing... 3 Obiettivi... 3 Esempi... 4 2. Aspetti Applicativi... 4 Obiettivi... 4. 3. Aspetti Prestazionali... 4

1. Aspetti di Marketing... 3 Obiettivi... 3 Esempi... 4 2. Aspetti Applicativi... 4 Obiettivi... 4. 3. Aspetti Prestazionali... 4 Pagina 2 1. Aspetti di Marketing... 3 Obiettivi... 3 Esempi... 4 2. Aspetti Applicativi... 4 Obiettivi... 4 Esempi... 4 3. Aspetti Prestazionali... 4 Obiettivi... 4 Esempi... 4 4. Gestione del Credito

Dettagli

Un sistema di Vision Inspection basato su reti neurali

Un sistema di Vision Inspection basato su reti neurali Un sistema di Vision Inspection basato su reti neurali Ludovico Buffon 1, Evelina Lamma 1, Fabrizio Riguzzi 1, Davide Formenti 2 1 Dipartimento di Ingegneria, Via Saragat 1, 44122 Ferrara (FE), Italia

Dettagli

Clustering semi-supervisionato di documenti di testo tramite SVM

Clustering semi-supervisionato di documenti di testo tramite SVM Università degli Studi di Siena Facoltà di Ingegneria Corso di Laurea Specialistica in Ingegneria Informatica Clustering semi-supervisionato di documenti di testo tramite SVM Relatore: Prof. Marco Maggini

Dettagli

Tecniche di DM: Alberi di decisione ed algoritmi di classificazione

Tecniche di DM: Alberi di decisione ed algoritmi di classificazione Tecniche di DM: Alberi di decisione ed algoritmi di classificazione Vincenzo Antonio Manganaro vincenzomang@virgilio.it, www.statistica.too.it Indice 1 Concetti preliminari: struttura del dataset negli

Dettagli

Modelli per variabili dipendenti qualitative

Modelli per variabili dipendenti qualitative SEMINARIO GRUPPO TEMATICO METODI e TECNICHE La valutazione degli incentivi industriali: aspetti metodologici Università di Brescia, 17 gennaio 2012 Modelli per variabili dipendenti qualitative Paola Zuccolotto

Dettagli

6) f(x, y) = xy 1 log(5 2x 2y) x + y. 2x x 2 y 2 z 2 x 2 + y 2 + z 2 x Esercizio 2. Studiare gli insiemi di livello delle seguenti funzioni:

6) f(x, y) = xy 1 log(5 2x 2y) x + y. 2x x 2 y 2 z 2 x 2 + y 2 + z 2 x Esercizio 2. Studiare gli insiemi di livello delle seguenti funzioni: FUNZIONI IN PIÙ VARIABILI 1. Esercizi Esercizio 1. Determinare il dominio delle seguenti funzioni, specificando se si tratta di un insieme aperto o chiuso: 1) f(x, ) = log(x x ) ) f(x, ) = x + 3) f(x,

Dettagli

ESTRAZIONE DI DATI 3D DA IMMAGINI DIGITALI. (Visione 3D)

ESTRAZIONE DI DATI 3D DA IMMAGINI DIGITALI. (Visione 3D) ESTRAZIONE DI DATI 3D DA IMMAGINI DIGITALI () Calcolo delle corrispondenze Affrontiamo il problema centrale della visione stereo, cioè la ricerca automatica di punti corrispondenti tra immagini Chiamiamo

Dettagli

Esistenza di funzioni continue non differenziabili in alcun punto

Esistenza di funzioni continue non differenziabili in alcun punto UNIVERSITÀ DEGLI STUDI DI CAGLIARI FACOLTÀ DI SCIENZE MATEMATICHE, FISICHE E NATURALI CORSO DI LAUREA IN MATEMATICA Esistenza di funzioni continue non differenziabili in alcun punto Relatore Prof. Andrea

Dettagli

Analisi 2. Argomenti. Raffaele D. Facendola

Analisi 2. Argomenti. Raffaele D. Facendola Analisi 2 Argomenti Successioni di funzioni Definizione Convergenza puntuale Proprietà della convergenza puntuale Convergenza uniforme Continuità e limitatezza Teorema della continuità del limite Teorema

Dettagli

Cap. 4 Ricostruzione delle tracce con reti neurali

Cap. 4 Ricostruzione delle tracce con reti neurali Cap. 4 Ricostruzione delle tracce con reti neurali 4.1 Introduzione alle Reti Neurali 4.1.1 Neuroni Le reti neurali si ispirano al funzionamento dei neuroni biologici, le cellule alla base dell'elaborazione

Dettagli

ESERCIZI DI ALGEBRA LINEARE E GEOMETRIA

ESERCIZI DI ALGEBRA LINEARE E GEOMETRIA ESERCIZI DI ALGEBRA LINEARE E GEOMETRIA Francesco Bottacin Padova, 24 febbraio 2012 Capitolo 1 Algebra Lineare 1.1 Spazi e sottospazi vettoriali Esercizio 1.1. Sia U il sottospazio di R 4 generato dai

Dettagli

Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di laurea specialistica in INFORMATICA

Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di laurea specialistica in INFORMATICA Università degli Studi di Perugia Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di laurea specialistica in INFORMATICA Basi di Dati Avanzate e Tecniche di Data Mining Prof. G. Cecconi, Prof.

Dettagli

SISTEMI INFORMATIVI AZIENDALI

SISTEMI INFORMATIVI AZIENDALI SISTEMI INFORMATIVI AZIENDALI Prof. Andrea Borghesan venus.unive.it/borg borg@unive.it Ricevimento: Alla fine di ogni lezione Modalità esame: scritto 1 Data Mining. Introduzione La crescente popolarità

Dettagli

ELEMENTI TRIANGOLARI E TETRAEDRICI A LATI DIRITTI

ELEMENTI TRIANGOLARI E TETRAEDRICI A LATI DIRITTI EEMENTI TRIANGOARI E TETRAEDRICI A ATI DIRITTI Nella ricerca di unificazione delle problematiche in vista di una generalizzazione delle procedure di sviluppo di elementi finiti, gioca un ruolo importante

Dettagli

Introduzione all elaborazione di immagini Part II

Introduzione all elaborazione di immagini Part II Introduzione all elaborazione di immagini Part II Obiettivi delle tecniche di elaborazione di immagini: miglioramento di qualità (image enhancement) ripristino di qualità o restauro (image restoration)

Dettagli

Il guadagno informativo negli alberi decisionali: un nuovo approccio

Il guadagno informativo negli alberi decisionali: un nuovo approccio Il guadagno informativo negli alberi decisionali: un nuovo approccio Sommario Descrizione del problema... 2 Il guadagno informativo di Nanni... 3 Il software Weka... 3 Cos è Weka... 3 Il guadagno Informativo

Dettagli

MDP e reti neurali rinforzate

MDP e reti neurali rinforzate MDP e reti neurali rinforzate r.vincelli@campus.unimib.it Contenuti 1. Il paradigma d apprendimento rinforzato 2. La rete come agente in un contesto MDP 3. Strategie 4. Funzioni valore 5. Un esempio di

Dettagli

Algoritmi Euristici. Corso di Laurea in Informatica e Corso di Laurea in Matematica. Roberto Cordone DI - Università degli Studi di Milano

Algoritmi Euristici. Corso di Laurea in Informatica e Corso di Laurea in Matematica. Roberto Cordone DI - Università degli Studi di Milano Algoritmi Euristici Corso di Laurea in Informatica e Corso di Laurea in Matematica Roberto Cordone DI - Università degli Studi di Milano Lezioni: Mercoledì 08.30-10.30 Venerdì 08.30-10.30 Ricevimento:

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Rappresentazione dati e visualizzazione Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona

Dettagli

Morfologia e Image Processing

Morfologia e Image Processing Morfologia e Image Processing Multimedia Prof. Battiato Morfologia Matematica Nell ambito dell image processing il termine morfologia matematica denota lo studio della struttura geometrica dell immagine.

Dettagli

Funzioni in due variabili Raccolta di FAQ by Andrea Prevete

Funzioni in due variabili Raccolta di FAQ by Andrea Prevete Funzioni in due variabili Raccolta di FAQ by Andrea Prevete 1) Cosa intendiamo, esattamente, quando parliamo di funzione reale di due variabili reali? Quando esiste una relazione fra tre variabili reali

Dettagli

Metodi diretti per la soluzione di sistemi lineari

Metodi diretti per la soluzione di sistemi lineari Metodi diretti per la soluzione di sistemi lineari N Del Buono 1 Introduzione Consideriamo un sistema di n equazioni in n incognite a 11 x 1 + a 12 x 2 + a 13 x 3 + + a 1n x n = b 1, a 21 x 1 + a 22 x

Dettagli

Documentazione esterna al software matematico sviluppato con MatLab

Documentazione esterna al software matematico sviluppato con MatLab Documentazione esterna al software matematico sviluppato con MatLab Algoritmi Metodo di Gauss-Seidel con sovrarilassamento Metodo delle Secanti Metodo di Newton Studente Amelio Francesco 556/00699 Anno

Dettagli

Contenuto e scopo presentazione. Vehicle Scheduling. Motivazioni VSP

Contenuto e scopo presentazione. Vehicle Scheduling. Motivazioni VSP Contenuto e scopo presentazione Vehicle Scheduling 08/03/2005 18.00 Contenuto vengono introdotti modelli e metodi per problemi di Vehicle Scheduling Problem (VSP) Scopo fornire strumenti di supporto alle

Dettagli

Dimensione di uno Spazio vettoriale

Dimensione di uno Spazio vettoriale Capitolo 4 Dimensione di uno Spazio vettoriale 4.1 Introduzione Dedichiamo questo capitolo ad un concetto fondamentale in algebra lineare: la dimensione di uno spazio vettoriale. Daremo una definizione

Dettagli

9 Metodi diretti per la risoluzione di sistemi lineari: fattorizzazione P A = LU

9 Metodi diretti per la risoluzione di sistemi lineari: fattorizzazione P A = LU 9 Metodi diretti per la risoluzione di sistemi lineari: fattorizzazione P A LU 9.1 Il metodo di Gauss Come si è visto nella sezione 3.3, per la risoluzione di un sistema lineare si può considerare al posto

Dettagli

Modelli di Ottimizzazione

Modelli di Ottimizzazione Capitolo 2 Modelli di Ottimizzazione 2.1 Introduzione In questo capitolo ci occuperemo più nel dettaglio di quei particolari modelli matematici noti come Modelli di Ottimizzazione che rivestono un ruolo

Dettagli

Insiemi di livello e limiti in più variabili

Insiemi di livello e limiti in più variabili Insiemi di livello e iti in più variabili Insiemi di livello Si consideri una funzione f : A R, con A R n. Un modo per poter studiare il comportamento di una funzione in più variabili potrebbe essere quello

Dettagli

Algoritmi. a.a. 2013/14 Classe 2: matricole dispari

Algoritmi. a.a. 2013/14 Classe 2: matricole dispari Algoritmi a.a. 2013/14 Classe 2: matricole dispari Marcella Anselmo Presentazioni Info: http://www.di.unisa.it/professori/anselmo/ Orario ricevimento: Lunedì 15-17 Giovedì 12-13 Il mio studio è il n 57

Dettagli

Machine Learning -1. Seminari di Sistemi Informatici. F.Sciarrone-Università Roma Tre

Machine Learning -1. Seminari di Sistemi Informatici. F.Sciarrone-Università Roma Tre Machine Learning -1 Seminari di Sistemi Informatici Sommario Problemi di apprendimento Well-Posed Esempi di problemi well-posed Progettazione di un sistema di apprendimento Scelta della Training Experience

Dettagli

I vantaggi ottenibili nei campi applicativi attraverso l uso di tecniche di data mining

I vantaggi ottenibili nei campi applicativi attraverso l uso di tecniche di data mining Dipartimento di Informatica e Sistemistica I vantaggi ottenibili nei campi applicativi attraverso l uso di tecniche di data mining Renato Bruni bruni@dis.uniroma1.it Antonio Sassano sassano@dis.uniroma1.it

Dettagli

Cristian Randieri. www.intellisystem.it

Cristian Randieri. www.intellisystem.it Cristian Randieri www.intellisystem.it La possibilità di modellizzare e controllare sistemi complessi ed incerti della Fuzzy Logic. La capacità di apprendere da esempi delle reti neurali. La capacità

Dettagli

Impiego di classificatori nell analisi di immagini

Impiego di classificatori nell analisi di immagini Impiego di classificatori nell analisi di immagini Davide Devescovi 1 La classificazione Con il termine classificazione si intende una procedura statistica che permette di associare ciascun oggetto (che

Dettagli

Analisi delle prestazioni di algoritmi di Machine Learning per la classificazione del traffico di rete

Analisi delle prestazioni di algoritmi di Machine Learning per la classificazione del traffico di rete Facoltà di Ingegneria Corso di Studi in Ingegneria delle Telecomunicazioni tesi di laurea Analisi delle prestazioni di algoritmi di Machine Learning Anno Accademico 2012/2013 relatore Ch.mo prof. A. Pescapè

Dettagli

Riconoscimento di facce in immagini generiche.

Riconoscimento di facce in immagini generiche. Emanuele Torrenti - Riconoscimento di facce in immagini generiche 1 Riconoscimento di facce in immagini generiche. di Emanuele Torrenti Abstract Nell'articolo di due studiosi dell'università Jiao Tong

Dettagli

Tecniche di DM: Link analysis e Association discovery

Tecniche di DM: Link analysis e Association discovery Tecniche di DM: Link analysis e Association discovery Vincenzo Antonio Manganaro vincenzomang@virgilio.it, www.statistica.too.it Indice 1 Architettura di un generico algoritmo di DM. 2 2 Regole di associazione:

Dettagli

Università degli Studi di Napoli Federico II

Università degli Studi di Napoli Federico II Università degli Studi di Napoli Federico II Facoltà di Scienze MM.FF.NN. Corso di Laurea in Informatica Tesi sperimentale di Laurea Triennale Calcolo ad alte prestazioni basato su GPU Un modello ibrido

Dettagli

Corso di Calcolo Numerico

Corso di Calcolo Numerico Corso di Calcolo Numerico Dott.ssa M.C. De Bonis Università degli Studi della Basilicata, Potenza Facoltà di Ingegneria Corso di Laurea in Ingegneria Meccanica Sistemi di Numerazione Sistema decimale La

Dettagli

TSP con eliminazione di sottocicli

TSP con eliminazione di sottocicli TSP con eliminazione di sottocicli Un commesso viaggiatore deve visitare 7 clienti in modo da minimizzare la distanza percorsa. Le distanze (in Km) tra ognuno dei clienti sono come segue: 3 5 7-8 9 57

Dettagli

LE FUNZIONI A DUE VARIABILI

LE FUNZIONI A DUE VARIABILI Capitolo I LE FUNZIONI A DUE VARIABILI In questo primo capitolo introduciamo alcune definizioni di base delle funzioni reali a due variabili reali. Nel seguito R denoterà l insieme dei numeri reali mentre

Dettagli

Dalla Computer Vision alle interfacce naturali

Dalla Computer Vision alle interfacce naturali Dalla Computer Vision alle interfacce naturali METODI E MODELLI DI INTERAZIONE Social Q&A @vs_ar #askvisionary www.vision-ary.net 14/11/2014 TWITTER @VS_AR 2 Obiettivi del seminario 1. Fornire gli elementi

Dettagli

Metodi di Interpolazione Polinomiale: Implementazione MATLAB e Applicazioni

Metodi di Interpolazione Polinomiale: Implementazione MATLAB e Applicazioni Metodi di Interpolazione Polinomiale: Implementazione MATLAB e Applicazioni Lai Stefano Docente: Prof. Giuseppe Rodriguez Tesina per il Corso di Calcolo Numerico 2, A.A. 2006/2007 2 marzo 2007 Introduzione

Dettagli

Appunti delle esercitazioni di Ricerca Operativa

Appunti delle esercitazioni di Ricerca Operativa Appunti delle esercitazioni di Ricerca Operativa a cura di P. Detti e G. Ciaschetti 1 Esercizi sulle condizioni di ottimalità per problemi di ottimizzazione non vincolata Esempio 1 Sia data la funzione

Dettagli

Identificazione e sintesi di reti compatte di feedback elettrotermico: confronto di topologie ed analisi di prestazioni in SPICE

Identificazione e sintesi di reti compatte di feedback elettrotermico: confronto di topologie ed analisi di prestazioni in SPICE Università degli Studi di Napoli Federico II FACOLTÀ DI INGEGNERIA Corso di Laurea Triennale in Ingegneria Elettronica Tesi di laurea Identificazione e sintesi di reti compatte di feedback elettrotermico:

Dettagli

Programmazione Non Lineare Ottimizzazione vincolata

Programmazione Non Lineare Ottimizzazione vincolata DINFO-Università di Palermo Programmazione Non Lineare Ottimizzazione vincolata D. Bauso, R. Pesenti Dipartimento di Ingegneria Informatica Università di Palermo DINFO-Università di Palermo 1 Sommario

Dettagli

AZIONE DI SISTEMA G. Partner responsabile Università de Corse

AZIONE DI SISTEMA G. Partner responsabile Università de Corse N componente 5 N azione 3.2 Titolo prodotto : prototipi software di simulazione del comportamento idrologico del bacino versante del sud est della Corsica tenendo conto le ottimizzazioni AZIONE DI SISTEMA

Dettagli

Numeri reali. Funzioni e loro grafici

Numeri reali. Funzioni e loro grafici Argomento Numeri reali. Funzioni e loro grafici Parte B - Funzioni e loro grafici Funzioni reali di variabile reale Definizioni. Supponiamo che A sia un sottoinsieme di R e che esista una legge che ad

Dettagli

ESAME DI STATO DI LICEO SCIENTIFICO CORSO DI ORDINAMENTO 2004

ESAME DI STATO DI LICEO SCIENTIFICO CORSO DI ORDINAMENTO 2004 ESAME DI STATO DI LICEO SCIENTIFICO CORSO DI ORDINAMENTO 004 Il candidato risolva uno dei due problemi e 5 dei 10 quesiti in cui si articola il questionario. PROBLEMA 1 Sia f la funzione definita da: f

Dettagli

file://i:\mining-warehouse\data%20mining%20%20tecniche%20di%20trasformazion...

file://i:\mining-warehouse\data%20mining%20%20tecniche%20di%20trasformazion... Pagina 1 di 5 Martedì, 17 Maggio 2004 chi siamo catalogo contatti@ rivendite registrati help ricerca: Ok! HOME WEBZINE LIBRI UNIVERSITA' EBOOK BUSINESS OPENPRESS Newsletter gratuite Resta aggiornato! Iscriviti

Dettagli

I Modelli della Ricerca Operativa

I Modelli della Ricerca Operativa Capitolo 1 I Modelli della Ricerca Operativa 1.1 L approccio modellistico Il termine modello è di solito usato per indicare una costruzione artificiale realizzata per evidenziare proprietà specifiche di

Dettagli

Costruzione di una Rete Neurale Artificiale per applicazioni Economico Finanziarie

Costruzione di una Rete Neurale Artificiale per applicazioni Economico Finanziarie per applicazioni Economico Finanziarie Prof. Crescenzio Gallo c.gallo@unifg.it Università deglistudidifoggia Dipartimento di Scienze Biomediche Indice 1 Concetti preliminari 1 1.1 Introduzione......................................

Dettagli

Matematica e Statistica

Matematica e Statistica Matematica e Statistica Prova d esame (0/07/03) Università di Verona - Laurea in Biotecnologie - A.A. 0/3 Matematica e Statistica Prova di MATEMATICA (0/07/03) Università di Verona - Laurea in Biotecnologie

Dettagli

Controlli Automatici T. Trasformata di Laplace e Funzione di trasferimento. Parte 3 Aggiornamento: Settembre 2010. Prof. L.

Controlli Automatici T. Trasformata di Laplace e Funzione di trasferimento. Parte 3 Aggiornamento: Settembre 2010. Prof. L. Parte 3 Aggiornamento: Settembre 2010 Parte 3, 1 Trasformata di Laplace e Funzione di trasferimento Prof. Lorenzo Marconi DEIS-Università di Bologna Tel. 051 2093788 Email: lmarconi@deis.unibo.it URL:

Dettagli

Data mining e rischi aziendali

Data mining e rischi aziendali Data mining e rischi aziendali Antonella Ferrari La piramide delle componenti di un ambiente di Bi Decision maker La decisione migliore Decisioni Ottimizzazione Scelta tra alternative Modelli di apprendimento

Dettagli

GPGPU for machine learning algorithms

GPGPU for machine learning algorithms tesi di laurea GPGPU for machine learning algorithms Anno Accademico 2010/2011 relatori Ch.mo prof. Giorgio Ventre Ch.mo prof. Antonio Pescapè correlatore Ch.mo dott. Massimo Brescia candidato Mauro Garofalo

Dettagli

Weka: Weikato university Environment for Knowledge Analysis

Weka: Weikato university Environment for Knowledge Analysis : Weikato university Environment for Knowledge Analysis Corso di Data e Text Mining Ing. Andrea Tagarelli Università della Calabria Acknowledgements: Salvatore Ruggieri, Dip. di Informatica, Univ. di Pisa

Dettagli

UD 3.4b: Trattabilità e Intrattabilità. Dispense, cap. 4.2

UD 3.4b: Trattabilità e Intrattabilità. Dispense, cap. 4.2 UD 3.4b: Trattabilità e Intrattabilità Dispense, cap. 4.2 Problemi Intrattabili Esistono problemi che, pur avendo un algoritmo di soluzione, non forniranno mai una soluzione in tempi ragionevoli nemmeno

Dettagli

Proposta di soluzione della prova di matematica Liceo scientifico di Ordinamento - 2014

Proposta di soluzione della prova di matematica Liceo scientifico di Ordinamento - 2014 Proposta di soluzione della prova di matematica Liceo scientifico di Ordinamento - 14 Problema 1 Punto a) Osserviamo che g (x) = f(x) e pertanto g () = f() = in quanto Γ è tangente all asse delle ascisse,

Dettagli

Riproduzione Crossover Mutazione

Riproduzione Crossover Mutazione Algoritmi Genetici Sono algoritmi di ricerca basati sui principi evolutivi della selezione naturale e della genetica, che implicano la sopravvivenza degli elementi migliori e lo scambio di informazioni

Dettagli

Confronto tra i codici di calcolo QUAD4-M e LSR2D

Confronto tra i codici di calcolo QUAD4-M e LSR2D 2 Confronto tra i codici di calcolo QUAD4-M e LSR2D Introduzione Questo documento riporta un confronto tra i risultati di un analisi di risposta sismica locale condotta con il codice di calcolo LSR2D (Stacec

Dettagli

Regressione Mario Guarracino Data Mining a.a. 2010/2011

Regressione Mario Guarracino Data Mining a.a. 2010/2011 Regressione Esempio Un azienda manifatturiera vuole analizzare il legame che intercorre tra il volume produttivo X per uno dei propri stabilimenti e il corrispondente costo mensile Y di produzione. Volume

Dettagli

A tutti coloro che mi hanno sostenuto

A tutti coloro che mi hanno sostenuto A tutti coloro che mi hanno sostenuto Indice INDICE INDICE...i CAPITOLO I... 1 Introduzione... 1 1.1 Tecniche di riconoscimento adottate... 1 1.2 Organizzazione della tesi... 2 CAPITOLO II... 5 Reti Neurali...

Dettagli

Sistemi Informativi Multimediali Indicizzazione multidimensionale

Sistemi Informativi Multimediali Indicizzazione multidimensionale Indicizzazione nei sistemi di IR (1) Sistemi Informativi Multimediali Indicizzazione multidimensionale ugusto elentano Università a Foscari Venezia La struttura fondamentale di un sistema di information

Dettagli

Tecniche di Spectral Clustering: Analisi e Applicazioni

Tecniche di Spectral Clustering: Analisi e Applicazioni Università degli Studi di Genova Facoltà di Scienze Matematiche Fisiche e Naturali Anno accademico 2005/06 Tesi di Laurea Specialistica in Informatica Tecniche di Spectral Clustering: Analisi e Applicazioni

Dettagli

Sorgenti autorevoli in ambienti hyperlinkati.

Sorgenti autorevoli in ambienti hyperlinkati. Sorgenti autorevoli in ambienti hyperlinkati. La qualità di un metodo di ricerca richiede la valutazione umana dovuta alla soggettività inerente alla nozione di rilevanza. I motori di ricerca correnti,

Dettagli