Progettazione di un Sistema di Machine Learning

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Progettazione di un Sistema di Machine Learning"

Transcript

1 Progettazione di un Sistema di Machine Learning Esercitazioni per il corso di Logica ed Intelligenza Artificiale a.a Vito Claudio Ostuni

2 Data analysis and pre-processing Dataset iniziale Feature Selection Model Choice and Learning Training set Model Selection Validation set Evaluation Test set Application New Data

3 Data analysis and pre-processing I dati nel mondo reale sono sporchi: incompleti: manca il valore di alcuni attributi, o mancano del tutto alcuni attributi interessanti. inaccurati: contengono valori errati o che si discostano sensibilmente da valori che ci si aspetta. GIGO: garbage in garbage out Occorre un accurata analisi e bonifica dei dati. Spesso questa parte di pre-processing porta via la maggior parte del tempo.

4 Data analysis and pre-processing Pre-processing: pulizia e trasformazione dei dati pulizia dei dati: rimozione outliers, rimozione rumore, rimozione duplicati trasformazioni: Discretizzazione Aggregazione normalizzazione e re-scaling Creazione nuovi attributi

5 Data analysis and pre-processing: Normalization Spesso gli attributi assumono valori in intervalli di ampiezza diversa. Questo variabilità può influire molto sull algoritmo di apprendimento. min-max normalization: si riscala l'attributo in modo che i nuovi valori cadano un intervallo desiderato [a,b]. Questo approccio può esser fortemente influenzato da outliers. Necessita la conoscenza dei valori min e max. (In fase di predizione potrebbe arrivare un input con un valore oltre il valore massimo). x= ((x-min)/(max-min) )* (b-a)+a Es x=(1,2,3) -> [0,1] x=((x-1)/(3-1))*1 ->x=(0,0.5,1) z-score normalization x= (x-mean(x))/(dev std(x)) Questo approccio è meno influenzato da outliers e non risente dei valori min e max.

6 Feature Selection Selezione degli attributi rilevanti. Spesso la dimensione dell input è elevato, ci sono molti attributi ridondanti (ce ne sono alcuni correlati tra loro) e/o irrilevanti. Questo può comportare complicazioni nel modello in quanto il numero di parametri diventa eccessivo (overfitting) e può richiedere anche un tempo maggiore in fase di addestramento. Filtri: si applicano delle misure che valutano quanto un attributo è capace di discriminare tra le classi. Si rimuovono gli attributi poco discriminatori. Misure tipiche: Information Gain, Entropy, Mutual Information Wrappers: metodo iterativo con cui si seleziona un sottoinsieme di attributi e lo si usa per addestrare un modello. Si itera cercando una combinazione di features che da le performance migliori(su un validation set) Algoritmi di riduzione della dimensionalità (PCA, SVD)

7 Model Selection Quale modello scegliamo?

8 Underfitting e Overfitting Underfitting High Bias Overfitting High Variance

9 Vogliamo un modello che sia capace di generalizzare, ovvero che sia capace di predire correttamente input non conosciuti durante l addestramento. Overfitting: il modello è tarato perfettamente sul training set. Si è ottenuto un modello molto complesso, fin troppo. Ha bassa capacità di generalizzare. Buone performance sul training set ma non sul test set. Underfitting: il modello è troppo semplice. Pessime performance sia sul training set che sul test set.

10 Generalization error=err(x)= Bias + Variance Bias misura l errore medio su h(x) Variance Misura quanto un modello varia da un dataset all altro

11

12 High Bias Underfitting High Variance Overfitting C è un tradeoff

13 Model Selection Quale modello scegliamo? Come scegliamo un modello che ci garantisca un buon compromesso tra underfitting(high bias) e overfitting(high variance)? -scegliamo SVM o ANN o logistic Regression? -se scegliamo la logistic regression, scegliamo un polinomio di grado2, grado3, grado1? -se invece scegliamo una ANN quanti neuroni nello strato nascosto? Cross Validation Utilizziamo una parte del Training Set come set di validazione

14 Quale modello scegliamo? Come scegliamo un modello che ci garantisca un buon compromesso tra underfitting(high bias) e overfitting(high variance)? -scegliamo SVM o ANN o logistic Regression? -se scegliamo la logistic regression, scegliamo un polinomio di grado2, grado3, grado1? -se invece scegliamo una ANN quanti neuroni nello strato nascosto? NO! Scegliamo il modello che dà l errore minore sul Training Set L errore sul Training Set è una sottostima dell errore di generalizzazione. Perché il modello è stato appreso proprio minimizzando quell errore. Questo provoca overfitting e il modello non sarà in grado di generalizzare.

15 Cross Validation Come scegliamo un modello che ci garantisca un buon compromesso tra underfitting(high bias) e overfitting(high variance)? -scegliamo SVM o ANN o logistic Regression? -se scegliamo la logistic regression, scegliamo un polinomio di grado2, grado3, grado1? -se invece scegliamo una ANN quanti neuroni nello strato nascosto? SI! Scegliamo il modello che dà l errore minore sul Validation Set Prima dell addestramento togliamo una parte dal Training Set e la utilizziamo come Validation Set. Questo insieme di validazione non viene utilizzato per l addestramento del modello. L errore sul Validation Set è una migliore stima dell errore di generalizzazione.

16 Cross Validation Di solito si sceglie come set di validazione 1/3 dei dati di training (hold-out cross validation) oppure si può utilizzare una k-folds cross validation. Una volta scelto il modello si può riaddestrare il modello scelto considerando tutto il training set iniziale. La cross validation è utilizzabile anche per trovare dei metaparametri del modello. Ad esempio il fattore di regolarizzazione. Oppure può esser utilizzata per la selezione di un sotto insieme di features rilevanti.

17 Cross Validation

18 Valutazione del modello Una volta scelto il modello abbiamo bisogni di valutarlo e validarlo. La valutazione viene fatta su un set di dati separati da quelli di addestramento e validazione. La misura di performance finale viene calcolata sul Test Set. Purtroppo è molto facile cadere nella tentazione di dare una sbirciata ai dati di test (peeking). Il peeking si verifica in questo modo: si generano diverse ipotesi(modelli)con varie versioni dell algoritmo si misurano le loro prestazioni sull insieme di test si sceglie l ipotesi che fornisce le migliori predizioni Questa procedura è sbagliata in quanto si dovrebbe utilizzare il validation set per la scelta delle ipotesi e il Test Set deve esser utilizzato solamente una volta scelto il modello finale per validare il modello attraverso una misura di performance. L errore sul validation set è una sottostima dell errore di generalizzazione in quanto il validation set è utilizzato per la scelta del modello finale.

19 Valutazione del modello Ci sono due tecniche principali di valutazione: Holdout Questo metodo ha lo svantaggio che i particolari insiemi di training e test possono influenzare la valutazione. Accorgimento: i campioni scelti potrebbero non esser rappresentativi. Ad esempio la rappresentazione di una classe potrebbe esser sbilanciata tra insieme di addestramento e test. Si può utilizzare una tecnica di stratificazione in cui si controlla che le classi vengano distribuite equamente.

20 Valutazione del modello K-folds Cross validation si basa su K iterazioni(esperimenti), alla i-ma iterazione si usa la i-ma fold come test set e le restanti compongono il training set. Una scelta comune per K è 10. Si potrebbe effettuare l intera procedura più volte scegliendo casualmente la composizione delle folds (rimescolamento del dataset).

21

22 Valutazione del modello: Misure di Perfomance RMSE, MAE Accuracy Regressione Classificazione Precision/Recall ROC

23 classificatore binario Matrice di Confusione Predizioni calcolate con il classificatore che stiamo valutando Training Set Validation Set Test Set

24 Matrice di Confusione Accuracy = (TP+TN)/(TP+TN+FP+FN) Error rate = (FP+FN)/(TP+TN+FP+FN) = 1- accuracy Recall o Sensitivity otrue Positive Rate = TP/(TP+FN) Precision = TP/(TP+FP) F-measure = 2*precision*recall/(precision+recall) Specificity o True Negative Rate=TN/(FP+TN) False Positive Rate=FP/(TN+FP) = 1-specificity

25 ROC Curve

Apprendimento Automatico (Feature Selection e Kernel Learning)

Apprendimento Automatico (Feature Selection e Kernel Learning) Apprendimento Automatico (Feature Selection e Kernel Learning) Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Servono tutti gli attributi? Gli

Dettagli

Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità

Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità Intelligenza Artificiale Soft Computing: Reti Neurali Generalità Neurone Artificiale Costituito da due stadi in cascata: sommatore lineare (produce il cosiddetto net input) net = S j w j i j w j è il peso

Dettagli

Esperienze di Apprendimento Automatico per il corso di Intelligenza Artificiale

Esperienze di Apprendimento Automatico per il corso di Intelligenza Artificiale Esperienze di Apprendimento Automatico per il corso di [email protected] Dipartimento Sistemi e Informatica Università di Firenze Dipartimento Ingegneria dell Informazione Università di Siena Introduzione

Dettagli

Regressione non lineare con un modello neurale feedforward

Regressione non lineare con un modello neurale feedforward Reti Neurali Artificiali per lo studio del mercato Università degli studi di Brescia - Dipartimento di metodi quantitativi Marco Sandri ([email protected]) Regressione non lineare con un modello neurale

Dettagli

Reti Neurali. Corso di AA, anno 2016/17, Padova. Fabio Aiolli. 2 Novembre Fabio Aiolli Reti Neurali 2 Novembre / 14. unipd_logo.

Reti Neurali. Corso di AA, anno 2016/17, Padova. Fabio Aiolli. 2 Novembre Fabio Aiolli Reti Neurali 2 Novembre / 14. unipd_logo. Reti Neurali Corso di AA, anno 2016/17, Padova Fabio Aiolli 2 Novembre 2016 Fabio Aiolli Reti Neurali 2 Novembre 2016 1 / 14 Reti Neurali Artificiali: Generalità Due motivazioni diverse hanno spinto storicamente

Dettagli

Data mining: classificazione DataBase and Data Mining Group of Politecnico di Torino

Data mining: classificazione DataBase and Data Mining Group of Politecnico di Torino DataBase and Data Mining Group of Database and data mining group, Database and data mining group, DataBase and Data Mining Group of DataBase and Data Mining Group of So dati insieme di classi oggetti etichettati

Dettagli

Preprocessamento dei Dati

Preprocessamento dei Dati Preprocessamento dei Dati Raramente i dati sperimentali sono pronti per essere utilizzati immediatamente per le fasi successive del processo di identificazione, a causa di: Offset e disturbi a bassa frequenza

Dettagli

Derivazione numerica. Introduzione al calcolo numerico. Derivazione numerica (II) Derivazione numerica (III)

Derivazione numerica. Introduzione al calcolo numerico. Derivazione numerica (II) Derivazione numerica (III) Derivazione numerica Introduzione al calcolo numerico Il calcolo della derivata di una funzione in un punto implica un processo al limite che può solo essere approssimato da un calcolatore. Supponiamo

Dettagli

Modelli matematici e Data Mining

Modelli matematici e Data Mining Modelli matematici e Data Mining Introduzione I modelli matematici giocano un ruolo critico negli ambienti di business intelligence e sistemi di supporto alle decisioni. Essi rappresentano un astrazione

Dettagli

Feature Selection per la Classificazione

Feature Selection per la Classificazione 1 1 Dipartimento di Informatica e Sistemistica Sapienza Università di Roma Corso di Algoritmi di Classificazione e Reti Neurali 20/11/2009, Roma Outline Feature Selection per problemi di Classificazione

Dettagli

Sistemi per la gestione delle basi di dati

Sistemi per la gestione delle basi di dati Sistemi per la gestione delle basi di dati Esercitazione #5 Data mining Obiettivo Applicare algoritmi di data mining per la classificazione al fine di analizzare dati reali mediante l utilizzo dell applicazione

Dettagli

Lezione introduttiva su reti neurali e SVM Veronica Piccialli. Corso di Ottimizzazione a.a (seconda parte)

Lezione introduttiva su reti neurali e SVM Veronica Piccialli. Corso di Ottimizzazione a.a (seconda parte) Lezione introduttiva su reti neurali e SVM Veronica Piccialli Corso di Ottimizzazione a.a. 2009-10 (seconda parte) Ottimizzazione Statistica Fisica Biologia Reti Neurali Matematica Psicologia Informatica

Dettagli

Luigi Santoro. Hyperphar Group S.p.A., MIlano

Luigi Santoro. Hyperphar Group S.p.A., MIlano Come modellare il rischio Luigi Santoro Hyperphar Group S.p.A., MIlano Gli argomenti discussi Le definizioni del termine rischio L utilità di un modello predittivo di rischio Come costruire modelli predittivi

Dettagli

Intelligenza Artificiale. A n n o A c c a d e m i c o Introduzione al Machine Learning Apprendimento Induttivo: alberi di decisione

Intelligenza Artificiale. A n n o A c c a d e m i c o Introduzione al Machine Learning Apprendimento Induttivo: alberi di decisione Intelligenza Artificiale A n n o A c c a d e m i c o 2 0 0 8-2 0 0 9 Introduzione al Machine Learning Apprendimento Induttivo: alberi di decisione 1 Sommario Introduzione al Machine Learning Apprendimento

Dettagli

Reti Neurali in Generale

Reti Neurali in Generale istemi di Elaborazione dell Informazione 76 Reti Neurali in Generale Le Reti Neurali Artificiali sono studiate sotto molti punti di vista. In particolare, contributi alla ricerca in questo campo provengono

Dettagli

Circuiti e algoritmi per l elaborazione dell informazione

Circuiti e algoritmi per l elaborazione dell informazione Università di Roma La Sapienza Facoltà di Ingegneria Laurea Specialistica in Ingegneria Elettronica Orientamento: Circuiti e algoritmi per l elaborazione dell informazione L x[n] y[n] Circuito: V g (t)

Dettagli

Realizzazione di un sistema predittivo dei risultati del campionato di calcio italiano di serie A 2006/2007

Realizzazione di un sistema predittivo dei risultati del campionato di calcio italiano di serie A 2006/2007 Realizzazione di un sistema predittivo dei risultati del campionato di calcio italiano di serie A 2006/2007 Docente Prof. Giuseppe Manco Studenti Matr.. 96803 Francesco Aiello Matr.. 94881 Vittorio Leo

Dettagli

I DSS e la gestione dei dati e della conoscenza. Prof. Luca Gnan

I DSS e la gestione dei dati e della conoscenza. Prof. Luca Gnan I DSS e la gestione dei dati e della conoscenza Prof. Luca Gnan Argomenti I decision support system Tipologie di DSS Logiche di funzionamento Tipologie di analisi La gestione dei dati e della conoscenza

Dettagli

Classificazione e Predizione

Classificazione e Predizione Lezione di TDM DM del 16 Aprile 2007 Francesco Bonchi, KDD Lab Pisa, ISTI-C.N.R. 1 Lezione odierna Intuizioni sul concetto di classificazione Alberi di decisione Alberi di decisione con Weka Classificazione:

Dettagli

Statistica di base per l analisi socio-economica

Statistica di base per l analisi socio-economica Laurea Magistrale in Management e comunicazione d impresa Statistica di base per l analisi socio-economica Giovanni Di Bartolomeo [email protected] Definizioni di base Una popolazione è l insieme

Dettagli

Teoria e tecniche dei test

Teoria e tecniche dei test Teoria e tecniche dei test Lezione 9 LA STANDARDIZZAZIONE DEI TEST. IL PROCESSO DI TARATURA: IL CAMPIONAMENTO. Costruire delle norme di riferimento per un test comporta delle ipotesi di fondo che è necessario

Dettagli

Weka Project. Weka. Weka Project. Formato.arff. Modalità di utilizzo di Weka. Formato.arff

Weka Project. Weka. Weka Project. Formato.arff. Modalità di utilizzo di Weka. Formato.arff Weka Project Weka Machine Learning Algorithms in Java Waikato Environment for Knowledge Analysis Algoritmi di Data Mining e Machine Learning realizzati in Java Preprocessing Classificazione Clustering

Dettagli

La misurazione della televisione satellitare a pagamento

La misurazione della televisione satellitare a pagamento La misurazione della televisione satellitare a pagamento Cosa è stato fatto, cosa rimane da fare Vittorio Bossi Milano, 4 novembre 2007 Cosa è stato fatto Abbiamo un sistema di channel detection che funziona

Dettagli

MACHINE LEARNING e DATA MINING Introduzione. a.a.2015/16 Jessica Rosati [email protected]

MACHINE LEARNING e DATA MINING Introduzione. a.a.2015/16 Jessica Rosati jessica.rosati@poliba.it MACHINE LEARNING e DATA MINING Introduzione a.a.2015/16 Jessica Rosati [email protected] Apprendimento Automatico(i) Branca dell AI che si occupa di realizzare dispositivi artificiali capaci di

Dettagli

Regole associative con Weka

Regole associative con Weka Regole associative con Weka Soluzioni degli esercizi Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Apriori parametri e output In questa fase utilizzeremo il data set CensusTrainining.arff

Dettagli

INTRODUZIONE AI SISTEMI DI CLASSIFICAZIONE

INTRODUZIONE AI SISTEMI DI CLASSIFICAZIONE INTRODUZIONE AI SISTEMI DI CLASSIFICAZIONE CON RETI NEURALI di G. Masala INTRODUZIONE Sistema di classificazione o riconoscimento Un sistema di classificazione [1][2] o di riconoscimento, considerato in

Dettagli

Weka: Weikato university Environment for Knowledge Analysis

Weka: Weikato university Environment for Knowledge Analysis : Weikato university Environment for Knowledge Analysis Corso di Data e Text Mining Ing. Andrea Tagarelli Università della Calabria Acknowledgements: Salvatore Ruggieri, Dip. di Informatica, Univ. di Pisa

Dettagli

Apprendimento automatico e Reti Neurali. Francesco Sambo tel

Apprendimento automatico e Reti Neurali. Francesco Sambo  tel Apprendimento automatico e Reti Neurali Francesco Sambo www.dei.unipd.it/~sambofra [email protected] tel. 049 827 7834 Apprendimento automatico Capacità di un agente di sintetizzare nuova conoscenza

Dettagli

Classificazione di un data set di proteine con Weka

Classificazione di un data set di proteine con Weka MODELLI PROBABILISTICI Classificazione di un data set di proteine con Weka SOFIA CIVIDINI 2 INTRODUZIONE Negli ultimi due decenni si è assistito ad un aumento esponenziale nella quantità dell informazione

Dettagli

Esempi di applicazioni di reti neurali

Esempi di applicazioni di reti neurali Esempi di applicazioni di reti neurali Ogni problema di rete neurale segue la stessa procedura di base: (1) caricare il set di dati, (2) inizializzare la rete, (3) addestrare la rete (training), e (4)

Dettagli

Applicazioni statistiche in ambito bancario

Applicazioni statistiche in ambito bancario Ph.D. Federico De Marchi Credit Risk Management Banca Carige [email protected] Struttura del corso Lezione 1 Teoria dei test statistici Lezione 2 Teoria della regressione Lezione 3 Davanti al

Dettagli

Introduzione al Pattern Recognition Statistico

Introduzione al Pattern Recognition Statistico Introduzione al Pattern Recognition Statistico Roberto Tagliaferri Dipartimento di Informatica Università di Salerno ( Sa ) 84084 Fisciano e-mail [email protected] Statistical Pattern Recognition Introduzione

Dettagli

Sistemi Intelligenti. Riassunto

Sistemi Intelligenti. Riassunto Sistemi Intelligenti Learning and Clustering Alberto Borghese and Iuri Frosio Università degli Studi di Milano Laboratorio di Sistemi Intelligenti Applicati (AIS-Lab) Dipartimento t di Scienze dell Informazione

Dettagli

Modelli probabilistici

Modelli probabilistici Modelli probabilistici Davide Cittaro e Marco Stefani Master bioinformatica 2003 Introduzione L obiettivo di presente lavoro è la classificazione di un insieme di proteine, definite da 27 valori numerici,

Dettagli

Quantificare la variabilità dei processi ecologici

Quantificare la variabilità dei processi ecologici Scopo ecologia Quantificare la variabilità dei processi ecologici Comprensione dei meccanismi fondamentale per identificare gli effetti del disturbo antropico e per prevenire alterazioni su scala globale

Dettagli

Il modello lineare misto

Il modello lineare misto Il modello lineare misto (capitolo 9) A M D Marcello Gallucci Univerisità Milano-Bicocca Lezione: 15 GLM Modello Lineare Generale vantaggi Consente di stimare le relazioni fra due o più variabili Si applica

Dettagli

Uno standard per il processo KDD

Uno standard per il processo KDD Uno standard per il processo KDD Il modello CRISP-DM (Cross Industry Standard Process for Data Mining) è un prodotto neutrale definito da un consorzio di numerose società per la standardizzazione del processo

Dettagli

Analisi Discriminante Strumenti quantitativi per la gestione

Analisi Discriminante Strumenti quantitativi per la gestione Analisi Discriminante Strumenti quantitativi per la gestione Emanuele Taufer Un esempio introduttivo Approccio con Bayes Perchè un altro metodo di classificazione? Classificazione con Bayes Analisi discriminante

Dettagli

Clustering con Weka. L interfaccia. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna. Algoritmo utilizzato per il clustering

Clustering con Weka. L interfaccia. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna. Algoritmo utilizzato per il clustering Clustering con Weka Soluzioni degli esercizi Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna L interfaccia Algoritmo utilizzato per il clustering E possibile escludere un sottoinsieme

Dettagli

Esempio di calcolo di rischio relativo

Esempio di calcolo di rischio relativo Esempio di calcolo di rischio relativo B. Cenci Goga Università degli Studi di Perugia, Dipartimento di Scienze Biopatologiche e Igiene delle Produzioni Animali e Alimentari, Sezione di Ispezione degli

Dettagli

Il processo inferenziale consente di generalizzare, con un certo grado di sicurezza, i risultati ottenuti osservando uno o più campioni

Il processo inferenziale consente di generalizzare, con un certo grado di sicurezza, i risultati ottenuti osservando uno o più campioni La statistica inferenziale Il processo inferenziale consente di generalizzare, con un certo grado di sicurezza, i risultati ottenuti osservando uno o più campioni E necessario però anche aggiungere con

Dettagli

Capitolo 3: Ottimizzazione non vincolata parte III. E. Amaldi DEI, Politecnico di Milano

Capitolo 3: Ottimizzazione non vincolata parte III. E. Amaldi DEI, Politecnico di Milano Capitolo 3: Ottimizzazione non vincolata parte III E. Amaldi DEI, Politecnico di Milano 3.4 Metodi di ricerca unidimensionale In genere si cerca una soluzione approssimata α k di min g(α) = f(x k +αd k

Dettagli

DoE Seminary APPLICAZIONE DoE AVL CAMEO. Daniele Bistolfi

DoE Seminary APPLICAZIONE DoE AVL CAMEO. Daniele Bistolfi DoE Seminary 2013 APPLICAZIONE DoE AVL CAMEO Daniele Bistolfi Calibration Work Flow Test Generator Test Execution Data Analysis & Modelling Optimization Validation 2 Test Generator S-Optimal Design S-OPTIMAL

Dettagli

L analisi fattoriale nella costruzione dei test

L analisi fattoriale nella costruzione dei test L analisi fattoriale nella costruzione dei test Vantaggi del metodo Rispetto ad altri metodi per costruire test, le procedure basate sull AF permettono di individuare punteggi chiaramente interpretabili

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 8 Support Vector Machines Ennio Ottaviani On AIR srl [email protected] http://www.onairweb.com/corsopr

Dettagli

BLOWFISH. Introduzione Algoritmo. Prestazioni Cryptanalysis of Vaundenay. Egizio Raffaele

BLOWFISH. Introduzione Algoritmo. Prestazioni Cryptanalysis of Vaundenay. Egizio Raffaele Introduzione Algoritmo Prestazioni Cryptanalysis of Vaundenay Egizio Raffaele Introduzione E un cifrario a blocchi a chiave simmetrica Utilizza varie tecniche tra le quali la rete Feistel, le S-box dipendenti

Dettagli

Calcolo numerico e programmazione Rappresentazione dei numeri

Calcolo numerico e programmazione Rappresentazione dei numeri Calcolo numerico e programmazione Rappresentazione dei numeri Tullio Facchinetti 16 marzo 2012 10:54 http://robot.unipv.it/toolleeo Rappresentazione dei numeri nei calcolatori

Dettagli

standardizzazione dei punteggi di un test

standardizzazione dei punteggi di un test DIAGNOSTICA PSICOLOGICA lezione! Paola Magnano [email protected] standardizzazione dei punteggi di un test serve a dare significato ai punteggi che una persona ottiene ad un test, confrontando la

Dettagli

BENCHMARK LE DIMENSIONI DEL QUESTIONARIO: Cultura e prassi per il diversity. Struttura e composizione della forza lavoro POPOLAZIONE AZIENDALE

BENCHMARK LE DIMENSIONI DEL QUESTIONARIO: Cultura e prassi per il diversity. Struttura e composizione della forza lavoro POPOLAZIONE AZIENDALE BENCHMARK Il benchmark è uno strumento scientifico e validato per ottenere informazioni comparative sulla gestione delle diversità. Il benchmark si basa sulla compilazione del questionario di raccolta

Dettagli

Bologna 15 settembre. Spazializzazione dati meteo

Bologna 15 settembre. Spazializzazione dati meteo P.I.C. INTERREG III METODI, STRUMENTI ED INDICATORI PER LA DEFINIZIONE DELLE VARIABILI CLIMATICHE Tavolo di confronto BOLOGNA 15 Settembre 2004 Bologna 15 settembre Spazializzazione dati meteo Alfonso

Dettagli

METODI DI CLASSIFICAZIONE. Federico Marini

METODI DI CLASSIFICAZIONE. Federico Marini METODI DI CLASSIFICAZIONE Federico Marini Introduzione Nella parte introduttiva dell analisi multivariata abbiamo descritto la possibilità di riconoscere l origine di alcuni campioni come uno dei campi

Dettagli

Modelli per variabili dipendenti qualitative

Modelli per variabili dipendenti qualitative SEMINARIO GRUPPO TEMATICO METODI e TECNICHE La valutazione degli incentivi industriali: aspetti metodologici Università di Brescia, 17 gennaio 2012 Modelli per variabili dipendenti qualitative Paola Zuccolotto

Dettagli

GENETICA QUANTITATIVA

GENETICA QUANTITATIVA GENETICA QUANTITATIVA Caratteri quantitativi e qualitativi I caratteri discontinui o qualitativi esibiscono un numero ridotto di fenotipi e mostrano una relazione genotipo-fenotipo semplice I caratteri

Dettagli

CORSO%DI%% A.A.% % Sezione%03c% SPETTRO ACUSTICO FISICA%TECNICA%AMBIENTALE%

CORSO%DI%% A.A.% % Sezione%03c% SPETTRO ACUSTICO FISICA%TECNICA%AMBIENTALE% 1 CORSO%DI%% FISICA%TECNICA%AMBIENTALE% A.A.%201352014% Sezione%03c%!! Prof. Ing. Sergio Montelpare! Dipartimento INGEO! Università G. d Annunzio Chieti-Pescara" 2 Le caratteristiche fondamentali del suono"

Dettagli

Il Progetto NIR Standard e Strumenti Software

Il Progetto NIR Standard e Strumenti Software CNIPA Ministero della Giustizia Il Progetto NIR Standard e Strumenti Software E. Francesconi ITTIG-CNR Istituto di Teoria e Tecniche dell Informazione Giuridica 7 Febbraio 2006 Overview Il progetto Norme

Dettagli

Errori di misura Teoria

Errori di misura Teoria Errori di misura Teoria a misura operazione di misura di una grandezza fisica, anche se eseguita con uno strumento precisissimo e con tecniche e procedimenti accurati, è sempre affetta da errori. Gli errori

Dettagli

TOPOGRAFIA 2013/2014. Prof. Francesco-Gaspare Caputo

TOPOGRAFIA 2013/2014. Prof. Francesco-Gaspare Caputo TOPOGRAFIA 2013/2014 L operazione di misura di una grandezza produce un numero reale che esprime il rapporto della grandezza stessa rispetto a un altra, a essa omogenea, assunta come unità di misura. L

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 4 Reti neurali per la classificazione Ennio Ottaviani On AIR srl [email protected]

Dettagli

Otacon22 HgComo. Reti neurali artificiali

Otacon22 HgComo. Reti neurali artificiali Otacon22 HgComo Reti neurali artificiali Chi sono? Daniele Iamartino ( aka Otacon22 ) Membro del team HgComo Studente/sperimentatore Futura matricola del PoliMi, ex liceale con tesina sulle reti neurali!

Dettagli

Metodi computazionali per i Minimi Quadrati

Metodi computazionali per i Minimi Quadrati Metodi computazionali per i Minimi Quadrati Come introdotto in precedenza si considera la matrice. A causa di mal condizionamenti ed errori di inversione, si possono avere casi in cui il e quindi S sarebbe

Dettagli

Esercizio 1. Esercizio 2

Esercizio 1. Esercizio 2 Sia data la matrice A A(α) = Esercizio α 2 2α 2 2, α R.) determinare per quali valori del parametro reale α é verificata la condizione necessaria e sufficiente di convergenza per il metodo di Jacobi;.2)

Dettagli

Backpropagation in MATLAB

Backpropagation in MATLAB Modello di neurone BACKPROPAGATION Backpropagation in MATLAB Prof. Beatrice Lazzerini Dipartimento di Ingegneria dell Informazione Via Diotisalvi 2, 56122 Pisa La funzione di trasferimento, che deve essere

Dettagli

viii Indice generale

viii Indice generale Indice generale 1 Introduzione al processo di ricerca 1 Sommario 1 Il processo di ricerca 3 Concetti e variabili 5 Scale di misura 8 Test di ipotesi 10 Evidenza empirica 10 Disegni di ricerca 11 Sintesi

Dettagli

Algoritmi di Classificazione e Reti Neurali

Algoritmi di Classificazione e Reti Neurali 06/03/2009 1 Algoritmi di Classificazione e Reti Neurali Lezione introduttiva 4 MARZO 2009 Struttura del corso Il corso è in co-docenza proff. L. Grippo e L. Palagi http://www.dis.uniroma1.it/~grippo/

Dettagli

Università del Piemonte Orientale Specializzazioni di area sanitaria Statistica Medica

Università del Piemonte Orientale Specializzazioni di area sanitaria Statistica Medica Università del Piemonte Orientale Specializzazioni di area sanitaria Statistica Medica Regressione Lineare e Correlazione Argomenti della lezione Determinismo e variabilità Correlazione Regressione Lineare

Dettagli

Introduzione alle tecniche di Data Mining. Prof. Giovanni Giuffrida

Introduzione alle tecniche di Data Mining. Prof. Giovanni Giuffrida Introduzione alle tecniche di Data Mining Prof. Giovanni Giuffrida Programma Contenuti Introduzione al Data Mining Mining pattern frequenti, regole associative Alberi decisionali Clustering Esempio di

Dettagli

Intelligenza Artificiale

Intelligenza Artificiale Intelligenza Artificiale Anno accademico 2008-2009 Machine Learning: Classificazione e Predizione Sommario Classificazione e Predizione Classificatori Separate and Conquer (PRISM) Classificatori Bayesiani

Dettagli

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Metodi per l Analisi dei Dati Sperimentali AA009/010 IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Sommario Massima Verosimiglianza Introduzione La Massima Verosimiglianza Esempio 1: una sola misura sperimentale

Dettagli

Introduzione agli Algoritmi Genetici ed alle Reti Neurali

Introduzione agli Algoritmi Genetici ed alle Reti Neurali Introduzione agli Algoritmi Genetici ed alle Reti Neurali Maurizio Palesi Introduzione agli Algoritmi Genetici ed alle Reti Neurali 1 Sommario Algoritmi Genetici Introduzione e applicazioni Terminologia

Dettagli

Laboratorio di Informatica

Laboratorio di Informatica per chimica industriale e chimica applicata e ambientale ESERCITAZIONE 2 Uso dell accessorio calcolatrice e conversione di numeri 1 Uso dell accessorio calcolatrice per Passaggi fra basi diverse Aritmetica

Dettagli