Progettazione di un Sistema di Machine Learning
|
|
|
- Marta Fortunato
- 9 anni fa
- Visualizzazioni
Transcript
1 Progettazione di un Sistema di Machine Learning Esercitazioni per il corso di Logica ed Intelligenza Artificiale a.a Vito Claudio Ostuni
2 Data analysis and pre-processing Dataset iniziale Feature Selection Model Choice and Learning Training set Model Selection Validation set Evaluation Test set Application New Data
3 Data analysis and pre-processing I dati nel mondo reale sono sporchi: incompleti: manca il valore di alcuni attributi, o mancano del tutto alcuni attributi interessanti. inaccurati: contengono valori errati o che si discostano sensibilmente da valori che ci si aspetta. GIGO: garbage in garbage out Occorre un accurata analisi e bonifica dei dati. Spesso questa parte di pre-processing porta via la maggior parte del tempo.
4 Data analysis and pre-processing Pre-processing: pulizia e trasformazione dei dati pulizia dei dati: rimozione outliers, rimozione rumore, rimozione duplicati trasformazioni: Discretizzazione Aggregazione normalizzazione e re-scaling Creazione nuovi attributi
5 Data analysis and pre-processing: Normalization Spesso gli attributi assumono valori in intervalli di ampiezza diversa. Questo variabilità può influire molto sull algoritmo di apprendimento. min-max normalization: si riscala l'attributo in modo che i nuovi valori cadano un intervallo desiderato [a,b]. Questo approccio può esser fortemente influenzato da outliers. Necessita la conoscenza dei valori min e max. (In fase di predizione potrebbe arrivare un input con un valore oltre il valore massimo). x= ((x-min)/(max-min) )* (b-a)+a Es x=(1,2,3) -> [0,1] x=((x-1)/(3-1))*1 ->x=(0,0.5,1) z-score normalization x= (x-mean(x))/(dev std(x)) Questo approccio è meno influenzato da outliers e non risente dei valori min e max.
6 Feature Selection Selezione degli attributi rilevanti. Spesso la dimensione dell input è elevato, ci sono molti attributi ridondanti (ce ne sono alcuni correlati tra loro) e/o irrilevanti. Questo può comportare complicazioni nel modello in quanto il numero di parametri diventa eccessivo (overfitting) e può richiedere anche un tempo maggiore in fase di addestramento. Filtri: si applicano delle misure che valutano quanto un attributo è capace di discriminare tra le classi. Si rimuovono gli attributi poco discriminatori. Misure tipiche: Information Gain, Entropy, Mutual Information Wrappers: metodo iterativo con cui si seleziona un sottoinsieme di attributi e lo si usa per addestrare un modello. Si itera cercando una combinazione di features che da le performance migliori(su un validation set) Algoritmi di riduzione della dimensionalità (PCA, SVD)
7 Model Selection Quale modello scegliamo?
8 Underfitting e Overfitting Underfitting High Bias Overfitting High Variance
9 Vogliamo un modello che sia capace di generalizzare, ovvero che sia capace di predire correttamente input non conosciuti durante l addestramento. Overfitting: il modello è tarato perfettamente sul training set. Si è ottenuto un modello molto complesso, fin troppo. Ha bassa capacità di generalizzare. Buone performance sul training set ma non sul test set. Underfitting: il modello è troppo semplice. Pessime performance sia sul training set che sul test set.
10 Generalization error=err(x)= Bias + Variance Bias misura l errore medio su h(x) Variance Misura quanto un modello varia da un dataset all altro
11
12 High Bias Underfitting High Variance Overfitting C è un tradeoff
13 Model Selection Quale modello scegliamo? Come scegliamo un modello che ci garantisca un buon compromesso tra underfitting(high bias) e overfitting(high variance)? -scegliamo SVM o ANN o logistic Regression? -se scegliamo la logistic regression, scegliamo un polinomio di grado2, grado3, grado1? -se invece scegliamo una ANN quanti neuroni nello strato nascosto? Cross Validation Utilizziamo una parte del Training Set come set di validazione
14 Quale modello scegliamo? Come scegliamo un modello che ci garantisca un buon compromesso tra underfitting(high bias) e overfitting(high variance)? -scegliamo SVM o ANN o logistic Regression? -se scegliamo la logistic regression, scegliamo un polinomio di grado2, grado3, grado1? -se invece scegliamo una ANN quanti neuroni nello strato nascosto? NO! Scegliamo il modello che dà l errore minore sul Training Set L errore sul Training Set è una sottostima dell errore di generalizzazione. Perché il modello è stato appreso proprio minimizzando quell errore. Questo provoca overfitting e il modello non sarà in grado di generalizzare.
15 Cross Validation Come scegliamo un modello che ci garantisca un buon compromesso tra underfitting(high bias) e overfitting(high variance)? -scegliamo SVM o ANN o logistic Regression? -se scegliamo la logistic regression, scegliamo un polinomio di grado2, grado3, grado1? -se invece scegliamo una ANN quanti neuroni nello strato nascosto? SI! Scegliamo il modello che dà l errore minore sul Validation Set Prima dell addestramento togliamo una parte dal Training Set e la utilizziamo come Validation Set. Questo insieme di validazione non viene utilizzato per l addestramento del modello. L errore sul Validation Set è una migliore stima dell errore di generalizzazione.
16 Cross Validation Di solito si sceglie come set di validazione 1/3 dei dati di training (hold-out cross validation) oppure si può utilizzare una k-folds cross validation. Una volta scelto il modello si può riaddestrare il modello scelto considerando tutto il training set iniziale. La cross validation è utilizzabile anche per trovare dei metaparametri del modello. Ad esempio il fattore di regolarizzazione. Oppure può esser utilizzata per la selezione di un sotto insieme di features rilevanti.
17 Cross Validation
18 Valutazione del modello Una volta scelto il modello abbiamo bisogni di valutarlo e validarlo. La valutazione viene fatta su un set di dati separati da quelli di addestramento e validazione. La misura di performance finale viene calcolata sul Test Set. Purtroppo è molto facile cadere nella tentazione di dare una sbirciata ai dati di test (peeking). Il peeking si verifica in questo modo: si generano diverse ipotesi(modelli)con varie versioni dell algoritmo si misurano le loro prestazioni sull insieme di test si sceglie l ipotesi che fornisce le migliori predizioni Questa procedura è sbagliata in quanto si dovrebbe utilizzare il validation set per la scelta delle ipotesi e il Test Set deve esser utilizzato solamente una volta scelto il modello finale per validare il modello attraverso una misura di performance. L errore sul validation set è una sottostima dell errore di generalizzazione in quanto il validation set è utilizzato per la scelta del modello finale.
19 Valutazione del modello Ci sono due tecniche principali di valutazione: Holdout Questo metodo ha lo svantaggio che i particolari insiemi di training e test possono influenzare la valutazione. Accorgimento: i campioni scelti potrebbero non esser rappresentativi. Ad esempio la rappresentazione di una classe potrebbe esser sbilanciata tra insieme di addestramento e test. Si può utilizzare una tecnica di stratificazione in cui si controlla che le classi vengano distribuite equamente.
20 Valutazione del modello K-folds Cross validation si basa su K iterazioni(esperimenti), alla i-ma iterazione si usa la i-ma fold come test set e le restanti compongono il training set. Una scelta comune per K è 10. Si potrebbe effettuare l intera procedura più volte scegliendo casualmente la composizione delle folds (rimescolamento del dataset).
21
22 Valutazione del modello: Misure di Perfomance RMSE, MAE Accuracy Regressione Classificazione Precision/Recall ROC
23 classificatore binario Matrice di Confusione Predizioni calcolate con il classificatore che stiamo valutando Training Set Validation Set Test Set
24 Matrice di Confusione Accuracy = (TP+TN)/(TP+TN+FP+FN) Error rate = (FP+FN)/(TP+TN+FP+FN) = 1- accuracy Recall o Sensitivity otrue Positive Rate = TP/(TP+FN) Precision = TP/(TP+FP) F-measure = 2*precision*recall/(precision+recall) Specificity o True Negative Rate=TN/(FP+TN) False Positive Rate=FP/(TN+FP) = 1-specificity
25 ROC Curve
Apprendimento Automatico (Feature Selection e Kernel Learning)
Apprendimento Automatico (Feature Selection e Kernel Learning) Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Servono tutti gli attributi? Gli
Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità
Intelligenza Artificiale Soft Computing: Reti Neurali Generalità Neurone Artificiale Costituito da due stadi in cascata: sommatore lineare (produce il cosiddetto net input) net = S j w j i j w j è il peso
Esperienze di Apprendimento Automatico per il corso di Intelligenza Artificiale
Esperienze di Apprendimento Automatico per il corso di [email protected] Dipartimento Sistemi e Informatica Università di Firenze Dipartimento Ingegneria dell Informazione Università di Siena Introduzione
Regressione non lineare con un modello neurale feedforward
Reti Neurali Artificiali per lo studio del mercato Università degli studi di Brescia - Dipartimento di metodi quantitativi Marco Sandri ([email protected]) Regressione non lineare con un modello neurale
Reti Neurali. Corso di AA, anno 2016/17, Padova. Fabio Aiolli. 2 Novembre Fabio Aiolli Reti Neurali 2 Novembre / 14. unipd_logo.
Reti Neurali Corso di AA, anno 2016/17, Padova Fabio Aiolli 2 Novembre 2016 Fabio Aiolli Reti Neurali 2 Novembre 2016 1 / 14 Reti Neurali Artificiali: Generalità Due motivazioni diverse hanno spinto storicamente
Data mining: classificazione DataBase and Data Mining Group of Politecnico di Torino
DataBase and Data Mining Group of Database and data mining group, Database and data mining group, DataBase and Data Mining Group of DataBase and Data Mining Group of So dati insieme di classi oggetti etichettati
Preprocessamento dei Dati
Preprocessamento dei Dati Raramente i dati sperimentali sono pronti per essere utilizzati immediatamente per le fasi successive del processo di identificazione, a causa di: Offset e disturbi a bassa frequenza
Derivazione numerica. Introduzione al calcolo numerico. Derivazione numerica (II) Derivazione numerica (III)
Derivazione numerica Introduzione al calcolo numerico Il calcolo della derivata di una funzione in un punto implica un processo al limite che può solo essere approssimato da un calcolatore. Supponiamo
Modelli matematici e Data Mining
Modelli matematici e Data Mining Introduzione I modelli matematici giocano un ruolo critico negli ambienti di business intelligence e sistemi di supporto alle decisioni. Essi rappresentano un astrazione
Feature Selection per la Classificazione
1 1 Dipartimento di Informatica e Sistemistica Sapienza Università di Roma Corso di Algoritmi di Classificazione e Reti Neurali 20/11/2009, Roma Outline Feature Selection per problemi di Classificazione
Sistemi per la gestione delle basi di dati
Sistemi per la gestione delle basi di dati Esercitazione #5 Data mining Obiettivo Applicare algoritmi di data mining per la classificazione al fine di analizzare dati reali mediante l utilizzo dell applicazione
Lezione introduttiva su reti neurali e SVM Veronica Piccialli. Corso di Ottimizzazione a.a (seconda parte)
Lezione introduttiva su reti neurali e SVM Veronica Piccialli Corso di Ottimizzazione a.a. 2009-10 (seconda parte) Ottimizzazione Statistica Fisica Biologia Reti Neurali Matematica Psicologia Informatica
Luigi Santoro. Hyperphar Group S.p.A., MIlano
Come modellare il rischio Luigi Santoro Hyperphar Group S.p.A., MIlano Gli argomenti discussi Le definizioni del termine rischio L utilità di un modello predittivo di rischio Come costruire modelli predittivi
Intelligenza Artificiale. A n n o A c c a d e m i c o Introduzione al Machine Learning Apprendimento Induttivo: alberi di decisione
Intelligenza Artificiale A n n o A c c a d e m i c o 2 0 0 8-2 0 0 9 Introduzione al Machine Learning Apprendimento Induttivo: alberi di decisione 1 Sommario Introduzione al Machine Learning Apprendimento
Reti Neurali in Generale
istemi di Elaborazione dell Informazione 76 Reti Neurali in Generale Le Reti Neurali Artificiali sono studiate sotto molti punti di vista. In particolare, contributi alla ricerca in questo campo provengono
Circuiti e algoritmi per l elaborazione dell informazione
Università di Roma La Sapienza Facoltà di Ingegneria Laurea Specialistica in Ingegneria Elettronica Orientamento: Circuiti e algoritmi per l elaborazione dell informazione L x[n] y[n] Circuito: V g (t)
Realizzazione di un sistema predittivo dei risultati del campionato di calcio italiano di serie A 2006/2007
Realizzazione di un sistema predittivo dei risultati del campionato di calcio italiano di serie A 2006/2007 Docente Prof. Giuseppe Manco Studenti Matr.. 96803 Francesco Aiello Matr.. 94881 Vittorio Leo
I DSS e la gestione dei dati e della conoscenza. Prof. Luca Gnan
I DSS e la gestione dei dati e della conoscenza Prof. Luca Gnan Argomenti I decision support system Tipologie di DSS Logiche di funzionamento Tipologie di analisi La gestione dei dati e della conoscenza
Classificazione e Predizione
Lezione di TDM DM del 16 Aprile 2007 Francesco Bonchi, KDD Lab Pisa, ISTI-C.N.R. 1 Lezione odierna Intuizioni sul concetto di classificazione Alberi di decisione Alberi di decisione con Weka Classificazione:
Statistica di base per l analisi socio-economica
Laurea Magistrale in Management e comunicazione d impresa Statistica di base per l analisi socio-economica Giovanni Di Bartolomeo [email protected] Definizioni di base Una popolazione è l insieme
Teoria e tecniche dei test
Teoria e tecniche dei test Lezione 9 LA STANDARDIZZAZIONE DEI TEST. IL PROCESSO DI TARATURA: IL CAMPIONAMENTO. Costruire delle norme di riferimento per un test comporta delle ipotesi di fondo che è necessario
Weka Project. Weka. Weka Project. Formato.arff. Modalità di utilizzo di Weka. Formato.arff
Weka Project Weka Machine Learning Algorithms in Java Waikato Environment for Knowledge Analysis Algoritmi di Data Mining e Machine Learning realizzati in Java Preprocessing Classificazione Clustering
La misurazione della televisione satellitare a pagamento
La misurazione della televisione satellitare a pagamento Cosa è stato fatto, cosa rimane da fare Vittorio Bossi Milano, 4 novembre 2007 Cosa è stato fatto Abbiamo un sistema di channel detection che funziona
MACHINE LEARNING e DATA MINING Introduzione. a.a.2015/16 Jessica Rosati [email protected]
MACHINE LEARNING e DATA MINING Introduzione a.a.2015/16 Jessica Rosati [email protected] Apprendimento Automatico(i) Branca dell AI che si occupa di realizzare dispositivi artificiali capaci di
Regole associative con Weka
Regole associative con Weka Soluzioni degli esercizi Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Apriori parametri e output In questa fase utilizzeremo il data set CensusTrainining.arff
INTRODUZIONE AI SISTEMI DI CLASSIFICAZIONE
INTRODUZIONE AI SISTEMI DI CLASSIFICAZIONE CON RETI NEURALI di G. Masala INTRODUZIONE Sistema di classificazione o riconoscimento Un sistema di classificazione [1][2] o di riconoscimento, considerato in
Weka: Weikato university Environment for Knowledge Analysis
: Weikato university Environment for Knowledge Analysis Corso di Data e Text Mining Ing. Andrea Tagarelli Università della Calabria Acknowledgements: Salvatore Ruggieri, Dip. di Informatica, Univ. di Pisa
Apprendimento automatico e Reti Neurali. Francesco Sambo tel
Apprendimento automatico e Reti Neurali Francesco Sambo www.dei.unipd.it/~sambofra [email protected] tel. 049 827 7834 Apprendimento automatico Capacità di un agente di sintetizzare nuova conoscenza
Classificazione di un data set di proteine con Weka
MODELLI PROBABILISTICI Classificazione di un data set di proteine con Weka SOFIA CIVIDINI 2 INTRODUZIONE Negli ultimi due decenni si è assistito ad un aumento esponenziale nella quantità dell informazione
Esempi di applicazioni di reti neurali
Esempi di applicazioni di reti neurali Ogni problema di rete neurale segue la stessa procedura di base: (1) caricare il set di dati, (2) inizializzare la rete, (3) addestrare la rete (training), e (4)
Applicazioni statistiche in ambito bancario
Ph.D. Federico De Marchi Credit Risk Management Banca Carige [email protected] Struttura del corso Lezione 1 Teoria dei test statistici Lezione 2 Teoria della regressione Lezione 3 Davanti al
Introduzione al Pattern Recognition Statistico
Introduzione al Pattern Recognition Statistico Roberto Tagliaferri Dipartimento di Informatica Università di Salerno ( Sa ) 84084 Fisciano e-mail [email protected] Statistical Pattern Recognition Introduzione
Sistemi Intelligenti. Riassunto
Sistemi Intelligenti Learning and Clustering Alberto Borghese and Iuri Frosio Università degli Studi di Milano Laboratorio di Sistemi Intelligenti Applicati (AIS-Lab) Dipartimento t di Scienze dell Informazione
Modelli probabilistici
Modelli probabilistici Davide Cittaro e Marco Stefani Master bioinformatica 2003 Introduzione L obiettivo di presente lavoro è la classificazione di un insieme di proteine, definite da 27 valori numerici,
Quantificare la variabilità dei processi ecologici
Scopo ecologia Quantificare la variabilità dei processi ecologici Comprensione dei meccanismi fondamentale per identificare gli effetti del disturbo antropico e per prevenire alterazioni su scala globale
Il modello lineare misto
Il modello lineare misto (capitolo 9) A M D Marcello Gallucci Univerisità Milano-Bicocca Lezione: 15 GLM Modello Lineare Generale vantaggi Consente di stimare le relazioni fra due o più variabili Si applica
Uno standard per il processo KDD
Uno standard per il processo KDD Il modello CRISP-DM (Cross Industry Standard Process for Data Mining) è un prodotto neutrale definito da un consorzio di numerose società per la standardizzazione del processo
Analisi Discriminante Strumenti quantitativi per la gestione
Analisi Discriminante Strumenti quantitativi per la gestione Emanuele Taufer Un esempio introduttivo Approccio con Bayes Perchè un altro metodo di classificazione? Classificazione con Bayes Analisi discriminante
Clustering con Weka. L interfaccia. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna. Algoritmo utilizzato per il clustering
Clustering con Weka Soluzioni degli esercizi Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna L interfaccia Algoritmo utilizzato per il clustering E possibile escludere un sottoinsieme
Esempio di calcolo di rischio relativo
Esempio di calcolo di rischio relativo B. Cenci Goga Università degli Studi di Perugia, Dipartimento di Scienze Biopatologiche e Igiene delle Produzioni Animali e Alimentari, Sezione di Ispezione degli
Il processo inferenziale consente di generalizzare, con un certo grado di sicurezza, i risultati ottenuti osservando uno o più campioni
La statistica inferenziale Il processo inferenziale consente di generalizzare, con un certo grado di sicurezza, i risultati ottenuti osservando uno o più campioni E necessario però anche aggiungere con
Capitolo 3: Ottimizzazione non vincolata parte III. E. Amaldi DEI, Politecnico di Milano
Capitolo 3: Ottimizzazione non vincolata parte III E. Amaldi DEI, Politecnico di Milano 3.4 Metodi di ricerca unidimensionale In genere si cerca una soluzione approssimata α k di min g(α) = f(x k +αd k
DoE Seminary APPLICAZIONE DoE AVL CAMEO. Daniele Bistolfi
DoE Seminary 2013 APPLICAZIONE DoE AVL CAMEO Daniele Bistolfi Calibration Work Flow Test Generator Test Execution Data Analysis & Modelling Optimization Validation 2 Test Generator S-Optimal Design S-OPTIMAL
L analisi fattoriale nella costruzione dei test
L analisi fattoriale nella costruzione dei test Vantaggi del metodo Rispetto ad altri metodi per costruire test, le procedure basate sull AF permettono di individuare punteggi chiaramente interpretabili
Tecniche di riconoscimento statistico
Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 8 Support Vector Machines Ennio Ottaviani On AIR srl [email protected] http://www.onairweb.com/corsopr
BLOWFISH. Introduzione Algoritmo. Prestazioni Cryptanalysis of Vaundenay. Egizio Raffaele
Introduzione Algoritmo Prestazioni Cryptanalysis of Vaundenay Egizio Raffaele Introduzione E un cifrario a blocchi a chiave simmetrica Utilizza varie tecniche tra le quali la rete Feistel, le S-box dipendenti
Calcolo numerico e programmazione Rappresentazione dei numeri
Calcolo numerico e programmazione Rappresentazione dei numeri Tullio Facchinetti 16 marzo 2012 10:54 http://robot.unipv.it/toolleeo Rappresentazione dei numeri nei calcolatori
standardizzazione dei punteggi di un test
DIAGNOSTICA PSICOLOGICA lezione! Paola Magnano [email protected] standardizzazione dei punteggi di un test serve a dare significato ai punteggi che una persona ottiene ad un test, confrontando la
BENCHMARK LE DIMENSIONI DEL QUESTIONARIO: Cultura e prassi per il diversity. Struttura e composizione della forza lavoro POPOLAZIONE AZIENDALE
BENCHMARK Il benchmark è uno strumento scientifico e validato per ottenere informazioni comparative sulla gestione delle diversità. Il benchmark si basa sulla compilazione del questionario di raccolta
Bologna 15 settembre. Spazializzazione dati meteo
P.I.C. INTERREG III METODI, STRUMENTI ED INDICATORI PER LA DEFINIZIONE DELLE VARIABILI CLIMATICHE Tavolo di confronto BOLOGNA 15 Settembre 2004 Bologna 15 settembre Spazializzazione dati meteo Alfonso
METODI DI CLASSIFICAZIONE. Federico Marini
METODI DI CLASSIFICAZIONE Federico Marini Introduzione Nella parte introduttiva dell analisi multivariata abbiamo descritto la possibilità di riconoscere l origine di alcuni campioni come uno dei campi
Modelli per variabili dipendenti qualitative
SEMINARIO GRUPPO TEMATICO METODI e TECNICHE La valutazione degli incentivi industriali: aspetti metodologici Università di Brescia, 17 gennaio 2012 Modelli per variabili dipendenti qualitative Paola Zuccolotto
GENETICA QUANTITATIVA
GENETICA QUANTITATIVA Caratteri quantitativi e qualitativi I caratteri discontinui o qualitativi esibiscono un numero ridotto di fenotipi e mostrano una relazione genotipo-fenotipo semplice I caratteri
CORSO%DI%% A.A.% % Sezione%03c% SPETTRO ACUSTICO FISICA%TECNICA%AMBIENTALE%
1 CORSO%DI%% FISICA%TECNICA%AMBIENTALE% A.A.%201352014% Sezione%03c%!! Prof. Ing. Sergio Montelpare! Dipartimento INGEO! Università G. d Annunzio Chieti-Pescara" 2 Le caratteristiche fondamentali del suono"
Il Progetto NIR Standard e Strumenti Software
CNIPA Ministero della Giustizia Il Progetto NIR Standard e Strumenti Software E. Francesconi ITTIG-CNR Istituto di Teoria e Tecniche dell Informazione Giuridica 7 Febbraio 2006 Overview Il progetto Norme
Errori di misura Teoria
Errori di misura Teoria a misura operazione di misura di una grandezza fisica, anche se eseguita con uno strumento precisissimo e con tecniche e procedimenti accurati, è sempre affetta da errori. Gli errori
TOPOGRAFIA 2013/2014. Prof. Francesco-Gaspare Caputo
TOPOGRAFIA 2013/2014 L operazione di misura di una grandezza produce un numero reale che esprime il rapporto della grandezza stessa rispetto a un altra, a essa omogenea, assunta come unità di misura. L
Tecniche di riconoscimento statistico
On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 4 Reti neurali per la classificazione Ennio Ottaviani On AIR srl [email protected]
Otacon22 HgComo. Reti neurali artificiali
Otacon22 HgComo Reti neurali artificiali Chi sono? Daniele Iamartino ( aka Otacon22 ) Membro del team HgComo Studente/sperimentatore Futura matricola del PoliMi, ex liceale con tesina sulle reti neurali!
Metodi computazionali per i Minimi Quadrati
Metodi computazionali per i Minimi Quadrati Come introdotto in precedenza si considera la matrice. A causa di mal condizionamenti ed errori di inversione, si possono avere casi in cui il e quindi S sarebbe
Esercizio 1. Esercizio 2
Sia data la matrice A A(α) = Esercizio α 2 2α 2 2, α R.) determinare per quali valori del parametro reale α é verificata la condizione necessaria e sufficiente di convergenza per il metodo di Jacobi;.2)
Backpropagation in MATLAB
Modello di neurone BACKPROPAGATION Backpropagation in MATLAB Prof. Beatrice Lazzerini Dipartimento di Ingegneria dell Informazione Via Diotisalvi 2, 56122 Pisa La funzione di trasferimento, che deve essere
viii Indice generale
Indice generale 1 Introduzione al processo di ricerca 1 Sommario 1 Il processo di ricerca 3 Concetti e variabili 5 Scale di misura 8 Test di ipotesi 10 Evidenza empirica 10 Disegni di ricerca 11 Sintesi
Algoritmi di Classificazione e Reti Neurali
06/03/2009 1 Algoritmi di Classificazione e Reti Neurali Lezione introduttiva 4 MARZO 2009 Struttura del corso Il corso è in co-docenza proff. L. Grippo e L. Palagi http://www.dis.uniroma1.it/~grippo/
Università del Piemonte Orientale Specializzazioni di area sanitaria Statistica Medica
Università del Piemonte Orientale Specializzazioni di area sanitaria Statistica Medica Regressione Lineare e Correlazione Argomenti della lezione Determinismo e variabilità Correlazione Regressione Lineare
Introduzione alle tecniche di Data Mining. Prof. Giovanni Giuffrida
Introduzione alle tecniche di Data Mining Prof. Giovanni Giuffrida Programma Contenuti Introduzione al Data Mining Mining pattern frequenti, regole associative Alberi decisionali Clustering Esempio di
Intelligenza Artificiale
Intelligenza Artificiale Anno accademico 2008-2009 Machine Learning: Classificazione e Predizione Sommario Classificazione e Predizione Classificatori Separate and Conquer (PRISM) Classificatori Bayesiani
IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA
Metodi per l Analisi dei Dati Sperimentali AA009/010 IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Sommario Massima Verosimiglianza Introduzione La Massima Verosimiglianza Esempio 1: una sola misura sperimentale
Introduzione agli Algoritmi Genetici ed alle Reti Neurali
Introduzione agli Algoritmi Genetici ed alle Reti Neurali Maurizio Palesi Introduzione agli Algoritmi Genetici ed alle Reti Neurali 1 Sommario Algoritmi Genetici Introduzione e applicazioni Terminologia
Laboratorio di Informatica
per chimica industriale e chimica applicata e ambientale ESERCITAZIONE 2 Uso dell accessorio calcolatrice e conversione di numeri 1 Uso dell accessorio calcolatrice per Passaggi fra basi diverse Aritmetica
