Progettazione di un Sistema di Machine Learning
|
|
|
- Amedeo Clemente
- 8 anni fa
- Visualizzazioni
Transcript
1 Progettazione di un Sistema di Machine Learning Esercitazioni per il corso di Logica ed Intelligenza Artificiale Rosati Jessica
2 Machine Learning System Un sistema di Machine learning apprende automaticamente programmi a partire dai dati; L apprendimento si basa su tre componenti: representation + optimization + evaluation; Representation: individuare lo spazio delle ipotesi (hypotesis space of the learner) e rappresentare i dati di input (quali features usare)
3 Machine Learning System Optimization: metodo per addestrare il classificatore (e.x. Gradient descent, greedy search ); Evaluation: funzione di valutazione (scoring/objective function) per distinguere un buon learner da un bad learner. Goal: generalizzare oltre gli esempi visti nel training set.
4 Data analysis and pre processing Dataset iniziale Feature Selection Model Choice and Learning Training set Model Selection Validation set Evaluation Test set Application New Data
5 Data analysis and pre processing I dati nel mondo reale sono sporchi: incompleti: manca il valore di alcuni attributi, o mancano del tutto alcuni attributi interessanti. inaccurati: contengono valori errati o che si discostano sensibilmente da valori che ci si aspetta. GIGO: garbage in garbage out Occorre un accurata analisi e bonifica dei dati. Spesso questa parte di pre processing porta via la maggior parte del tempo.
6 Data analysis and pre processing Pre processing: pulizia e trasformazione dei dati pulizia dei dati: rimozione outliers, rimozione rumore, rimozione duplicati trasformazioni: Discretizzazione Aggregazione normalizzazione e re scaling Creazione nuovi attributi
7 Data analysis and pre processing: Normalization Spesso gli attributi assumono valori in intervalli di ampiezza diversa. Questo variabilità può influire molto sull algoritmo di apprendimento. min max normalization: si riscala l'attributo in modo che i nuovi valori cadano un intervallo desiderato [a,b]. Questo approccio può esser fortemente influenzato da outliers. Necessita la conoscenza dei valori min e max. (In fase di predizione potrebbe arrivare un input con un valore oltre il valore massimo). x= ((x min)/(max min) )* (b a)+a Es x=(1,2,3) > [0,1] x=((x 1)/(3 1))*1 >x=(0,0.5,1) z score normalization x= (x mean(x))/(dev std(x)) Questo approccio è meno influenzato da outliers e non risente dei valori min e max.
8 Feature Selection Selezione degli attributi rilevanti. Spesso la dimensione dell input è elevato, ci sono molti attributi ridondanti (ce ne sono alcuni correlati tra loro) e/o irrilevanti. Questo può comportare complicazioni nel modello in quanto il numero di parametri diventa eccessivo (overfitting) e può richiedere anche un tempo maggiore in fase di addestramento. Filtri: si applicano delle misure che valutano quanto un attributo è capace di discriminare tra le classi. Si rimuovono gli attributi poco discriminatori. Misure tipiche: Information Gain, Entropy, Mutual Information Wrappers: metodo iterativo con cui si seleziona un sottoinsieme di attributi e lo si usa per addestrare un modello. Si itera cercando una combinazione di features che da le performance migliori(su un validation set) Algoritmi di riduzione della dimensionalità (PCA, SVD)
9 Model Selection Quale modello scegliamo?
10 Underfitting e Overfitting Underfitting High Bias Overfitting High Variance
11 Vogliamo un modello che sia capace di generalizzare, ovvero che sia capace di predire correttamente input non conosciuti durante l addestramento. Overfitting: il modello è tarato perfettamente sul training set. Si è ottenuto un modello molto complesso, fin troppo. Ha bassa capacità di generalizzare. Buone performance sul training set ma non sul test set. Underfitting: il modello è troppo semplice. Pessime performance sia sul training set che sul test set.
12 Generalization error=err(x)= Bias + Variance Bias misura l errore medio su h(x): misura della tendenza del learner a apprendere la stessa cosa sbagliata Variance Misura quanto un modello varia da un dataset all altro: misura della tendenza del learner ad apprendere cose random, indipendentemente dal segnale reale di input
13
14 High Bias Underfitting High Variance Overfitting C è un tradeoff
15 Model Selection Quale modello scegliamo? Come scegliamo un modello che ci garantisca un buon compromesso tra underfitting(high bias) e overfitting(high variance)? scegliamo SVM o ANN o logistic Regression? se scegliamo la logistic regression, scegliamo un polinomio di grado2, grado3, grado1? se invece scegliamo una ANN quanti neuroni nello strato nascosto? Cross Validation Utilizziamo una parte del Training Set come set di validazione
16 Quale modello scegliamo? Come scegliamo un modello che ci garantisca un buon compromesso tra underfitting(high bias) e overfitting(high variance)? scegliamo SVM o ANN o logistic Regression? se scegliamo la logistic regression, scegliamo un polinomio di grado2, grado3, grado1? se invece scegliamo una ANN quanti neuroni nello strato nascosto? NO! Scegliamo il modello che dà l errore minore sul Training Set L errore sul Training Set è una sottostima dell errore di generalizzazione. Perché il modello è stato appreso proprio minimizzando quell errore. Questo provoca overfitting e il modello non sarà in grado di generalizzare.
17 Cross Validation Come scegliamo un modello che ci garantisca un buon compromesso tra underfitting(high bias) e overfitting(high variance)? scegliamo SVM o ANN o logistic Regression? se scegliamo la logistic regression, scegliamo un polinomio di grado2, grado3, grado1? se invece scegliamo una ANN quanti neuroni nello strato nascosto? SI! Scegliamo il modello che dà l errore minore sul Validation Set Prima dell addestramento togliamo una parte dal Training Set e la utilizziamo come Validation Set. Questo insieme di validazione non viene utilizzato per l addestramento del modello. L errore sul Validation Set è una migliore stima dell errore di generalizzazione.
18 Cross Validation Di solito si sceglie come set di validazione 1/3 dei dati di training (hold out cross validation) oppure si può utilizzare una k folds cross validation. Una volta scelto il modello si può riaddestrare il modello scelto considerando tutto il training set iniziale. La cross validation è utilizzabile anche per trovare dei metaparametri del modello. Ad esempio il fattore di regolarizzazione. Oppure può esser utilizzata per la selezione di un sottoinsieme di features rilevanti.
19 Cross Validation
20 Valutazione del modello Una volta scelto il modello abbiamo bisogni di valutarlo e validarlo. La valutazione viene fatta su un set di dati separati da quelli di addestramento e validazione. La misura di performance finale viene calcolata sul Test Set. Purtroppo è molto facile cadere nella tentazione di dare una sbirciata ai dati di test (peeking). Il peeking si verifica in questo modo: si generano diverse ipotesi(modelli)con varie versioni dell algoritmo si misurano le loro prestazioni sull insieme di test si sceglie l ipotesi che fornisce le migliori predizioni Questa procedura è sbagliata in quanto si dovrebbe utilizzare il validation set per la scelta delle ipotesi e il Test Set deve esser utilizzato solamente una volta scelto il modello finale per validare il modello attraverso una misura di performance. L errore sul validation set è una sottostima dell errore di generalizzazione in quanto il validation set è utilizzato per la scelta del modello finale.
21 Valutazione del modello Ci sono due tecniche principali di valutazione: Holdout Questo metodo ha lo svantaggio che i particolari insiemi di training e test possono influenzare la valutazione. Accorgimento: i campioni scelti potrebbero non esser rappresentativi. Ad esempio la rappresentazione di una classe potrebbe esser sbilanciata tra insieme di addestramento e test. Si può utilizzare una tecnica di stratificazione in cui si controlla che le classi vengano distribuite equamente.
22 Valutazione del modello K folds Cross validation si basa su K iterazioni(esperimenti), alla i ma iterazione si usa la i ma fold come test set e le restanti compongono il training set. Una scelta comune per K è 10. Si potrebbe effettuare l intera procedura più volte scegliendo casualmente la composizione delle folds (rimescolamento del dataset).
23
24 Un ultimo accorgimento. Non è buona pratica utilizzare l informazione sulla classe di appartenenza dei dati di test in una fase di pre processing come la feature selection ad esempio. GOOD BAD
25 Valutazione del modello: Misure di Perfomance Regressione RMSE, MAE, Indice di Determinazione Accuracy Precision/Recall ROC Classificazione
26 classificatore binario Matrice di Confusione Predizioni calcolate con il classificatore che stiamo valutando Training Set Validation Set Test Set
27 Matrice di Confusione Accuracy = (TP+TN)/(TP+TN+FP+FN) Error rate = (FP+FN)/(TP+TN+FP+FN) = 1 accuracy Recall o Sensitivity otrue Positive Rate = TP/(TP+FN) Precision = TP/(TP+FP) F measure = 2*precision*recall/(precision+recall) Specificity o True Negative Rate=TN/(FP+TN) False Positive Rate=FP/(TN+FP) = 1 specificity
28 ROC Curve
Progettazione di un Sistema di Machine Learning
Progettazione di un Sistema di Machine Learning Esercitazioni per il corso di Logica ed Intelligenza Artificiale a.a. 2013-14 Vito Claudio Ostuni Data analysis and pre-processing Dataset iniziale Feature
Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione
Corso di Bioinformatica Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di machine learning I metodi
Stima della qualità dei classificatori per l analisi dei dati biomolecolari
Stima della qualità dei classificatori per l analisi dei dati biomolecolari Giorgio Valentini e-mail: [email protected] Rischio atteso e rischio empirico L` apprendimento di una funzione non nota
Apprendimento Automatico (Feature Selection e Kernel Learning)
Apprendimento Automatico (Feature Selection e Kernel Learning) Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Servono tutti gli attributi? Gli
Riconoscimento automatico di oggetti (Pattern Recognition)
Riconoscimento automatico di oggetti (Pattern Recognition) Scopo: definire un sistema per riconoscere automaticamente un oggetto data la descrizione di un oggetto che può appartenere ad una tra N classi
Classificazione Validazione Decision Tree & kmeans. Renato Mainetti
Classificazione Validazione Decision Tree & kmeans Renato Mainetti Apprendimento Supervisionato e Non Supervisionato: forniamo input e output Non supervisionato: forniamo solo input 2 Apprendimento Supervisionato
Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità
Intelligenza Artificiale Soft Computing: Reti Neurali Generalità Neurone Artificiale Costituito da due stadi in cascata: sommatore lineare (produce il cosiddetto net input) net = S j w j i j w j è il peso
Esperienze di Apprendimento Automatico per il corso di Intelligenza Artificiale
Esperienze di Apprendimento Automatico per il corso di [email protected] Dipartimento Sistemi e Informatica Università di Firenze Dipartimento Ingegneria dell Informazione Università di Siena Introduzione
6. Partial Least Squares (PLS)
& C. Di Natale: (PLS) Partial Least Squares PLS toolbox di MATLAB 1 Da PCR a PLS approccio geometrico Nella PCR la soluzione del problema della regressione passa attraverso la decomposizione della matrice
Reti Neurali. Corso di AA, anno 2016/17, Padova. Fabio Aiolli. 2 Novembre Fabio Aiolli Reti Neurali 2 Novembre / 14. unipd_logo.
Reti Neurali Corso di AA, anno 2016/17, Padova Fabio Aiolli 2 Novembre 2016 Fabio Aiolli Reti Neurali 2 Novembre 2016 1 / 14 Reti Neurali Artificiali: Generalità Due motivazioni diverse hanno spinto storicamente
Feature Selection per la Classificazione
1 1 Dipartimento di Informatica e Sistemistica Sapienza Università di Roma Corso di Algoritmi di Classificazione e Reti Neurali 20/11/2009, Roma Outline Feature Selection per problemi di Classificazione
Classificazione Mario Guarracino Laboratorio di Sistemi Informativi Aziendali a.a. 2006/2007
Classificazione Introduzione I modelli di classificazione si collocano tra i metodi di apprendimento supervisionato e si rivolgono alla predizione di un attributo target categorico. A partire da un insieme
Regressione non lineare con un modello neurale feedforward
Reti Neurali Artificiali per lo studio del mercato Università degli studi di Brescia - Dipartimento di metodi quantitativi Marco Sandri ([email protected]) Regressione non lineare con un modello neurale
Introduzione alle Reti Neurali
Introduzione alle Reti Neurali Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: [email protected] @famo2spaghi http://stegua.github.com Reti Neurali Terminator
Apprendimento automatico e Reti Neurali. Francesco Sambo tel
Apprendimento automatico e Reti Neurali Francesco Sambo www.dei.unipd.it/~sambofra [email protected] tel. 049 827 7834 Apprendimento automatico Capacità di un agente di sintetizzare nuova conoscenza
Lezione introduttiva su reti neurali e SVM Veronica Piccialli. Corso di Ottimizzazione a.a (seconda parte)
Lezione introduttiva su reti neurali e SVM Veronica Piccialli Corso di Ottimizzazione a.a. 2009-10 (seconda parte) Ottimizzazione Statistica Fisica Biologia Reti Neurali Matematica Psicologia Informatica
Luigi Santoro. Hyperphar Group S.p.A., MIlano
Come modellare il rischio Luigi Santoro Hyperphar Group S.p.A., MIlano Gli argomenti discussi Le definizioni del termine rischio L utilità di un modello predittivo di rischio Come costruire modelli predittivi
MACHINE LEARNING e DATA MINING Introduzione. a.a.2015/16 Jessica Rosati [email protected]
MACHINE LEARNING e DATA MINING Introduzione a.a.2015/16 Jessica Rosati [email protected] Apprendimento Automatico(i) Branca dell AI che si occupa di realizzare dispositivi artificiali capaci di
Derivazione numerica. Introduzione al calcolo numerico. Derivazione numerica (II) Derivazione numerica (III)
Derivazione numerica Introduzione al calcolo numerico Il calcolo della derivata di una funzione in un punto implica un processo al limite che può solo essere approssimato da un calcolatore. Supponiamo
Correttezza (prima parte)
Fondamenti di informatica Oggetti e Java (prima parte) Capitolo 16 ottobre 2015 1 Contenuti Introduzione alla correttezza dei programmi specifica di un programma correttezza di un programma verifica di
Data mining: classificazione DataBase and Data Mining Group of Politecnico di Torino
DataBase and Data Mining Group of Database and data mining group, Database and data mining group, DataBase and Data Mining Group of DataBase and Data Mining Group of So dati insieme di classi oggetti etichettati
Reti Neurali. Introduzione Neuroni Biologici Neuroni Artificiali Tipologie di Reti
Introduzione Neuroni Biologici Neuroni Artificiali Tipologie di Reti Multilayer Perceptron (P) Forward propagation Training: Error Backpropagation On-line Backpropagation Stochastic Gradient Descent (SGD)
A Quick Intro to Machine Learning. The field of study that gives computers the ability to learn without being explicitly programmed
A Quick Intro to Machine Learning The field of study that gives computers the ability to learn without being explicitly programmed Dati Informazioni Utili Un approccio per cercare di estrarre informazioni
Intelligenza Artificiale. A n n o A c c a d e m i c o Introduzione al Machine Learning Apprendimento Induttivo: alberi di decisione
Intelligenza Artificiale A n n o A c c a d e m i c o 2 0 0 8-2 0 0 9 Introduzione al Machine Learning Apprendimento Induttivo: alberi di decisione 1 Sommario Introduzione al Machine Learning Apprendimento
Applicazioni statistiche in ambito bancario
Ph.D. Federico De Marchi Credit Risk Management Banca Carige [email protected] Struttura del corso Lezione 1 Teoria dei test statistici Lezione 2 Teoria della regressione Lezione 3 Davanti al
DoE Seminary APPLICAZIONE DoE AVL CAMEO. Daniele Bistolfi
DoE Seminary 2013 APPLICAZIONE DoE AVL CAMEO Daniele Bistolfi Calibration Work Flow Test Generator Test Execution Data Analysis & Modelling Optimization Validation 2 Test Generator S-Optimal Design S-OPTIMAL
Sistemi per la gestione delle basi di dati
Sistemi per la gestione delle basi di dati Esercitazione #5 Data mining Obiettivo Applicare algoritmi di data mining per la classificazione al fine di analizzare dati reali mediante l utilizzo dell applicazione
Progetto Machine Learning. Giacomo Lancia Fabio Peluso
Progetto Machine Learning Giacomo Lancia Fabio Peluso 28 settembre 2017 2 Capitolo 1 Introduzione Il progetto presentato in questa relazione è relativo al dataset Statlog (Landsat Satellite), disponibile
FOCUS FORECASTING. Maria Luisa Cassano Head Dispacciamento. snam.it. San Donato Milanese, 26 Ottobre 2017
FOCUS FORECASTING Maria Luisa Cassano Head Dispacciamento San Donato Milanese, 26 Ottobre 2017 snam.it un po di storia Delibera 312/2016/R/GAS 10/2013 01/2014 10/2014 10/2015 07/2016 01/10/2016 01/10/2017
Ottimizzazione numerica
Funzioni univariate 28 Ottobre 2010 Funzioni univariate Outline 1 Funzioni univariate 2 optim Funzioni univariate I metodi di ottimizzazione consentono di trovare i punti estremanti (massimi, minimi) di
Reti Neurali in Generale
istemi di Elaborazione dell Informazione 76 Reti Neurali in Generale Le Reti Neurali Artificiali sono studiate sotto molti punti di vista. In particolare, contributi alla ricerca in questo campo provengono
I DSS e la gestione dei dati e della conoscenza. Prof. Luca Gnan
I DSS e la gestione dei dati e della conoscenza Prof. Luca Gnan Argomenti I decision support system Tipologie di DSS Logiche di funzionamento Tipologie di analisi La gestione dei dati e della conoscenza
L A B C di R. Stefano Leonardi c Dipartimento di Scienze Ambientali Università di Parma Parma, 9 febbraio 2010
L A B C di R 0 20 40 60 80 100 2 3 4 5 6 7 8 Stefano Leonardi c Dipartimento di Scienze Ambientali Università di Parma Parma, 9 febbraio 2010 La scelta del test statistico giusto La scelta della analisi
Intelligenza Artificiale
Intelligenza Artificiale 17 Marzo 2005 Nome e Cognome: Matricola: ESERCIZIO N 1 Ricerca Cieca 5 punti 1.A) Elencare in modo ordinato i nodi (dell'albero sotto) che vengono scelti per l'espansione dalle
Strumenti per l Analisi l. ed il Preprocessing dei dati. Francesco Folino. Introduzione
Strumenti per l Analisi l ed il Preprocessing dei dati Francesco Folino Obiettivo Introdurre gli aspetti essenziali della fase di preparazione dei dati Acquisire padronanza di un processo tipicamente artigianale
Backpropagation in MATLAB
Modello di neurone BACKPROPAGATION Backpropagation in MATLAB Prof. Beatrice Lazzerini Dipartimento di Ingegneria dell Informazione Via Diotisalvi 2, 56122 Pisa La funzione di trasferimento, che deve essere
Statistica di base per l analisi socio-economica
Laurea Magistrale in Management e comunicazione d impresa Statistica di base per l analisi socio-economica Giovanni Di Bartolomeo [email protected] Definizioni di base Una popolazione è l insieme
INTRODUZIONE AI SISTEMI DI CLASSIFICAZIONE
INTRODUZIONE AI SISTEMI DI CLASSIFICAZIONE CON RETI NEURALI di G. Masala INTRODUZIONE Sistema di classificazione o riconoscimento Un sistema di classificazione [1][2] o di riconoscimento, considerato in
Realizzazione di un sistema predittivo dei risultati del campionato di calcio italiano di serie A 2006/2007
Realizzazione di un sistema predittivo dei risultati del campionato di calcio italiano di serie A 2006/2007 Docente Prof. Giuseppe Manco Studenti Matr.. 96803 Francesco Aiello Matr.. 94881 Vittorio Leo
Corso di Intelligenza Artificiale A.A. 2016/2017
Università degli Studi di Cagliari Corsi di Laurea Magistrale in Ing. Elettronica Corso di Intelligenza rtificiale.. 26/27 Esercizi sui metodi di apprendimento automatico. Si consideri la funzione ooleana
Circuiti e algoritmi per l elaborazione dell informazione
Università di Roma La Sapienza Facoltà di Ingegneria Laurea Specialistica in Ingegneria Elettronica Orientamento: Circuiti e algoritmi per l elaborazione dell informazione L x[n] y[n] Circuito: V g (t)
Classificazione I. Classificazione: Definizione
Classificazione I Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Classificazione: Definizione Data una collezione di record (training set ) Ogni record è composto da un insieme di
Regressione Lineare Semplice e Correlazione
Regressione Lineare Semplice e Correlazione 1 Introduzione La Regressione è una tecnica di analisi della relazione tra due variabili quantitative Questa tecnica è utilizzata per calcolare il valore (y)
Rappresentazione digitale del suono
Rappresentazione digitale del suono Perché rappresentazione del suono Trasmettere a distanza nel tempo e nello spazio un suono Registrazione e riproduzione per tutti Elaborazione del segnale audio per
Analisi Discriminante Strumenti quantitativi per la gestione
Analisi Discriminante Strumenti quantitativi per la gestione Emanuele Taufer Un esempio introduttivo Approccio con Bayes Perchè un altro metodo di classificazione? Classificazione con Bayes Analisi discriminante
Preprocessamento dei Dati
Preprocessamento dei Dati Raramente i dati sperimentali sono pronti per essere utilizzati immediatamente per le fasi successive del processo di identificazione, a causa di: Offset e disturbi a bassa frequenza
Statistica multivariata 27/09/2016. D.Rodi, 2016
Statistica multivariata 27/09/2016 Metodi Statistici Statistica Descrittiva Studio di uno o più fenomeni osservati sull INTERA popolazione di interesse (rilevazione esaustiva) Descrizione delle caratteristiche
Riduzione Dimensionalità
Introduzione Definizioni PCA vs LDA Principal Component Analysis (PCA) Linear Discriminant Analysis (LDA) t-sne 1 Definizioni Obiettivo dei metodi per la riduzione di dimensionalità (dimensionality reduction)
Regressione Lineare e Regressione Logistica
Regressione Lineare e Regressione Logistica Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: [email protected] @famo2spaghi http://stegua.github.com 1 Introduzione
La misurazione della televisione satellitare a pagamento
La misurazione della televisione satellitare a pagamento Cosa è stato fatto, cosa rimane da fare Vittorio Bossi Milano, 4 novembre 2007 Cosa è stato fatto Abbiamo un sistema di channel detection che funziona
Indice generale. Introduzione. Capitolo 1 Essere uno scienziato dei dati... 1
Introduzione...xi Argomenti trattati in questo libro... xi Dotazione software necessaria... xii A chi è rivolto questo libro... xii Convenzioni utilizzate... xiii Scarica i file degli esempi... xiii Capitolo
Teoria e tecniche dei test
Teoria e tecniche dei test Lezione 9 LA STANDARDIZZAZIONE DEI TEST. IL PROCESSO DI TARATURA: IL CAMPIONAMENTO. Costruire delle norme di riferimento per un test comporta delle ipotesi di fondo che è necessario
Metodi computazionali per i Minimi Quadrati
Metodi computazionali per i Minimi Quadrati Come introdotto in precedenza si considera la matrice. A causa di mal condizionamenti ed errori di inversione, si possono avere casi in cui il e quindi S sarebbe
Modelli matematici e Data Mining
Modelli matematici e Data Mining Introduzione I modelli matematici giocano un ruolo critico negli ambienti di business intelligence e sistemi di supporto alle decisioni. Essi rappresentano un astrazione
Somma di numeri floating point. Algoritmi di moltiplicazione e divisione per numeri interi
Somma di numeri floating point Algoritmi di moltiplicazione e divisione per numeri interi Standard IEEE754 " Standard IEEE754: Singola precisione (32 bit) si riescono a rappresentare numeri 2.0 10 2-38
Classificazione e Predizione
Lezione di TDM DM del 16 Aprile 2007 Francesco Bonchi, KDD Lab Pisa, ISTI-C.N.R. 1 Lezione odierna Intuizioni sul concetto di classificazione Alberi di decisione Alberi di decisione con Weka Classificazione:
Clustering con Weka. L interfaccia. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna. Algoritmo utilizzato per il clustering
Clustering con Weka Soluzioni degli esercizi Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna L interfaccia Algoritmo utilizzato per il clustering E possibile escludere un sottoinsieme
Il modello lineare misto
Il modello lineare misto (capitolo 9) A M D Marcello Gallucci Univerisità Milano-Bicocca Lezione: 15 GLM Modello Lineare Generale vantaggi Consente di stimare le relazioni fra due o più variabili Si applica
Capitolo 3: Ottimizzazione non vincolata parte III. E. Amaldi DEI, Politecnico di Milano
Capitolo 3: Ottimizzazione non vincolata parte III E. Amaldi DEI, Politecnico di Milano 3.4 Metodi di ricerca unidimensionale In genere si cerca una soluzione approssimata α k di min g(α) = f(x k +αd k
BENCHMARK LE DIMENSIONI DEL QUESTIONARIO: Cultura e prassi per il diversity. Struttura e composizione della forza lavoro POPOLAZIONE AZIENDALE
BENCHMARK Il benchmark è uno strumento scientifico e validato per ottenere informazioni comparative sulla gestione delle diversità. Il benchmark si basa sulla compilazione del questionario di raccolta
Il processo inferenziale consente di generalizzare, con un certo grado di sicurezza, i risultati ottenuti osservando uno o più campioni
La statistica inferenziale Il processo inferenziale consente di generalizzare, con un certo grado di sicurezza, i risultati ottenuti osservando uno o più campioni E necessario però anche aggiungere con
Esempi di applicazioni di reti neurali
Esempi di applicazioni di reti neurali Ogni problema di rete neurale segue la stessa procedura di base: (1) caricare il set di dati, (2) inizializzare la rete, (3) addestrare la rete (training), e (4)
Università di Bergamo Facoltà di Ingegneria. Intelligenza Artificiale. Paolo Salvaneschi A3_1 V1.3. Agenti
Università di Bergamo Facoltà di Ingegneria Intelligenza Artificiale Paolo Salvaneschi A3_1 V1.3 Agenti Il contenuto del documento è liberamente utilizzabile dagli studenti, per studio personale e per
Misure di dispersione (o di variabilità)
08/04/014 Misure di dispersione (o di variabilità) Range Distanza interquartile Deviazione standard Coefficiente di variazione Misure di dispersione 7 8 9 30 31 9 18 3 45 50 x 9 range31-74 x 9 range50-941
