Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019
|
|
- Isabella Chiesa
- 4 anni fa
- Visualizzazioni
Transcript
1 DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019 Nome: Cognome: Matricola: Riga: Colonna: Tempo: 2 ore 15 minuti Prof. Francesco Trovò Punteggio Massimo: 34 ˆ L esame è composto da 10 esercizi (uno per pagina). La prima pagina deve essere compilata con il vostro nome, cognome e matricola. Le pagine seguenti devono essere usate solo negli appositi riquadri presenti su ogni pagina. Le soluzioni presenti al di fuori di tali spazi o non adeguatamente motivate non verranno considerati per il punteggio finale. ˆ Durante l esame non è ammesso l utilizzo di device elettronici di alcun tipo. Inoltre, non è possibile consultare alcun materiale scritto, quali appunti, schemi, note o libri. Infine, non è ammessa la comunicazione con le altre persone presenti nell aula dell esame, la cui unica eccezione è il docente. ˆ La prima violazione ad una delle note sopracitate verrà registrata sull esame e verrà tenuta in considerazione per il calcolo del punteggio finale dell esame. La seconda violazione ad una delle note sopracitate comporterà l immediata espulsione dall aula dello o degli studenti coinvolti e l annullamento dell esame. ˆ Potete compilare l esame alternativamente con una penna (blu o nera) o con una matita. È vostra responsabilità che le soluzioni prodotte siano leggibili. Il professore non verrà ritenuto responsabile in caso di cancellazione accidentale parziale o totale dell esame. ˆ Potete ritirarvi in ogni momento senza alcun tipo di penalità. Potrete lasciare l aula non prima della metà della durata dell esame. La copia dell esame, vuota o compilata, dovrà essere riconsegnata al docente prima di uscire dall aula. ˆ Tre dei punti dell esame verranno assegnati in base alla velocità di risoluzione dell esame. Se lo studente dovesse finire almeno 45 minuti in anticipo rispetto alla fine del tempo dato per l esame, egli/ella otterrà 3 punti. Analogamente ne otterrà 2 con un anticipo di 30 minuti e 1 punto con un anticipo di 15 minuti (i punti non sono cumulabili). Es. 1 Es. 2 Es. 3 Es. 4 Es. 5 Es. 6 Es. 7 Es. 8 Es. 9 Es. 10 Tempo Tot. / 5 / 5 / 5 / 2 / 2 / 2 / 2 / 2 / 3 / 3 / 3 / 34
2 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 2 di 12 Esercizio 1 (5 punti) Descrivere i problemi di predizione e controllo nell ambito del Reinforcement Learning (RL). Descrivere un algoritmo di RL che risolva problemi di predizione e uno che risolva quelli di controllo.
3 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 3 di 12 Esercizio 2 (5 punti) Descrivere la tecnica della regressione lineare. In particolare, spiegare quali metodi di ottimizzazione possono essere utilizzati e quali metodi di regolarizzazione possono essere applicati. Infine, spiegare le limitazioni di tale tecnica nella risoluzione di problemi di classificazione.
4 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 4 di 12 Esercizio 3 (5 punti) Descrivere gli obbiettivi dell unsupervised learning. Descrivere la tecnica chiamata PCA e dire per quali degli obbiettivi precedentemente descritti può essere utile la sua applicazione.
5 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 5 di 12 Esercizio 4 (2 punti) Categorizzare i seguenti problemi di ML, fornire una tecnica per risolvere ognuno di essi e delle feature che possono essere utili alla loro risoluzione: 1. Identificare i differenti tipi d utente che sono più importanti per la vendita di materiale hardware online; 2. Determinare la qualità di una birra date le sue caratteristiche. 1. Non avendo un idea precisa dell output di tale processo, ci troviamo di fronte ad un problema di unvsupervised learning, e, in particolare, di clustering. Un algoritmo adatto a tali problemi è K-means. Come feature, oltre al profilo di acquisto degli utenti, sarebbe opportuno utilizzare dati demografici e relativi alla geolocalizzazione dell utente. 2. Tale problema è un problema di supervised learning con la qualità come target. Se per qualità intendiamo la bontà abbiamo un problema di regressione, altrimenti se consideriamo invece delle classi (blanche, porter, ale) è di classificazione. Nel primo caso possiamo utilizzare regressione lineare, nel secondo logistic regression. In entrambi i casi possiamo usare come feature le provenienze delle birre e le loro caratteristiche fisiche, oltre ad indici specifici dell ambito, e.g., IBU.
6 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 6 di 12 Esercizio 5 (2 punti) Dire se le seguenti affermazioni relative alle Support Vector Machins (SVM) sono vere o false. Motivare le risposte date. 1. Se incrementiamo il parametro C (i.e., il moltiplicatore dei vincoli) in una soft SVM ci aspettiamo che i margini diventino più larghi; 2. La complessità dell addestramento di una SVM con kernel dipende fortemente dalla dimensione delle base delle feature utilizzate; 3. I parametri ottimi di una SVM possono essere trovati grazie a tecniche di programmazione lineare; 4. La superficie di separazione predetta da una SVM con kernel lineare è un iperpiano. 1. FALSO stiamo penalizzando maggiormente i dati misclassificati e quelli all interno dei margini, quindi la soluzione avrà margini più stretti 2. FALSO essendo un metodo kernel, esso avrà una complessità che dipende dal numero di campioni considerati 3. FALSO Il problema di ottimizzazione (primale e duale) è quadratico e deve essere risolto con tecniche differenti 4. VERO con kernel lineare stiamo valutando una SVM che discrimina nello spazio originale delle feature
7 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 7 di 12 Esercizio 6 (2 punti) Dire se le seguenti affermazioni sono corrette. Motivare le risposte. 1. L algoritmo di apprendimento del perceptron converge sempre ad una soluzione; 2. L algoritmo di apprendimento del K-means converge sempre ad una soluzione; 3. Esiste una sola soluzione ottima dell apprendimento dei pesi di una Neural Network; 4. Applicare il metodo di early stopping all apprendimento della Logistic Regression aiuta a evitare fenomeni di overfitting. 1. FALSO converge nel caso di classi separabili linearmente 2. VERO tuttavia il punto di convergenza potrebbe essere subottimo 3. FALSO la struttura di una NN non dà assicurazioni di convessità della funzione di loss, quindi potremmo avere più di un punto nello spazio dei parametri che restituiscono il valore ottimo della loss 4. VERO anche in questo caso potremmo utilizzare tale tecnica per decidere quando interrompere il processo di ottimizzazione del gradient descend.
8 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 8 di 12 Esercizio 7 (2 punti) Dire se le seguenti affermazioni sono corrette. Motivare le risposte. 1. Per ridurre la varianza senza aumentare il bias posso solo aumentare il numero di campioni presenti nel dataset; 2. L errore sul validation set è una buona stima dell errore che farò su dati mai visti; 3. L errore sul training set è una buona stima dell errore che farò su dati mai visti; 4. Le tecniche di regolarizzazione applicano direttamente delle penalizzazioni sulla funzione di loss per evitare fenomeni di overfitting. 1. FALSO posso usare anche tecniche di bagging 2. FALSO è un valore comunque biased dal processo di apprendimento 3. FALSO è un valore comunque biased dal dataset utilizzato 4. VERO aggiungono dei termini alla funzione di loss per penalizzare soluzioni con valori dei parametri troppo grandi in valore assoluto, che aiutano a evitare che il processo di apprendimento venga determinato solamente dal dataset usato per il training
9 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 9 di 12 Esercizio 8 (2 punti) Scegliere se applicare metodi parametrici o non parametrici a problemi con le seguenti caratteristiche: 1. Dataset di grandi dimensioni; 2. Dataset linearmente separabili in spazi di feature di grandi dimensioni; 3. Applicazione di metodi su di un sistema embdedded; 4. Conoscenza di informazioni a priori sul problema analizzato. Motivare la propria scelta. 1. PARAMETRICO: (per un numero di sample elevato) riusciamo a condensare tutta l informazione in pochi parametri 2. NON-PARAMTRICO kernel con cui siamo in grado di gestire spazi di grandi dimensioni senza utilizzarli esplicitamente 3. PARAMETRICO se il training viene effettuato su un altro dispositivo, NON- PARAMETRICO se non vogliamo utilizzare troppa computazione per il training (algoritmi online) 4. PARAMETRICI in quanto è pi`facile intgrare delle informazioni a priori sul problema, e.g., prior distributions in Naive Bayes
10 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 10 di 12 Esercizio 9 (3 punti) Si consideri come paramtro iniziale di una problema di regressiona w (0) = [1 2 1] e una funzione di loss: J(w) = 1 N (w x n t n ) 3 + γ w 2 3N 2. n=1 con γ fissato. Si derivi l update del vettore dei parametri tramite l algoritmo gradient descent per il dato x 1 = [3 1 1], t 1 = 2 con learning rate α = 0.1 e regolarizzazione γ = 0.5. Per un singolo dato: Il gradiente diventa: J(w) w J(w) = 1 3 (w x 1 t 1 ) 3 + γ w 2 2. J(w) w = (w x 1 t 1 ) 2 x 1 + 2γw 2 3 = [1 2 1] 1 2 w=w (0) = = L aggiornamento è: w (1) w (1) w (1) α J(w) w = 1 17 w=w (0)
11 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 11 di 12 Esercizio 10 (3 punti) Derivare le formule dell agoritmo di Backpropagation per l aggiornamento dei pesi per la loss E = n {t n ln y n + (1 t n ) ln(1 y n )} (t n sono i target veri e y n sono quelli predetti) sulla seguente rete: dove gli hidden states hanno una funzione di attivazione sigmoidale, ovvero z i = 1 1+exp( j w ijx j w i0). Che tipo di problema stiamo risolvendo con un rete con questa architettura? Il problema risolto è quello di classificazione in quanto l ultimo layer riporta l output nel range [0, 1], il che permette di interpretarlo come una probabilità di appartenenza alla classe positiva. Ultimo layer: E n = t n y n 1 t n 1 y n = t n y n y n (1 y n ) a n y n = σ (a n ) = σ(a n )(1 σ(a n )) = y n (1 y n ) E n y n = E n a n a n y n = t n y n = δ k Hidden layer: = σ(w ijz i ) = z i σ (w ij z i ) = z i σ(w ij z i )(1 σ(w ij z i )) w ij w ij E n E n a j = k = k = ( i w kiσ(a i )) = w kj σ (a j ) a j a j δ k a j
12 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 12 di 12 Nome dello studente: Fine dell esame
Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019
DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019 Nome: Cognome: Matricola: Riga: Colonna:
DettagliUniversità degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 21 Giugno Primo Appello
DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 21 Giugno 2018 - Primo Appello Nome: Cognome: Matricola:
DettagliUniversità degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) Secondo Parziale - 11 Giugno 2018
DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) Secondo Parziale - 11 Giugno 2018 Nome: Cognome: Matricola:
DettagliUniversità degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 6 Maggio 2019
DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 6 Maggio 2019 Nome: Cognome: Matricola: Riga: Colonna:
DettagliUniversità degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 16 Aprile 2018
DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 16 Aprile 2018 Nome: Cognome: Matricola: Riga: Colonna:
DettagliUniversità degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 16 Aprile 2018
DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 16 Aprile 2018 Nome: Cognome: Matricola: Riga: Colonna:
DettagliKernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò
Kernel Methods Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 14/05/2018 Kernel Methods Definizione di Kernel Costruzione di Kernel Support Vector Machines Problema primale e duale
DettagliRegressione Lineare. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò
Regressione Lineare Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 23/04/2018 Regressione Lineare Supervised Learning Supervised Learning: recap È il sottocampo del ML più vasto
DettagliNeural Networks. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò
Neural Networks Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 28/05/2018 Neural Networks Struttura di una NN Backpropagation algorithm Altre strutture di rete Limiti dei sample-based
DettagliReti Neurali (Parte III)
Reti Neurali (Parte III) Corso di AA, anno 2017/18, Padova Fabio Aiolli 08 Novembre 2017 Fabio Aiolli Reti Neurali (Parte III) 08 Novembre 2017 1 / 16 Reti Neurali Multistrato Fabio Aiolli Reti Neurali
DettagliAlgoritmi di classificazione supervisionati
Corso di Bioinformatica Algoritmi di classificazione supervisionati Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di apprendimento supervisionato per problemi di biologia computazionale
DettagliMetodi supervisionati di classificazione
Metodi supervisionati di classificazione Giorgio Valentini e-mail: valentini@dsi.unimi.it DSI - Dipartimento di Scienze dell'informazione Classificazione bio-molecolare di tessuti e geni Diagnosi a livello
DettagliComputazione per l interazione naturale: classificazione probabilistica
Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html
DettagliReti Neurali. Giuseppe Manco. References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop. Reti Neurali
Giuseppe Manco References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop Perceptron Learning Unità neurale Gradiente Discendente Reti Multi-Layer Funzioni nonlineari Reti di funzioni nonlineari
DettagliIndice generale. Introduzione. Ringraziamenti dell autore...xxi. Capitolo 1 Dare ai computer la capacità di apprendere dai dati...
Premessa Introduzione...xiii...xv Struttura del libro...xvi Dotazione software necessaria...xvii A chi è rivolto questo libro...xviii Convenzioni...xviii Scarica i file degli esempi...xix L autore...xix
DettagliSistemi di Elaborazione dell Informazione 170. Caso Non Separabile
Sistemi di Elaborazione dell Informazione 170 Caso Non Separabile La soluzione vista in precedenza per esempi non-linearmente separabili non garantisce usualmente buone prestazioni perchè un iperpiano
DettagliComputazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning)
Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliComputazione per l interazione naturale: classificazione probabilistica
Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliCOMPITO DI RICERCA OPERATIVA APPELLO DEL 07/04/04
COMPITO DI RICERCA OPERATIVA APPELLO DEL 07/04/04 Esercizio 1 1)Dato il seguente problema di PL: max 2x 1 x 2 x 1 + x 2 2 x 1 + 2x 2 7 x 1 + x 2 1 x 1, x 2 0 trasformarlo in forma standard (2 punti) 2)
DettagliClassificazione Mario Guarracino Data Mining a.a. 2010/2011
Classificazione Mario Guarracino Data Mining a.a. 2010/2011 Introduzione I modelli di classificazione si collocano tra i metodi di apprendimento supervisionato e si rivolgono alla predizione di un attributo
DettagliApprendimento statistico (Statistical Learning)
Apprendimento statistico (Statistical Learning) Il problema dell apprendimento Inquadriamo da un punto di vista statistico il problema dell apprendimento di un classificatore Un training set S={(x,y ),,(x
DettagliMetodi supervisionati di classificazione
Metodi supervisionati di classificazione Giorgio Valentini e-mail: valentini@dsi.unimi.it DSI - Dipartimento di Scienze dell'informazione Classificazione bio-molecolare di tessuti e geni Diagnosi a livello
DettagliApprendimento statistico (Statistical Learning)
Apprendimento statistico (Statistical Learning) Il problema dell apprendimento Inquadriamo da un punto di vista statistico il problema dell apprendimento di un classificatore Un training set S={(x,y ),,(x
Dettagli21 settembre Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA...
COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura ore. ISTRUZIONI Ti sono stati consegnati tre fogli, stampati fronte e retro. Come prima cosa scrivi
DettagliMulti classificatori. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna
Multi classificatori Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Combinazione di classificatori Idea: costruire più classificatori di base e predire la classe di appartenza di
DettagliApprendimento Automatico
Apprendimento Automatico Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Rappresentazione dei dati con i kernel Abbiamo una serie di oggetti S
DettagliComputazione per l interazione naturale: Regressione probabilistica
Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2017.html
DettagliComputazione per l interazione naturale: macchine che apprendono
Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliSupport Vector Machines
F94) Metodi statistici per l apprendimento Support Vector Machines Docente: Nicolò Cesa-Bianchi versione 28 maggio 208 La Support Vector Machine d ora in poi SVM) è un algoritmo di apprendimento per classificatori
DettagliIntroduzione alle Reti Neurali
Introduzione alle Reti Neurali Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: stefano.gualandi@unipv.it @famo2spaghi http://stegua.github.com Reti Neurali Terminator
DettagliReti Neurali in Generale
istemi di Elaborazione dell Informazione 76 Reti Neurali in Generale Le Reti Neurali Artificiali sono studiate sotto molti punti di vista. In particolare, contributi alla ricerca in questo campo provengono
DettagliReti Neurali (Parte I)
Reti Neurali (Parte I) Corso di AA, anno 2017/18, Padova Fabio Aiolli 30 Ottobre 2017 Fabio Aiolli Reti Neurali (Parte I) 30 Ottobre 2017 1 / 15 Reti Neurali Artificiali: Generalità Due motivazioni diverse
DettagliComputazione per l interazione naturale: Regressione probabilistica
Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2018.html
DettagliComputazione per l interazione naturale: Modelli dinamici
Computazione per l interazione naturale: Modelli dinamici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliComputazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità)
Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliData Mining and Machine Learning Lab. Lezione 8 Master in Data Science for Economics, Business and Finance 2018
Data Mining and Machine Learning Lab. Lezione 8 Master in Data Science for Economics, Business and Finance 2018 18.05.18 Marco Frasca Università degli Studi di Milano SVM - Richiami La Support Vector Machine
DettagliUniversità degli Studi di Roma Tor Vergata
Funzioni kernel Note dal corso di Machine Learning Corso di Laurea Specialistica in Informatica a.a. 2010-2011 Prof. Giorgio Gambosi Università degli Studi di Roma Tor Vergata 2 Queste note derivano da
DettagliReti Neurali (Parte I)
Reti Neurali (Parte I) Corso di AA, anno 2018/19, Padova Fabio Aiolli 07 Novembre 2018 Fabio Aiolli Reti Neurali (Parte I) 07 Novembre 2018 1 / 16 Reti Neurali Artificiali: Generalità Due motivazioni diverse
DettagliComputazione per l interazione naturale: Regressione probabilistica
Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html
DettagliRicerca Operativa a.a : IV appello
Ricerca Operativa a.a. 2015-2016: IV appello (Prof. Fasano Giovanni) Università Ca Foscari Venezia - Sede di via Torino 5 settembre 2016 Regole per l esame: la violazione delle seguenti regole comporta
DettagliReti Neurali. Corso di AA, anno 2016/17, Padova. Fabio Aiolli. 2 Novembre Fabio Aiolli Reti Neurali 2 Novembre / 14. unipd_logo.
Reti Neurali Corso di AA, anno 2016/17, Padova Fabio Aiolli 2 Novembre 2016 Fabio Aiolli Reti Neurali 2 Novembre 2016 1 / 14 Reti Neurali Artificiali: Generalità Due motivazioni diverse hanno spinto storicamente
DettagliComputazione per l interazione naturale: classificazione supervisionata
Computazione per l interazione naturale: classificazione supervisionata Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliCOMPITO DI RICERCA OPERATIVA. max 8 5x 1 3x 2 x 3 = 1 + 4x 1 + x 2 x 4 = 1 x 1 + x 2 x 5 = 5 x 1 x 2
COMPITO DI RICERCA OPERATIVA ESERCIZIO. (5 punti) Dato un problema di PL, la sua riformulazione rispetto alla base B = {x 3, x, x 5 } é la seguente: max 8 5x 3x x 3 = + x + x x = x + x x 5 = 5 x x Solo
DettagliComputazione per l interazione naturale: Regressione lineare
Computazione per l interazione naturale: Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it http://homes.dsi.unimi.it/~boccignone/l
DettagliComputazione per l interazione naturale: Classificatori non probabilistici
Computazione per l interazione naturale: Classificatori non probabilistici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano
DettagliESAME di OTTIMIZZAZIONE Corso di Laurea Magistrale in Ingegneria Gestionale 1 o anno
SIMULAZIONE ESAME di OTTIMIZZAZIONE 27 Gennaio 21 ESAME di OTTIMIZZAZIONE Corso di Laurea Magistrale in Ingegneria Gestionale 1 o anno Cognome : Nome : Esercizio 1. Si consideri il seguente problema: min
DettagliFunzioni kernel. Docente: Nicolò Cesa-Bianchi versione 18 maggio 2018
F94) Metodi statistici per l apprendimento Funzioni kernel Docente: Nicolò Cesa-Bianchi versione 18 maggio 2018 I predittori lineari possono soffrire di un errore di bias molto elevato in quanto predittore
DettagliIdentificazione dei Modelli e Analisi dei Dati LS
Identificazione dei Modelli e Analisi dei Dati LS Prof. G. De Nicolao I prova in itinere - Novembre 007 Cognome.............................. Nome.............................. Matricola..............................
Dettagli11 luglio Soluzione esame di geometria - Ing. gestionale - a.a COGNOME... NOME... N. MATRICOLA... ISTRUZIONI
COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura ore. ISTRUZIONI Ti sono stati consegnati tre fogli, stampati fronte e retro. Come prima cosa scrivi
DettagliUniversita degli Studi di Roma Tor Vergata Facolta di Ingegneria - CCS Edilizia ed Edile/Architettura
Universita degli Studi di Roma Tor Vergata Facolta di Ingegneria - CCS Edilizia ed Edile/Architettura V Appello corso di Geometria a.a. / Docente F. Flamini NORME SVOLGIMENTO Negli appositi spazi scrivere
DettagliRegressione. Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting
Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting Non lineare Variabile indipendente non lineare Ottimizzazione numerica (metodi iterativi) 1 Definizioni Nei
DettagliComputazione per l interazione naturale: Regressione lineare Bayesiana
Computazione per l interazione naturale: Bayesiana Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it
DettagliSUPPORT VECTOR MACHINES. a practical guide
SUPPORT VECTOR MACHINES a practical guide 1 SUPPORT VECTOR MACHINES Consideriamo un problema di classificazione binaria, a partire da uno spazio di input X R n e uno spazio di output Y = { 1, 1} Training
DettagliClassificazione introduzione
- Classificazione introduzione Vittorio Maniezzo Università di Bologna 1 Ringraziamenti Questi lucidi derivano anche da adattamenti personali di materiale prodotto (fornitomi o reso scaricabile) da: A.
DettagliIdentificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale
Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale Il presente lavoro, facente segiuto a quanto scritto precedentemente ha il fine di descrivere il codice di calcolo
DettagliApprendimento automatico e Reti Neurali. Francesco Sambo tel
Apprendimento automatico e Reti Neurali Francesco Sambo www.dei.unipd.it/~sambofra francesco.sambo@dei.unipd.it tel. 049 827 7834 Apprendimento automatico Capacità di un agente di sintetizzare nuova conoscenza
DettagliSTATISTICA CORSO BASE. Prova scritta del Tempo: 2 ore Cognome e Nome:... Matricola:...
STATISTICA CORSO BASE. Prova scritta del 4-6-2013. Tempo: 2 ore Cognome e Nome:.............................. Matricola:.............................. Attenzione: Prima di affrontare la prova si consiglia
DettagliUso dell algoritmo di Quantizzazione Vettoriale per la determinazione del numero di nodi dello strato hidden in una rete neurale multilivello
Tesina di Intelligenza Artificiale Uso dell algoritmo di Quantizzazione Vettoriale per la determinazione del numero di nodi dello strato hidden in una rete neurale multilivello Roberto Fortino S228682
DettagliIntroduzione al Test in Itinere
Introduzione al Test in Itinere Roberto Basili Università di Roma, Tor Vergata Argomenti oggetto di esame Rappresentazioni vettoriali per la classificazione Clustering Algoritmi di apprendimento automatico
Dettagli17 luglio Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a ISTRUZIONI
COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura ore. ISTRUZIONI Ti sono stati consegnati tre fogli, stampati fronte e retro. Come prima cosa scrivi
DettagliMachine Learning GIORGIO GAMBOSI UNIVERSITÀ DI ROMA TOR VERGATA
1 Machine Learning GIORGIO GAMBOSI UNIVERSITÀ DI ROMA TOR VERGATA Che cos è? 2! Programmazione di computer in modo tale da fornire risultati sulla base dell esame di dati o di esperienza passata! Le azioni
DettagliCOMPITO DI RICERCA OPERATIVA. max x 1 + x 2 x 1 + x 2 1 x 1 + x 2 2. Lo si trasformi in forma standard e se ne determini una soluzione ottima.
COMPITO DI RICERCA OPERATIVA APPELLO DEL 06/07/05 ESERCIZIO 1. (5 punti) Sia dato il seguente problema di PL: max x 1 + x 2 x 1 + x 2 1 x 1 + x 2 2 x 1 0 x 2 0 Lo si trasformi in forma standard e se ne
DettagliEsame di Ricerca Operativa. Corso di Laurea in Ingegneria Informatica e Automatica. Compito A
Esame di Ricerca Operativa Corso di Laurea in Ingegneria Informatica e Automatica 6 settembre 218 Compito A Istruzioni Usate i fogli bianchi allegati per calcoli, ragionamenti e quanto altro reputiate
DettagliQuiz di verifica Classificazione
Quiz di verifica Classificazione Strumenti Quantitativi per la gestione Le domande 1 4 si riferiscono al seguente problema: Supponiamo di raccogliere dati per un gruppo di studenti della classe di SQG
Dettagli8 novembre Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA...
COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura ore. ISTRUZIONI Ti sono stati consegnati tre fogli, stampati fronte e retro. Come prima cosa scrivi
DettagliApprendimento Automatico (Feature Selection e Kernel Learning)
Apprendimento Automatico (Feature Selection e Kernel Learning) Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Servono tutti gli attributi? Gli
DettagliCriteri alternativi all Entropia
Sistemi Intelligenti 94 Criteri alternativi all Entropia Altri criteri suggeriti al posto dell Entropia: - Variance Impurity (per due classi) - (Weighted) Gini Impurity (generalizzazione di Variance Impurity
DettagliSoluzione facsimile 2 d esame di geometria - Ingegneria gestionale - a.a ISTRUZIONI
Soluzione facsimile d esame di geometria - Ingegneria gestionale - a.a. 00-004 COGNOME......................................... NOME......................................... N. MATRICOLA................
DettagliApprendimento Automatico
Apprendimento Automatico Metodi Bayesiani - Naive Bayes Fabio Aiolli 13 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 13 Dicembre 2017 1 / 18 Classificatore Naive Bayes Una delle tecniche più semplici
DettagliComputazione per l interazione naturale: processi gaussiani
Computazione per l interazione naturale: processi gaussiani Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliStima dei Parametri. Corso di Apprendimento Automatico Laurea Magistrale in Informatica Nicola Fanizzi
Laurea Magistrale in Informatica Nicola Fanizzi Dipartimento di Informatica Università degli Studi di Bari 20 gennaio 2009 Sommario Introduzione Stima dei parametri di massima verosimiglianza Stima dei
Dettagli19 settembre Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA...
COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura ore. ISTRUZIONI Ti sono stati consegnati tre fogli, stampati fronte e retro. Come prima cosa scrivi
DettagliComputazione per l interazione naturale: Classificatori non probabilistici
Computazione per l interazione naturale: Classificatori non probabilistici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano
Dettagli2. Una volta decise le risposte riportatele sull apposito foglio allegato.
Prova scritta di Modelli e algoritmi della logistica - (A) LAUREA in INGEGNERIA GESTIONALE (Specialistica in Informatica, Automatica, Telecomunicazioni) aprile 8 (A) Istruzioni. Usate i fogli bianchi allegati
DettagliComputazione per l interazione naturale: macchine che apprendono
Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
Dettagli4. METODI DUALI DEL SIMPLESSO
4. MEODI DUALI DEL SIMPLESSO R. adei 1 Una piccola introduzione R. adei 2 MEODI DUALI DEL SIMPLESSO L obiettivo del capitolo è illustrare e giustificare i metodi duali del simplesso. Entrambi i metodi
DettagliRETI NEURALI. Esempio: Stima del rendimento volumetrico η
RETI NEURALI Contenuti: Reti di percettroni Reti neurali a base radiale Esempio: Stima del rendimento volumetrico η Conclusioni Motivazione: Modelli flessibili e modulari (= costituiti dalla interconnessione
DettagliRiconoscimento automatico di oggetti (Pattern Recognition)
Riconoscimento automatico di oggetti (Pattern Recognition) Scopo: definire un sistema per riconoscere automaticamente un oggetto data la descrizione di un oggetto che può appartenere ad una tra N classi
DettagliComputazione per l interazione naturale: Classificatori non probabilistici
Computazione per l interazione naturale: Classificatori non probabilistici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliIl presente plico contiene 3 esercizi e deve essere debitamente compilato con cognome e nome, numero di matricola.
Politecnico di Milano Facoltà di Ingegneria Industriale INFORMATICA B Appello 2 Settembre 2013 COGNOME E NOME RIGA COLONNA MATRICOLA Spazio riservato ai docenti Il presente plico contiene 3 esercizi e
DettagliComputazione per l interazione naturale: Regressione lineare (MSE)
Computazione per l interazione naturale: Regressione lineare (MSE) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2015.html
DettagliRicerca Operativa a.a : III appello
Ricerca Operativa a.a. 2015-2016: III appello (Prof. Fasano Giovanni) Università Ca Foscari Venezia - Sede di via Torino 7 giugno 2016 Regole per l esame: la violazione delle seguenti regole comporta il
DettagliTecniche di riconoscimento statistico
On AIR s.r.l. Tecniche di riconoscimento statistico Teoria e applicazioni industriali Parte 3 Costruzione di un classificatore Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr
DettagliLezione introduttiva su reti neurali e SVM Veronica Piccialli. Corso di Ottimizzazione a.a (seconda parte)
Lezione introduttiva su reti neurali e SVM Veronica Piccialli Corso di Ottimizzazione a.a. 2009-10 (seconda parte) Ottimizzazione Statistica Fisica Biologia Reti Neurali Matematica Psicologia Informatica
DettagliOgni parte non cancellata a penna sarà considerata parte integrante della soluzione.
Politecnico di Milano Facoltà di Ingegneria Industriale INFORMATICA B Prova in itinere del 16 Novembre 011 COGNOME E NOME RIGA COLONNA MATRICOLA Spazio riservato ai docenti Il presente plico contiene 4
DettagliADDESTRAMENTO DI UNA RETE NEURALE ED EVENTUALI CONSIDERAZIONI PRESTAZIONALI. (a cura di Buttolo Marco).
ADDESTRAMENTO DI UNA RETE NEURALE ED EVENTUALI CONSIDERAZIONI PRESTAZIONALI. (a cura di Buttolo Marco). Lalgoritmo più utilizzato per addestrare una rete neurale è lalgoritmo di bac-propagation. In sostanza
DettagliCOMPITO DI RICERCA OPERATIVA. max 5 2x 1 + 3x 2 x 3 = 2 + x 1 5x 2 x 4 = 5 + x 2. x 5 = 1 + x 1 x 2
COMPITO DI RICERCA OPERATIVA ESERCIZIO. ( punti) La riformulazione di un problema di PL rispetto alla base B = {x, x, x } è la seguente: max 2x + x 2 x = 2 + x x 2 x = + x 2 x = 2 + x + x 2 x, x 2, x,
DettagliESAME. 9 Gennaio 2017 COMPITO B
ESAME 9 Gennaio 2017 COMPITO B Cognome Nome Numero di matricola 1) Approssimare tutti i calcoli alla quarta cifra decimale. 2) Ai fini della valutazione si terrà conto solo ed esclusivamente di quanto
DettagliOgni parte non cancellata a penna sarà considerata parte integrante della soluzione.
Politecnico di Milano Facoltà di Ingegneria Industriale INFORMATICA B Prova in itinere del 16 Novembre 011 COGNOME E NOME RIGA COLONNA MATRICOLA Spazio riservato ai docenti Il presente plico contiene 4
DettagliESAME. 9 Gennaio 2017 COMPITO A
ESAME 9 Gennaio 2017 COMPITO A Cognome Nome Numero di matricola 1) Approssimare tutti i calcoli alla quarta cifra decimale. 2) Ai fini della valutazione si terrà conto solo ed esclusivamente di quanto
DettagliRicerca Operativa a.a : II appello
Ricerca Operativa a.a. 2015-2016: II appello (Prof. Fasano Giovanni) Università Ca Foscari Venezia - Sede di via Torino 28 gennaio 2016 Regole per l esame: la violazione delle seguenti regole comporta
DettagliProva Scritta di Ricerca Operativa
Prova Scritta di Ricerca Operativa (Prof. Fasano Giovanni) Università Ca Foscari Venezia - Sede di via Torino 1 giugno 2017 Regole per l esame: la violazione delle seguenti regole comporta il ritiro dell
DettagliRischio statistico e sua analisi
F94 Metodi statistici per l apprendimento Rischio statistico e sua analisi Docente: Nicolò Cesa-Bianchi versione 7 aprile 018 Per analizzare un algoritmo di apprendimento dobbiamo costruire un modello
Dettagli21 settembre Soluzione esame di geometria - Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA...
COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura ore. ISTRUZIONI Ti sono stati consegnati tre fogli, stampati fronte e retro. Come prima cosa scrivi
Dettagli25 ottobre Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA...
COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura ore. ISTRUZIONI Ti sono stati consegnati tre fogli, stampati fronte e retro. Come prima cosa scrivi
DettagliIntelligenza Artificiale. Soft Computing: Reti Neurali Generalità
Intelligenza Artificiale Soft Computing: Reti Neurali Generalità Neurone Artificiale Costituito da due stadi in cascata: sommatore lineare (produce il cosiddetto net input) net = S j w j i j w j è il peso
DettagliConstraint Satisfaction Problems
Constraint Satisfaction Problems Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 19/03/2018 Constraint Satisfaction problem Fino ad ora ogni stato è stato modellizzato come una
Dettagli