Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019"

Transcript

1 DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019 Nome: Cognome: Matricola: Riga: Colonna: Tempo: 2 ore 15 minuti Prof. Francesco Trovò Punteggio Massimo: 34 ˆ L esame è composto da 10 esercizi (uno per pagina). La prima pagina deve essere compilata con il vostro nome, cognome e matricola. Le pagine seguenti devono essere usate solo negli appositi riquadri presenti su ogni pagina. Le soluzioni presenti al di fuori di tali spazi o non adeguatamente motivate non verranno considerati per il punteggio finale. ˆ Durante l esame non è ammesso l utilizzo di device elettronici di alcun tipo. Inoltre, non è possibile consultare alcun materiale scritto, quali appunti, schemi, note o libri. Infine, non è ammessa la comunicazione con le altre persone presenti nell aula dell esame, la cui unica eccezione è il docente. ˆ La prima violazione ad una delle note sopracitate verrà registrata sull esame e verrà tenuta in considerazione per il calcolo del punteggio finale dell esame. La seconda violazione ad una delle note sopracitate comporterà l immediata espulsione dall aula dello o degli studenti coinvolti e l annullamento dell esame. ˆ Potete compilare l esame alternativamente con una penna (blu o nera) o con una matita. È vostra responsabilità che le soluzioni prodotte siano leggibili. Il professore non verrà ritenuto responsabile in caso di cancellazione accidentale parziale o totale dell esame. ˆ Potete ritirarvi in ogni momento senza alcun tipo di penalità. Potrete lasciare l aula non prima della metà della durata dell esame. La copia dell esame, vuota o compilata, dovrà essere riconsegnata al docente prima di uscire dall aula. ˆ Tre dei punti dell esame verranno assegnati in base alla velocità di risoluzione dell esame. Se lo studente dovesse finire almeno 45 minuti in anticipo rispetto alla fine del tempo dato per l esame, egli/ella otterrà 3 punti. Analogamente ne otterrà 2 con un anticipo di 30 minuti e 1 punto con un anticipo di 15 minuti (i punti non sono cumulabili). Es. 1 Es. 2 Es. 3 Es. 4 Es. 5 Es. 6 Es. 7 Es. 8 Es. 9 Es. 10 Tempo Tot. / 5 / 5 / 5 / 2 / 2 / 2 / 2 / 2 / 3 / 3 / 3 / 34

2 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 2 di 12 Esercizio 1 (5 punti) Descrivere i problemi di predizione e controllo nell ambito del Reinforcement Learning (RL). Descrivere un algoritmo di RL che risolva problemi di predizione e uno che risolva quelli di controllo.

3 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 3 di 12 Esercizio 2 (5 punti) Descrivere la tecnica della regressione lineare. In particolare, spiegare quali metodi di ottimizzazione possono essere utilizzati e quali metodi di regolarizzazione possono essere applicati. Infine, spiegare le limitazioni di tale tecnica nella risoluzione di problemi di classificazione.

4 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 4 di 12 Esercizio 3 (5 punti) Descrivere gli obbiettivi dell unsupervised learning. Descrivere la tecnica chiamata PCA e dire per quali degli obbiettivi precedentemente descritti può essere utile la sua applicazione.

5 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 5 di 12 Esercizio 4 (2 punti) Categorizzare i seguenti problemi di ML, fornire una tecnica per risolvere ognuno di essi e delle feature che possono essere utili alla loro risoluzione: 1. Identificare i differenti tipi d utente che sono più importanti per la vendita di materiale hardware online; 2. Determinare la qualità di una birra date le sue caratteristiche. 1. Non avendo un idea precisa dell output di tale processo, ci troviamo di fronte ad un problema di unvsupervised learning, e, in particolare, di clustering. Un algoritmo adatto a tali problemi è K-means. Come feature, oltre al profilo di acquisto degli utenti, sarebbe opportuno utilizzare dati demografici e relativi alla geolocalizzazione dell utente. 2. Tale problema è un problema di supervised learning con la qualità come target. Se per qualità intendiamo la bontà abbiamo un problema di regressione, altrimenti se consideriamo invece delle classi (blanche, porter, ale) è di classificazione. Nel primo caso possiamo utilizzare regressione lineare, nel secondo logistic regression. In entrambi i casi possiamo usare come feature le provenienze delle birre e le loro caratteristiche fisiche, oltre ad indici specifici dell ambito, e.g., IBU.

6 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 6 di 12 Esercizio 5 (2 punti) Dire se le seguenti affermazioni relative alle Support Vector Machins (SVM) sono vere o false. Motivare le risposte date. 1. Se incrementiamo il parametro C (i.e., il moltiplicatore dei vincoli) in una soft SVM ci aspettiamo che i margini diventino più larghi; 2. La complessità dell addestramento di una SVM con kernel dipende fortemente dalla dimensione delle base delle feature utilizzate; 3. I parametri ottimi di una SVM possono essere trovati grazie a tecniche di programmazione lineare; 4. La superficie di separazione predetta da una SVM con kernel lineare è un iperpiano. 1. FALSO stiamo penalizzando maggiormente i dati misclassificati e quelli all interno dei margini, quindi la soluzione avrà margini più stretti 2. FALSO essendo un metodo kernel, esso avrà una complessità che dipende dal numero di campioni considerati 3. FALSO Il problema di ottimizzazione (primale e duale) è quadratico e deve essere risolto con tecniche differenti 4. VERO con kernel lineare stiamo valutando una SVM che discrimina nello spazio originale delle feature

7 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 7 di 12 Esercizio 6 (2 punti) Dire se le seguenti affermazioni sono corrette. Motivare le risposte. 1. L algoritmo di apprendimento del perceptron converge sempre ad una soluzione; 2. L algoritmo di apprendimento del K-means converge sempre ad una soluzione; 3. Esiste una sola soluzione ottima dell apprendimento dei pesi di una Neural Network; 4. Applicare il metodo di early stopping all apprendimento della Logistic Regression aiuta a evitare fenomeni di overfitting. 1. FALSO converge nel caso di classi separabili linearmente 2. VERO tuttavia il punto di convergenza potrebbe essere subottimo 3. FALSO la struttura di una NN non dà assicurazioni di convessità della funzione di loss, quindi potremmo avere più di un punto nello spazio dei parametri che restituiscono il valore ottimo della loss 4. VERO anche in questo caso potremmo utilizzare tale tecnica per decidere quando interrompere il processo di ottimizzazione del gradient descend.

8 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 8 di 12 Esercizio 7 (2 punti) Dire se le seguenti affermazioni sono corrette. Motivare le risposte. 1. Per ridurre la varianza senza aumentare il bias posso solo aumentare il numero di campioni presenti nel dataset; 2. L errore sul validation set è una buona stima dell errore che farò su dati mai visti; 3. L errore sul training set è una buona stima dell errore che farò su dati mai visti; 4. Le tecniche di regolarizzazione applicano direttamente delle penalizzazioni sulla funzione di loss per evitare fenomeni di overfitting. 1. FALSO posso usare anche tecniche di bagging 2. FALSO è un valore comunque biased dal processo di apprendimento 3. FALSO è un valore comunque biased dal dataset utilizzato 4. VERO aggiungono dei termini alla funzione di loss per penalizzare soluzioni con valori dei parametri troppo grandi in valore assoluto, che aiutano a evitare che il processo di apprendimento venga determinato solamente dal dataset usato per il training

9 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 9 di 12 Esercizio 8 (2 punti) Scegliere se applicare metodi parametrici o non parametrici a problemi con le seguenti caratteristiche: 1. Dataset di grandi dimensioni; 2. Dataset linearmente separabili in spazi di feature di grandi dimensioni; 3. Applicazione di metodi su di un sistema embdedded; 4. Conoscenza di informazioni a priori sul problema analizzato. Motivare la propria scelta. 1. PARAMETRICO: (per un numero di sample elevato) riusciamo a condensare tutta l informazione in pochi parametri 2. NON-PARAMTRICO kernel con cui siamo in grado di gestire spazi di grandi dimensioni senza utilizzarli esplicitamente 3. PARAMETRICO se il training viene effettuato su un altro dispositivo, NON- PARAMETRICO se non vogliamo utilizzare troppa computazione per il training (algoritmi online) 4. PARAMETRICI in quanto è pi`facile intgrare delle informazioni a priori sul problema, e.g., prior distributions in Naive Bayes

10 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 10 di 12 Esercizio 9 (3 punti) Si consideri come paramtro iniziale di una problema di regressiona w (0) = [1 2 1] e una funzione di loss: J(w) = 1 N (w x n t n ) 3 + γ w 2 3N 2. n=1 con γ fissato. Si derivi l update del vettore dei parametri tramite l algoritmo gradient descent per il dato x 1 = [3 1 1], t 1 = 2 con learning rate α = 0.1 e regolarizzazione γ = 0.5. Per un singolo dato: Il gradiente diventa: J(w) w J(w) = 1 3 (w x 1 t 1 ) 3 + γ w 2 2. J(w) w = (w x 1 t 1 ) 2 x 1 + 2γw 2 3 = [1 2 1] 1 2 w=w (0) = = L aggiornamento è: w (1) w (1) w (1) α J(w) w = 1 17 w=w (0)

11 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 11 di 12 Esercizio 10 (3 punti) Derivare le formule dell agoritmo di Backpropagation per l aggiornamento dei pesi per la loss E = n {t n ln y n + (1 t n ) ln(1 y n )} (t n sono i target veri e y n sono quelli predetti) sulla seguente rete: dove gli hidden states hanno una funzione di attivazione sigmoidale, ovvero z i = 1 1+exp( j w ijx j w i0). Che tipo di problema stiamo risolvendo con un rete con questa architettura? Il problema risolto è quello di classificazione in quanto l ultimo layer riporta l output nel range [0, 1], il che permette di interpretarlo come una probabilità di appartenenza alla classe positiva. Ultimo layer: E n = t n y n 1 t n 1 y n = t n y n y n (1 y n ) a n y n = σ (a n ) = σ(a n )(1 σ(a n )) = y n (1 y n ) E n y n = E n a n a n y n = t n y n = δ k Hidden layer: = σ(w ijz i ) = z i σ (w ij z i ) = z i σ(w ij z i )(1 σ(w ij z i )) w ij w ij E n E n a j = k = k = ( i w kiσ(a i )) = w kj σ (a j ) a j a j δ k a j

12 Ingegneria Informatica Ingegneria Informatica Intelligenza Artificiale Pagina 12 di 12 Nome dello studente: Fine dell esame

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019 DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019 Nome: Cognome: Matricola: Riga: Colonna:

Dettagli

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 21 Giugno Primo Appello

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 21 Giugno Primo Appello DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 21 Giugno 2018 - Primo Appello Nome: Cognome: Matricola:

Dettagli

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) Secondo Parziale - 11 Giugno 2018

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) Secondo Parziale - 11 Giugno 2018 DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) Secondo Parziale - 11 Giugno 2018 Nome: Cognome: Matricola:

Dettagli

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 6 Maggio 2019

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 6 Maggio 2019 DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 6 Maggio 2019 Nome: Cognome: Matricola: Riga: Colonna:

Dettagli

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 16 Aprile 2018

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 16 Aprile 2018 DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 16 Aprile 2018 Nome: Cognome: Matricola: Riga: Colonna:

Dettagli

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 16 Aprile 2018

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 16 Aprile 2018 DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 16 Aprile 2018 Nome: Cognome: Matricola: Riga: Colonna:

Dettagli

Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò

Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò Kernel Methods Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 14/05/2018 Kernel Methods Definizione di Kernel Costruzione di Kernel Support Vector Machines Problema primale e duale

Dettagli

Regressione Lineare. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò

Regressione Lineare. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò Regressione Lineare Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 23/04/2018 Regressione Lineare Supervised Learning Supervised Learning: recap È il sottocampo del ML più vasto

Dettagli

Neural Networks. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò

Neural Networks. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò Neural Networks Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 28/05/2018 Neural Networks Struttura di una NN Backpropagation algorithm Altre strutture di rete Limiti dei sample-based

Dettagli

Reti Neurali (Parte III)

Reti Neurali (Parte III) Reti Neurali (Parte III) Corso di AA, anno 2017/18, Padova Fabio Aiolli 08 Novembre 2017 Fabio Aiolli Reti Neurali (Parte III) 08 Novembre 2017 1 / 16 Reti Neurali Multistrato Fabio Aiolli Reti Neurali

Dettagli

Algoritmi di classificazione supervisionati

Algoritmi di classificazione supervisionati Corso di Bioinformatica Algoritmi di classificazione supervisionati Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di apprendimento supervisionato per problemi di biologia computazionale

Dettagli

Metodi supervisionati di classificazione

Metodi supervisionati di classificazione Metodi supervisionati di classificazione Giorgio Valentini e-mail: valentini@dsi.unimi.it DSI - Dipartimento di Scienze dell'informazione Classificazione bio-molecolare di tessuti e geni Diagnosi a livello

Dettagli

Computazione per l interazione naturale: classificazione probabilistica

Computazione per l interazione naturale: classificazione probabilistica Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html

Dettagli

Reti Neurali. Giuseppe Manco. References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop. Reti Neurali

Reti Neurali. Giuseppe Manco. References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop. Reti Neurali Giuseppe Manco References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop Perceptron Learning Unità neurale Gradiente Discendente Reti Multi-Layer Funzioni nonlineari Reti di funzioni nonlineari

Dettagli

Indice generale. Introduzione. Ringraziamenti dell autore...xxi. Capitolo 1 Dare ai computer la capacità di apprendere dai dati...

Indice generale. Introduzione. Ringraziamenti dell autore...xxi. Capitolo 1 Dare ai computer la capacità di apprendere dai dati... Premessa Introduzione...xiii...xv Struttura del libro...xvi Dotazione software necessaria...xvii A chi è rivolto questo libro...xviii Convenzioni...xviii Scarica i file degli esempi...xix L autore...xix

Dettagli

Sistemi di Elaborazione dell Informazione 170. Caso Non Separabile

Sistemi di Elaborazione dell Informazione 170. Caso Non Separabile Sistemi di Elaborazione dell Informazione 170 Caso Non Separabile La soluzione vista in precedenza per esempi non-linearmente separabili non garantisce usualmente buone prestazioni perchè un iperpiano

Dettagli

Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning)

Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Computazione per l interazione naturale: classificazione probabilistica

Computazione per l interazione naturale: classificazione probabilistica Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

COMPITO DI RICERCA OPERATIVA APPELLO DEL 07/04/04

COMPITO DI RICERCA OPERATIVA APPELLO DEL 07/04/04 COMPITO DI RICERCA OPERATIVA APPELLO DEL 07/04/04 Esercizio 1 1)Dato il seguente problema di PL: max 2x 1 x 2 x 1 + x 2 2 x 1 + 2x 2 7 x 1 + x 2 1 x 1, x 2 0 trasformarlo in forma standard (2 punti) 2)

Dettagli

Classificazione Mario Guarracino Data Mining a.a. 2010/2011

Classificazione Mario Guarracino Data Mining a.a. 2010/2011 Classificazione Mario Guarracino Data Mining a.a. 2010/2011 Introduzione I modelli di classificazione si collocano tra i metodi di apprendimento supervisionato e si rivolgono alla predizione di un attributo

Dettagli

Apprendimento statistico (Statistical Learning)

Apprendimento statistico (Statistical Learning) Apprendimento statistico (Statistical Learning) Il problema dell apprendimento Inquadriamo da un punto di vista statistico il problema dell apprendimento di un classificatore Un training set S={(x,y ),,(x

Dettagli

Metodi supervisionati di classificazione

Metodi supervisionati di classificazione Metodi supervisionati di classificazione Giorgio Valentini e-mail: valentini@dsi.unimi.it DSI - Dipartimento di Scienze dell'informazione Classificazione bio-molecolare di tessuti e geni Diagnosi a livello

Dettagli

Apprendimento statistico (Statistical Learning)

Apprendimento statistico (Statistical Learning) Apprendimento statistico (Statistical Learning) Il problema dell apprendimento Inquadriamo da un punto di vista statistico il problema dell apprendimento di un classificatore Un training set S={(x,y ),,(x

Dettagli

21 settembre Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA...

21 settembre Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA... COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura ore. ISTRUZIONI Ti sono stati consegnati tre fogli, stampati fronte e retro. Come prima cosa scrivi

Dettagli

Multi classificatori. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna

Multi classificatori. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Multi classificatori Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Combinazione di classificatori Idea: costruire più classificatori di base e predire la classe di appartenza di

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Rappresentazione dei dati con i kernel Abbiamo una serie di oggetti S

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2017.html

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Support Vector Machines

Support Vector Machines F94) Metodi statistici per l apprendimento Support Vector Machines Docente: Nicolò Cesa-Bianchi versione 28 maggio 208 La Support Vector Machine d ora in poi SVM) è un algoritmo di apprendimento per classificatori

Dettagli

Introduzione alle Reti Neurali

Introduzione alle Reti Neurali Introduzione alle Reti Neurali Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: stefano.gualandi@unipv.it @famo2spaghi http://stegua.github.com Reti Neurali Terminator

Dettagli

Reti Neurali in Generale

Reti Neurali in Generale istemi di Elaborazione dell Informazione 76 Reti Neurali in Generale Le Reti Neurali Artificiali sono studiate sotto molti punti di vista. In particolare, contributi alla ricerca in questo campo provengono

Dettagli

Reti Neurali (Parte I)

Reti Neurali (Parte I) Reti Neurali (Parte I) Corso di AA, anno 2017/18, Padova Fabio Aiolli 30 Ottobre 2017 Fabio Aiolli Reti Neurali (Parte I) 30 Ottobre 2017 1 / 15 Reti Neurali Artificiali: Generalità Due motivazioni diverse

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2018.html

Dettagli

Computazione per l interazione naturale: Modelli dinamici

Computazione per l interazione naturale: Modelli dinamici Computazione per l interazione naturale: Modelli dinamici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità)

Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Data Mining and Machine Learning Lab. Lezione 8 Master in Data Science for Economics, Business and Finance 2018

Data Mining and Machine Learning Lab. Lezione 8 Master in Data Science for Economics, Business and Finance 2018 Data Mining and Machine Learning Lab. Lezione 8 Master in Data Science for Economics, Business and Finance 2018 18.05.18 Marco Frasca Università degli Studi di Milano SVM - Richiami La Support Vector Machine

Dettagli

Università degli Studi di Roma Tor Vergata

Università degli Studi di Roma Tor Vergata Funzioni kernel Note dal corso di Machine Learning Corso di Laurea Specialistica in Informatica a.a. 2010-2011 Prof. Giorgio Gambosi Università degli Studi di Roma Tor Vergata 2 Queste note derivano da

Dettagli

Reti Neurali (Parte I)

Reti Neurali (Parte I) Reti Neurali (Parte I) Corso di AA, anno 2018/19, Padova Fabio Aiolli 07 Novembre 2018 Fabio Aiolli Reti Neurali (Parte I) 07 Novembre 2018 1 / 16 Reti Neurali Artificiali: Generalità Due motivazioni diverse

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html

Dettagli

Ricerca Operativa a.a : IV appello

Ricerca Operativa a.a : IV appello Ricerca Operativa a.a. 2015-2016: IV appello (Prof. Fasano Giovanni) Università Ca Foscari Venezia - Sede di via Torino 5 settembre 2016 Regole per l esame: la violazione delle seguenti regole comporta

Dettagli

Reti Neurali. Corso di AA, anno 2016/17, Padova. Fabio Aiolli. 2 Novembre Fabio Aiolli Reti Neurali 2 Novembre / 14. unipd_logo.

Reti Neurali. Corso di AA, anno 2016/17, Padova. Fabio Aiolli. 2 Novembre Fabio Aiolli Reti Neurali 2 Novembre / 14. unipd_logo. Reti Neurali Corso di AA, anno 2016/17, Padova Fabio Aiolli 2 Novembre 2016 Fabio Aiolli Reti Neurali 2 Novembre 2016 1 / 14 Reti Neurali Artificiali: Generalità Due motivazioni diverse hanno spinto storicamente

Dettagli

Computazione per l interazione naturale: classificazione supervisionata

Computazione per l interazione naturale: classificazione supervisionata Computazione per l interazione naturale: classificazione supervisionata Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

COMPITO DI RICERCA OPERATIVA. max 8 5x 1 3x 2 x 3 = 1 + 4x 1 + x 2 x 4 = 1 x 1 + x 2 x 5 = 5 x 1 x 2

COMPITO DI RICERCA OPERATIVA. max 8 5x 1 3x 2 x 3 = 1 + 4x 1 + x 2 x 4 = 1 x 1 + x 2 x 5 = 5 x 1 x 2 COMPITO DI RICERCA OPERATIVA ESERCIZIO. (5 punti) Dato un problema di PL, la sua riformulazione rispetto alla base B = {x 3, x, x 5 } é la seguente: max 8 5x 3x x 3 = + x + x x = x + x x 5 = 5 x x Solo

Dettagli

Computazione per l interazione naturale: Regressione lineare

Computazione per l interazione naturale: Regressione lineare Computazione per l interazione naturale: Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it http://homes.dsi.unimi.it/~boccignone/l

Dettagli

Computazione per l interazione naturale: Classificatori non probabilistici

Computazione per l interazione naturale: Classificatori non probabilistici Computazione per l interazione naturale: Classificatori non probabilistici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano

Dettagli

ESAME di OTTIMIZZAZIONE Corso di Laurea Magistrale in Ingegneria Gestionale 1 o anno

ESAME di OTTIMIZZAZIONE Corso di Laurea Magistrale in Ingegneria Gestionale 1 o anno SIMULAZIONE ESAME di OTTIMIZZAZIONE 27 Gennaio 21 ESAME di OTTIMIZZAZIONE Corso di Laurea Magistrale in Ingegneria Gestionale 1 o anno Cognome : Nome : Esercizio 1. Si consideri il seguente problema: min

Dettagli

Funzioni kernel. Docente: Nicolò Cesa-Bianchi versione 18 maggio 2018

Funzioni kernel. Docente: Nicolò Cesa-Bianchi versione 18 maggio 2018 F94) Metodi statistici per l apprendimento Funzioni kernel Docente: Nicolò Cesa-Bianchi versione 18 maggio 2018 I predittori lineari possono soffrire di un errore di bias molto elevato in quanto predittore

Dettagli

Identificazione dei Modelli e Analisi dei Dati LS

Identificazione dei Modelli e Analisi dei Dati LS Identificazione dei Modelli e Analisi dei Dati LS Prof. G. De Nicolao I prova in itinere - Novembre 007 Cognome.............................. Nome.............................. Matricola..............................

Dettagli

11 luglio Soluzione esame di geometria - Ing. gestionale - a.a COGNOME... NOME... N. MATRICOLA... ISTRUZIONI

11 luglio Soluzione esame di geometria - Ing. gestionale - a.a COGNOME... NOME... N. MATRICOLA... ISTRUZIONI COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura ore. ISTRUZIONI Ti sono stati consegnati tre fogli, stampati fronte e retro. Come prima cosa scrivi

Dettagli

Universita degli Studi di Roma Tor Vergata Facolta di Ingegneria - CCS Edilizia ed Edile/Architettura

Universita degli Studi di Roma Tor Vergata Facolta di Ingegneria - CCS Edilizia ed Edile/Architettura Universita degli Studi di Roma Tor Vergata Facolta di Ingegneria - CCS Edilizia ed Edile/Architettura V Appello corso di Geometria a.a. / Docente F. Flamini NORME SVOLGIMENTO Negli appositi spazi scrivere

Dettagli

Regressione. Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting

Regressione. Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting Non lineare Variabile indipendente non lineare Ottimizzazione numerica (metodi iterativi) 1 Definizioni Nei

Dettagli

Computazione per l interazione naturale: Regressione lineare Bayesiana

Computazione per l interazione naturale: Regressione lineare Bayesiana Computazione per l interazione naturale: Bayesiana Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it

Dettagli

SUPPORT VECTOR MACHINES. a practical guide

SUPPORT VECTOR MACHINES. a practical guide SUPPORT VECTOR MACHINES a practical guide 1 SUPPORT VECTOR MACHINES Consideriamo un problema di classificazione binaria, a partire da uno spazio di input X R n e uno spazio di output Y = { 1, 1} Training

Dettagli

Classificazione introduzione

Classificazione introduzione - Classificazione introduzione Vittorio Maniezzo Università di Bologna 1 Ringraziamenti Questi lucidi derivano anche da adattamenti personali di materiale prodotto (fornitomi o reso scaricabile) da: A.

Dettagli

Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale

Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale Il presente lavoro, facente segiuto a quanto scritto precedentemente ha il fine di descrivere il codice di calcolo

Dettagli

Apprendimento automatico e Reti Neurali. Francesco Sambo tel

Apprendimento automatico e Reti Neurali. Francesco Sambo  tel Apprendimento automatico e Reti Neurali Francesco Sambo www.dei.unipd.it/~sambofra francesco.sambo@dei.unipd.it tel. 049 827 7834 Apprendimento automatico Capacità di un agente di sintetizzare nuova conoscenza

Dettagli

STATISTICA CORSO BASE. Prova scritta del Tempo: 2 ore Cognome e Nome:... Matricola:...

STATISTICA CORSO BASE. Prova scritta del Tempo: 2 ore Cognome e Nome:... Matricola:... STATISTICA CORSO BASE. Prova scritta del 4-6-2013. Tempo: 2 ore Cognome e Nome:.............................. Matricola:.............................. Attenzione: Prima di affrontare la prova si consiglia

Dettagli

Uso dell algoritmo di Quantizzazione Vettoriale per la determinazione del numero di nodi dello strato hidden in una rete neurale multilivello

Uso dell algoritmo di Quantizzazione Vettoriale per la determinazione del numero di nodi dello strato hidden in una rete neurale multilivello Tesina di Intelligenza Artificiale Uso dell algoritmo di Quantizzazione Vettoriale per la determinazione del numero di nodi dello strato hidden in una rete neurale multilivello Roberto Fortino S228682

Dettagli

Introduzione al Test in Itinere

Introduzione al Test in Itinere Introduzione al Test in Itinere Roberto Basili Università di Roma, Tor Vergata Argomenti oggetto di esame Rappresentazioni vettoriali per la classificazione Clustering Algoritmi di apprendimento automatico

Dettagli

17 luglio Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a ISTRUZIONI

17 luglio Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a ISTRUZIONI COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura ore. ISTRUZIONI Ti sono stati consegnati tre fogli, stampati fronte e retro. Come prima cosa scrivi

Dettagli

Machine Learning GIORGIO GAMBOSI UNIVERSITÀ DI ROMA TOR VERGATA

Machine Learning GIORGIO GAMBOSI UNIVERSITÀ DI ROMA TOR VERGATA 1 Machine Learning GIORGIO GAMBOSI UNIVERSITÀ DI ROMA TOR VERGATA Che cos è? 2! Programmazione di computer in modo tale da fornire risultati sulla base dell esame di dati o di esperienza passata! Le azioni

Dettagli

COMPITO DI RICERCA OPERATIVA. max x 1 + x 2 x 1 + x 2 1 x 1 + x 2 2. Lo si trasformi in forma standard e se ne determini una soluzione ottima.

COMPITO DI RICERCA OPERATIVA. max x 1 + x 2 x 1 + x 2 1 x 1 + x 2 2. Lo si trasformi in forma standard e se ne determini una soluzione ottima. COMPITO DI RICERCA OPERATIVA APPELLO DEL 06/07/05 ESERCIZIO 1. (5 punti) Sia dato il seguente problema di PL: max x 1 + x 2 x 1 + x 2 1 x 1 + x 2 2 x 1 0 x 2 0 Lo si trasformi in forma standard e se ne

Dettagli

Esame di Ricerca Operativa. Corso di Laurea in Ingegneria Informatica e Automatica. Compito A

Esame di Ricerca Operativa. Corso di Laurea in Ingegneria Informatica e Automatica. Compito A Esame di Ricerca Operativa Corso di Laurea in Ingegneria Informatica e Automatica 6 settembre 218 Compito A Istruzioni Usate i fogli bianchi allegati per calcoli, ragionamenti e quanto altro reputiate

Dettagli

Quiz di verifica Classificazione

Quiz di verifica Classificazione Quiz di verifica Classificazione Strumenti Quantitativi per la gestione Le domande 1 4 si riferiscono al seguente problema: Supponiamo di raccogliere dati per un gruppo di studenti della classe di SQG

Dettagli

8 novembre Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA...

8 novembre Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA... COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura ore. ISTRUZIONI Ti sono stati consegnati tre fogli, stampati fronte e retro. Come prima cosa scrivi

Dettagli

Apprendimento Automatico (Feature Selection e Kernel Learning)

Apprendimento Automatico (Feature Selection e Kernel Learning) Apprendimento Automatico (Feature Selection e Kernel Learning) Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Servono tutti gli attributi? Gli

Dettagli

Criteri alternativi all Entropia

Criteri alternativi all Entropia Sistemi Intelligenti 94 Criteri alternativi all Entropia Altri criteri suggeriti al posto dell Entropia: - Variance Impurity (per due classi) - (Weighted) Gini Impurity (generalizzazione di Variance Impurity

Dettagli

Soluzione facsimile 2 d esame di geometria - Ingegneria gestionale - a.a ISTRUZIONI

Soluzione facsimile 2 d esame di geometria - Ingegneria gestionale - a.a ISTRUZIONI Soluzione facsimile d esame di geometria - Ingegneria gestionale - a.a. 00-004 COGNOME......................................... NOME......................................... N. MATRICOLA................

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Metodi Bayesiani - Naive Bayes Fabio Aiolli 13 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 13 Dicembre 2017 1 / 18 Classificatore Naive Bayes Una delle tecniche più semplici

Dettagli

Computazione per l interazione naturale: processi gaussiani

Computazione per l interazione naturale: processi gaussiani Computazione per l interazione naturale: processi gaussiani Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Stima dei Parametri. Corso di Apprendimento Automatico Laurea Magistrale in Informatica Nicola Fanizzi

Stima dei Parametri. Corso di Apprendimento Automatico Laurea Magistrale in Informatica Nicola Fanizzi Laurea Magistrale in Informatica Nicola Fanizzi Dipartimento di Informatica Università degli Studi di Bari 20 gennaio 2009 Sommario Introduzione Stima dei parametri di massima verosimiglianza Stima dei

Dettagli

19 settembre Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA...

19 settembre Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA... COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura ore. ISTRUZIONI Ti sono stati consegnati tre fogli, stampati fronte e retro. Come prima cosa scrivi

Dettagli

Computazione per l interazione naturale: Classificatori non probabilistici

Computazione per l interazione naturale: Classificatori non probabilistici Computazione per l interazione naturale: Classificatori non probabilistici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano

Dettagli

2. Una volta decise le risposte riportatele sull apposito foglio allegato.

2. Una volta decise le risposte riportatele sull apposito foglio allegato. Prova scritta di Modelli e algoritmi della logistica - (A) LAUREA in INGEGNERIA GESTIONALE (Specialistica in Informatica, Automatica, Telecomunicazioni) aprile 8 (A) Istruzioni. Usate i fogli bianchi allegati

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

4. METODI DUALI DEL SIMPLESSO

4. METODI DUALI DEL SIMPLESSO 4. MEODI DUALI DEL SIMPLESSO R. adei 1 Una piccola introduzione R. adei 2 MEODI DUALI DEL SIMPLESSO L obiettivo del capitolo è illustrare e giustificare i metodi duali del simplesso. Entrambi i metodi

Dettagli

RETI NEURALI. Esempio: Stima del rendimento volumetrico η

RETI NEURALI. Esempio: Stima del rendimento volumetrico η RETI NEURALI Contenuti: Reti di percettroni Reti neurali a base radiale Esempio: Stima del rendimento volumetrico η Conclusioni Motivazione: Modelli flessibili e modulari (= costituiti dalla interconnessione

Dettagli

Riconoscimento automatico di oggetti (Pattern Recognition)

Riconoscimento automatico di oggetti (Pattern Recognition) Riconoscimento automatico di oggetti (Pattern Recognition) Scopo: definire un sistema per riconoscere automaticamente un oggetto data la descrizione di un oggetto che può appartenere ad una tra N classi

Dettagli

Computazione per l interazione naturale: Classificatori non probabilistici

Computazione per l interazione naturale: Classificatori non probabilistici Computazione per l interazione naturale: Classificatori non probabilistici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Il presente plico contiene 3 esercizi e deve essere debitamente compilato con cognome e nome, numero di matricola.

Il presente plico contiene 3 esercizi e deve essere debitamente compilato con cognome e nome, numero di matricola. Politecnico di Milano Facoltà di Ingegneria Industriale INFORMATICA B Appello 2 Settembre 2013 COGNOME E NOME RIGA COLONNA MATRICOLA Spazio riservato ai docenti Il presente plico contiene 3 esercizi e

Dettagli

Computazione per l interazione naturale: Regressione lineare (MSE)

Computazione per l interazione naturale: Regressione lineare (MSE) Computazione per l interazione naturale: Regressione lineare (MSE) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2015.html

Dettagli

Ricerca Operativa a.a : III appello

Ricerca Operativa a.a : III appello Ricerca Operativa a.a. 2015-2016: III appello (Prof. Fasano Giovanni) Università Ca Foscari Venezia - Sede di via Torino 7 giugno 2016 Regole per l esame: la violazione delle seguenti regole comporta il

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico On AIR s.r.l. Tecniche di riconoscimento statistico Teoria e applicazioni industriali Parte 3 Costruzione di un classificatore Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr

Dettagli

Lezione introduttiva su reti neurali e SVM Veronica Piccialli. Corso di Ottimizzazione a.a (seconda parte)

Lezione introduttiva su reti neurali e SVM Veronica Piccialli. Corso di Ottimizzazione a.a (seconda parte) Lezione introduttiva su reti neurali e SVM Veronica Piccialli Corso di Ottimizzazione a.a. 2009-10 (seconda parte) Ottimizzazione Statistica Fisica Biologia Reti Neurali Matematica Psicologia Informatica

Dettagli

Ogni parte non cancellata a penna sarà considerata parte integrante della soluzione.

Ogni parte non cancellata a penna sarà considerata parte integrante della soluzione. Politecnico di Milano Facoltà di Ingegneria Industriale INFORMATICA B Prova in itinere del 16 Novembre 011 COGNOME E NOME RIGA COLONNA MATRICOLA Spazio riservato ai docenti Il presente plico contiene 4

Dettagli

ADDESTRAMENTO DI UNA RETE NEURALE ED EVENTUALI CONSIDERAZIONI PRESTAZIONALI. (a cura di Buttolo Marco).

ADDESTRAMENTO DI UNA RETE NEURALE ED EVENTUALI CONSIDERAZIONI PRESTAZIONALI. (a cura di Buttolo Marco). ADDESTRAMENTO DI UNA RETE NEURALE ED EVENTUALI CONSIDERAZIONI PRESTAZIONALI. (a cura di Buttolo Marco). Lalgoritmo più utilizzato per addestrare una rete neurale è lalgoritmo di bac-propagation. In sostanza

Dettagli

COMPITO DI RICERCA OPERATIVA. max 5 2x 1 + 3x 2 x 3 = 2 + x 1 5x 2 x 4 = 5 + x 2. x 5 = 1 + x 1 x 2

COMPITO DI RICERCA OPERATIVA. max 5 2x 1 + 3x 2 x 3 = 2 + x 1 5x 2 x 4 = 5 + x 2. x 5 = 1 + x 1 x 2 COMPITO DI RICERCA OPERATIVA ESERCIZIO. ( punti) La riformulazione di un problema di PL rispetto alla base B = {x, x, x } è la seguente: max 2x + x 2 x = 2 + x x 2 x = + x 2 x = 2 + x + x 2 x, x 2, x,

Dettagli

ESAME. 9 Gennaio 2017 COMPITO B

ESAME. 9 Gennaio 2017 COMPITO B ESAME 9 Gennaio 2017 COMPITO B Cognome Nome Numero di matricola 1) Approssimare tutti i calcoli alla quarta cifra decimale. 2) Ai fini della valutazione si terrà conto solo ed esclusivamente di quanto

Dettagli

Ogni parte non cancellata a penna sarà considerata parte integrante della soluzione.

Ogni parte non cancellata a penna sarà considerata parte integrante della soluzione. Politecnico di Milano Facoltà di Ingegneria Industriale INFORMATICA B Prova in itinere del 16 Novembre 011 COGNOME E NOME RIGA COLONNA MATRICOLA Spazio riservato ai docenti Il presente plico contiene 4

Dettagli

ESAME. 9 Gennaio 2017 COMPITO A

ESAME. 9 Gennaio 2017 COMPITO A ESAME 9 Gennaio 2017 COMPITO A Cognome Nome Numero di matricola 1) Approssimare tutti i calcoli alla quarta cifra decimale. 2) Ai fini della valutazione si terrà conto solo ed esclusivamente di quanto

Dettagli

Ricerca Operativa a.a : II appello

Ricerca Operativa a.a : II appello Ricerca Operativa a.a. 2015-2016: II appello (Prof. Fasano Giovanni) Università Ca Foscari Venezia - Sede di via Torino 28 gennaio 2016 Regole per l esame: la violazione delle seguenti regole comporta

Dettagli

Prova Scritta di Ricerca Operativa

Prova Scritta di Ricerca Operativa Prova Scritta di Ricerca Operativa (Prof. Fasano Giovanni) Università Ca Foscari Venezia - Sede di via Torino 1 giugno 2017 Regole per l esame: la violazione delle seguenti regole comporta il ritiro dell

Dettagli

Rischio statistico e sua analisi

Rischio statistico e sua analisi F94 Metodi statistici per l apprendimento Rischio statistico e sua analisi Docente: Nicolò Cesa-Bianchi versione 7 aprile 018 Per analizzare un algoritmo di apprendimento dobbiamo costruire un modello

Dettagli

21 settembre Soluzione esame di geometria - Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA...

21 settembre Soluzione esame di geometria - Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA... COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura ore. ISTRUZIONI Ti sono stati consegnati tre fogli, stampati fronte e retro. Come prima cosa scrivi

Dettagli

25 ottobre Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA...

25 ottobre Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA... COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura ore. ISTRUZIONI Ti sono stati consegnati tre fogli, stampati fronte e retro. Come prima cosa scrivi

Dettagli

Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità

Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità Intelligenza Artificiale Soft Computing: Reti Neurali Generalità Neurone Artificiale Costituito da due stadi in cascata: sommatore lineare (produce il cosiddetto net input) net = S j w j i j w j è il peso

Dettagli

Constraint Satisfaction Problems

Constraint Satisfaction Problems Constraint Satisfaction Problems Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 19/03/2018 Constraint Satisfaction problem Fino ad ora ogni stato è stato modellizzato come una

Dettagli