Esercizi d esamed. Spazio delle versioni

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Esercizi d esamed. Spazio delle versioni"

Transcript

1 Esercizi d esamed Spazio delle versioni Si consideri il problema EnjoySport visto a lezione descritto dagli attributi Sky Air Temp Humid Wind Water Forecast Si definisca uno spazio delle ipotesi costituito da tutte le disgiunzioni di 2 ipotesi nello spazio visto a lezione. Ad esempio, una ipotesi potrebbe essere: <?,cold,high,?,?,?> <sunny,?,high,?,?,same>

2 Spazio delle versioni Dati gli esempi: Sky Air Temp Humid Wind Water Forecast Enjoy Sport Sunny Warm Normal Strong Warm Same Yes Sunny Warm High Strong Warm Same Yes Rainy Cold High Strong Warm Change No Sunny Warm High Strong Cool Change Yes Si mostri l evoluzione degli insiemi S e G che si ottiene eseguendo l algoritmo Candidate-Elimination G={<?,?,?,?,?,?> <?,?,?,?,?,?>} S={ } G=G S={s=<s,w,n,s,w,s> } G2=G Generalizzazioni di s: <s,w,?,s,w,s>, <s,w,n,s,w,s> <s,w,h,s,w,s> S2={<s,w,?,s,w,s> } 2

3 G3={<s,?,?,?,?,?> <s,?,?,?,?,?>, <?,w,?,?,?,?> <?,w,?,?,?,?>, <?,?,?,?,?,s> <?,?,?,?,?,s>} S3=S2={s2=<s,w,?,s,w,s> } G4={<s,?,?,?,?,?> <s,?,?,?,?,?>, <?,w,?,?,?,?> <?,w,?,?,?,?>} Generalizzazioni di s2 {<s,w,?,s,?,?>, <s,w,?,s,w,s> <s,w,h,s,c,c>} S4= {<s,w,?,s,w,s> <s,w,h,s,c,c>} Spazio delle versioni Si consideri ancora il problema EnjoySport Sky Air Temp Humid Wind Water Forecast Si consideri ancora uno spazio delle ipotesi costituito da tutte le disgiunzioni di 2 ipotesi nello spazio visto a lezione. 3

4 Spazio delle versioni Dati gli esempi: Sky Air Temp Humid Wind Water Forecast Enjoy Sport Sunny Warm Normal Strong Warm Same Yes Sunny Warm Medium Strong Warm Same Yes Rainy Cold High Strong Warm Change No Sunny Warm High Strong Cool Change Yes Unica differenza: Humid ha tre valori Si mostri l evoluzione degli insiemi S e G che si ottiene eseguendo l algoritmo Candidate-Elimination G={<?,?,?,?,?,?> <?,?,?,?,?,?>} S={ } G=G S={s=<s,w,n,s,w,s> } G2=G Generalizzazioni di s: <s,w,?,s,w,s>, <s,w,n,s,w,s> <s,w,m,s,w,s> S2={<s,w,n,s,w,s> <s,w,m,s,w,s>} 4

5 G3={<s,?,?,?,?,?> <s,?,?,?,?,?>, <?,w,?,?,?,?> <?,w,?,?,?,?>, <?,?,?,?,?,s> <?,?,?,?,?,s>} S3=S2={s2=<s,w,n,s,w,s> <s,w,m,s,w,s>} G4={<s,?,?,?,?,?> <s,?,?,?,?,?>, <?,w,?,?,?,?> <?,w,?,?,?,?>} Generalizzazioni di s2 {<s,w,?,s,?,?> <s,w,m,s,w,s>, <s,w,n,s,w,s> <s,w,?,s,?,?>} S4= {<s,w,?,s,?,?> } Spazio delle versioni Si consideri il problema EnjoySport descritto dagli attributi Sky Air Temp Humid Wind Water Forecast. Si dia la sequenza di esempi di lunghezza minima che produce lo spazio delle versioni descritto da G={?,?,normal,?,?,?} S={<?,warm,normal,strong,?,same>} 5

6 . Una possibile sequenza è <sunny, warm, normal, strong, cool, same>, + <rainy, warm, normal, strong, warm, same>, + <sunny, warm, high, strong, warm, same>, - Domande 2. Quante ipotesi rimangono nello spazio delle versioni descritto sopra? 3. Si supponga che l apprenditore possa fare delle domane al maestro presentandogli una nuova istanza e chiedendo la sua classificazione come esempio positivo o negativo. Quante domande sono necessarie all apprenditore per apprendere esattamente il concetto obiettivo (assumento che utilizzi la strategia di domande ottimale)? Fornire una di tali sequenze di query. 6

7 Risposte 2. 8 <?,?,n,?,?,?> <?,?,n,?,?,s> <?,?,n,s,?,?> <?,w,n,?,?,?> <?,?,n,s,?,s> <?,w,n,?,?,s> <?,w,n,s,?,?> <?,w,n,s,?,s> Risposte Ad esempio:. <sunny,cold,normal,strong,cool,same> 2. <sunny,warm,normal,light,cool,same> 3. <sunny,warm,normal,strong,cool,change> 7

8 Risposte. <sunny,cold,normal,strong,cool,same> 2. <sunny,warm,normal,light,cool,same> 3. <sunny,warm,normal,strong,cool,change> <?,?,n,?,?,?> <?,?,n,?,?,s> <?,?,n,s,?,?> <?,w,n,?,?,?> <?,?,n,s,?,s> <?,w,n,?,?,s> <?,w,n,s,?,?> <?,w,n,s,?,s> Alberi decisionali Il maestro Yoda e' preoccupato dal numero di apprendisti Jedi che hanno deciso di darsi al Lato Oscuro, quindi ha deciso di apprendere un albero di decisione su alcuni dati storici per identificare i casi problematici in futuro. La tabella T descrive 2 iniziati specificando se sono passati al Lato Oscuro sulla base dell'eta' in cui il loro apprendistato Jedi e' cominciato, se hanno completato il loro apprendistato, la loro disposizione generale e la loro specie. 8

9 Tabella T Eta' di inizio Apprendistato Disposizione Specie Lato Oscuro dell'apprendistato completato 5 Felice Umana 9 Felice Gungan 6 Felice Wookie 6 Triste Mon Calamari 7 Triste Umana 8 Arrabbiata Umana 5 Arrabbiata Ewok 9 Felice Ewok 8 Triste Umana 8 Triste Umana 6 Arrabbiata Wookie 7 Arrabbiata Mon Calamari Domande. Qual'e' l'entropia della tabella T rispetto all attributo Lato Oscuro? k freq( C, S) freq( C j, S info( S) = j = log 2 S S j ) 2. Dire ad occhio (senza calcolare la funzione euristica) quale attributo verrebbe scelto come radice dell'albero dall'algoritmo di apprendimento di alberi di decisione? 3. Qual'e' il guadagno di informazione dell'attributo scelto nella risposta precedente? 9

10 Risposte. info(t)=-5/2log 2 (5/2)-7/2log 2 (5/2)= Apprendistato completato 3. gain(app)=info(t)-(5/2*(-/5log 2 (/5)- 5/5log 2 (5/5))+7/2(-5/7log 2 (5/7)-2/7log 2 (2/7)))=.476 Domanda 4. Disegnare l'albero decisionale che sarebbe appreso da questi dati (senza potature) (suggerimento: l'albero ha al massimo 3 divisioni. Si costruisca l'albero guardando solo la composizione degli insiemi, senza calcolare il guadagno di informazione)

11 Apprendistato compl. No Lato Oscuro Età di inzio app. 7 > 7 Felice Disposizione Triste Lato Oscuro Arrabbiata No Lato Oscuro No Lato Oscuro Lato Oscuro Domanda 5. Si consideri la possibilità che i dati di ingresso siano rumorosi e non completamente accurati, al punto che l albero di decisione appreso può non descrivere accuratamente la funzione che si vuole imparare. Se si dovesse valutare i tre iniziati rappresentati dai dati indicati sotto, per quali saresti più confidente riguardo la tua predizione e perchè Nome Eta' di inizio Apprendistato Disposizione Specie dell'apprendistato completato Ardath 5 Arrabbiato Umana Barbar 8 Arrabbiato Umana Caldar 8 Felice Moon Calamari

12 Barbar. Motivazione: la regola che è appresa è che ti rivolgi al Lato Oscuro se non hai completato l apprendistato ed eri troppo vecchio oppure eri arrabbiato. Barbar era sia troppo vecchio che arrabbiato quindi soddisfa entrambe le condizioni dell OR, quindi anche se una di esse è sbagliata, esso viene comunque classificato come Lato Oscuro Domanda 6. Si assuma di voler apprendere un albero di decisione per predire Z da A, B e C usando i dati a sinistra (senza potatura e senza arresto nel caso di minimo di due insiemi con più di 2 elementi). Quale sarà l errore sul training set dell albero appreso? Z A B C 2

13 Ci sono 4 coppie di record che hanno valori duplicati per le variabili di ingresso, ma solo due di queste coppie hanno valori contraddittori per la variabile di output. Uno dei record di queste due coppie sarà sicuramente misclassificato. Quindi gli errori sono 2. Domanda 7. Si consideri un albero di decisione generato da un insieme di dati arbitrario. Se l uscita è discreta e può assumere solo k diversi possibili valori, qual è il massimo errore (espresso come una frazione) dell albero sul training set che ogni insieme di dati possa avere? 3

14 Si consideri un insieme di record con uguali ingressi ma con uscite distribuite uniformemente tra i k possibili valori. L albero classifichera tutti questi punti in una sola classe che sarà sbagliata per quelli nelle altre k- classi. Dato che le uscite sono distribuite uniformemente, l errore frazionario dell albero sul training set sarà (k-)/k. Se le uscite non fossero distribuite uniformenente tra i record ma ci fosse una classe dominante, questa sarebbe scelta come etichetta della foglia, quindi l errore frazionario sarabbe più basso (perchè la classe di maggioranza avrebbe più di /k dei punti). Classificazione Naive Bayes Data la tabella T relativi agli apprendisti di Yoda, si determini la classe più probabile di Barbar Nome Eta' di inizio Apprendistato Disposizione Specie dell'apprendistato completato Barbar 8 Arrabbiato Umana 4

15 P(lato oscuro=sì)=5/2=.46 P(lato oscuro=no)=7/2=.583 P(età=8 lato oscuro=sì)=2/5=.4 P(età=8 lato oscuro=no)=/7=.43 P(compl=no lato oscuro=sì)=5/5= P(compl=no lato oscuro=no)=2/7=.286 P(disp=arr lato oscuro=sì)=2/5=.4 P(disp=arr lato oscuro=no)=2/7.286 P(specie=human lato oscuro=sì)=2/5=.4 P(specie= human lato oscuro=no)=3/7=.429 Lato oscuro=sì:.46*.4**.4*.4=.6656 Lato oscuro=no:.583*.43*.286*.286*.429=.2925 Quindi la classe più probabile è lato oscuro=sì con probabilita.6656/( )= Apprendimento basato sulle istanze Si indichi la classificazione del punto con -NN, 3-NN e 5-NN 5

16 NN=+, 3-NN=-, 5-NN=+ 6

Machine Learning:Version Space. Sommario

Machine Learning:Version Space. Sommario Machine Learning:Version Space Sommario Ripasso di alcune definizioni sul ML Lo spazio delle ipotesi H Apprendimento di una funzione booleana: il concept learning Version Space Spazio delle Ipotesi H

Dettagli

Introduzione alla Modellazione Predittiva Dal ML al DM: Concept Learning

Introduzione alla Modellazione Predittiva Dal ML al DM: Concept Learning Introduzione alla Modellazione Predittiva Dal ML al DM: Giuseppe Manco Riferimenti: Chapter 2, Mitchell Chapter 10 Hand, Mannila, Smith Chapter 7 Han, Kamber Apprendimento dagli esempi Nozioni (teoriche)

Dettagli

Apprendimento Automatico: Apprendimento di Concetti da Esempi

Apprendimento Automatico: Apprendimento di Concetti da Esempi Apprendimento Automatico: Apprendimento di Concetti da Esempi Che cos è l apprendimento di concetti Inferire una funzione booleana (funzione obiettivo o concetto) a partire da esempi di addestramento dati

Dettagli

Apprendimento di Alberi di Decisione: Bias Induttivo

Apprendimento di Alberi di Decisione: Bias Induttivo istemi di Elaborazione dell Informazione 54 Apprendimento di Alberi di Decisione: Bias Induttivo Il Bias Induttivo è sulla ricerca! + + A1 + + + A2 + +...... + + A2 A3 + + + A2 A4...... istemi di Elaborazione

Dettagli

ID3: Selezione Attributo Ottimo

ID3: Selezione Attributo Ottimo Sistemi di Elaborazione dell Informazione 49 ID3: Selezione Attributo Ottimo Vari algoritmi di apprendimento si differenziano soprattutto (ma non solo) dal modo in cui si seleziona l attributo ottimo:

Dettagli

Alberi di Decisione. Fabio Aiolli Sito web del corso

Alberi di Decisione. Fabio Aiolli  Sito web del corso Alberi di Decisione Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Alberi di Decisione In molte applicazioni del mondo reale non è sufficiente

Dettagli

Sistemi Intelligenti 42. Apprendimento PAC

Sistemi Intelligenti 42. Apprendimento PAC Sistemi Intelligenti 42 Apprendimento PAC Usando la disuguaglianza precedente ed altre considerazioni è possibile mostrare che alcune classi di concetti non sono PAC-apprendibili dato uno specifico algoritmo

Dettagli

Alberi di Decisione. Corso di AA, anno 2017/18, Padova. Fabio Aiolli. 23 Ottobre Fabio Aiolli Alberi di Decisione 23 Ottobre / 16

Alberi di Decisione. Corso di AA, anno 2017/18, Padova. Fabio Aiolli. 23 Ottobre Fabio Aiolli Alberi di Decisione 23 Ottobre / 16 Alberi di Decisione Corso di AA, anno 2017/18, Padova Fabio Aiolli 23 Ottobre 2017 Fabio Aiolli Alberi di Decisione 23 Ottobre 2017 1 / 16 Alberi di decisione (Decision Trees) In molte applicazioni del

Dettagli

Apprendimento basato sulle istanze

Apprendimento basato sulle istanze Apprendimento basato sulle istanze Apprendimento basato sulle istanze Apprendimento: semplice memorizzazione di tutti gli esempi Classificazione di una nuova istanza x j : reperimento degli

Dettagli

Training Set Test Set Find-S Dati Training Set Def: Errore Ideale Training Set Validation Set Test Set Dati

Training Set Test Set Find-S Dati Training Set Def: Errore Ideale Training Set Validation Set Test Set Dati " #!! Suddivisione tipica ( 3 5 6 & ' ( ) * 3 5 6 = > ; < @ D Sistemi di Elaborazione dell Informazione Sistemi di Elaborazione dell Informazione Principali Paradigmi di Apprendimento Richiamo Consideriamo

Dettagli

Alberi di Decisione (2)

Alberi di Decisione (2) Alberi di Decisione (2) Corso di AA, anno 2018/19, Padova Fabio Aiolli 05 Novembre 2018 Fabio Aiolli Alberi di Decisione (2) 05 Novembre 2018 1 / 19 Apprendimento di alberi di decisione: Bias induttivo

Dettagli

Data Science e Tecnologie per le Basi di Dati

Data Science e Tecnologie per le Basi di Dati Data Science e Tecnologie per le Basi di Dati Esercitazione #3 Data mining BOZZA DI SOLUZIONE Domanda 1 (a) Come mostrato in Figura 1, l attributo più selettivo risulta essere Capital Gain, perché rappresenta

Dettagli

Corso di Intelligenza Artificiale A.A. 2016/2017

Corso di Intelligenza Artificiale A.A. 2016/2017 Università degli Studi di Cagliari Corsi di Laurea Magistrale in Ing. Elettronica Corso di Intelligenza rtificiale.. 26/27 Esercizi sui metodi di apprendimento automatico. Si consideri la funzione ooleana

Dettagli

Alberi di Decisione (2)

Alberi di Decisione (2) Alberi di Decisione (2) Corso di AA, anno 2017/18, Padova Fabio Aiolli 25 Ottobre 2017 Fabio Aiolli Alberi di Decisione (2) 25 Ottobre 2017 1 / 18 Apprendimento di alberi di decisione: Bias induttivo Come

Dettagli

COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 21 Giugno 2005 (Punteggio su 30/30; Tempo 2h )

COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 21 Giugno 2005 (Punteggio su 30/30; Tempo 2h ) COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 21 Giugno 2005 (Punteggio su 30/30; Tempo 2h ) Esercizio 1 (punti 8) Dato il seguente training set S: Att1 Att2 Classe 2 Spada Sith 1 Lancia Jedi 3 Lancia

Dettagli

COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 13 Settembre 2007 (Punteggio su 30/30; Tempo 2h )

COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 13 Settembre 2007 (Punteggio su 30/30; Tempo 2h ) COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 13 Settembre 2007 (Punteggio su 30/30; Tempo 2h ) Esercizio 1 (punti 8) Dato il seguente training set S: Distanza Uguali Stessa entità 1 Si Si 2 No Si

Dettagli

COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 13 Luglio 2005 (Punteggio su 30/30; Tempo 2h )

COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 13 Luglio 2005 (Punteggio su 30/30; Tempo 2h ) COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 13 Luglio 2005 (Punteggio su 30/30; Tempo 2h ) Esercizio 1 (punti 8) Dato il seguente training set S: Ritrovamento Aspetto Classe Montagna? Stegosauro

Dettagli

COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 12 aprile 2006 (Punteggio su 30/30; Tempo 2h )

COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 12 aprile 2006 (Punteggio su 30/30; Tempo 2h ) COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 12 aprile 2006 (Punteggio su 30/30; Tempo 2h ) Esercizio 1 (punti 8) Dato il seguente training set S: Ruote Motore Ripara due benzina + quattro benzina

Dettagli

Classificazione Bayesiana

Classificazione Bayesiana Classificazione Bayesiana Selezionare, dato un certo pattern x, la classe ci che ha, a posteriori, la massima probabilità rispetto al pattern: P(C=c i x)>p(c=c j x) j i Teorema di Bayes (TDB): P(A B) =

Dettagli

COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE L-S 23 Giugno 2004 Docente: Michela Milano

COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE L-S 23 Giugno 2004 Docente: Michela Milano COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE L-S 23 Giugno 2004 Docente: Michela Milano Esercizio 1 (punti 8) Dato il seguente training set S: A1 A2 Classe 1 0 A 1 1 A 3 0 B 2 1 B 2 0 A 2 1 B? 0

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Metodi Bayesiani - Naive Bayes Fabio Aiolli 13 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 13 Dicembre 2017 1 / 18 Classificatore Naive Bayes Una delle tecniche più semplici

Dettagli

COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 19 marzo 2009 (Punteggio su 30/30; Tempo 2h )

COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 19 marzo 2009 (Punteggio su 30/30; Tempo 2h ) COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 19 marzo 2009 (Punteggio su 30/30; Tempo 2h ) Esercizio 1 (punti 8) Dato il seguente training set S: Temperatura Umidità Classe Alta Alta Pos Alta Bassa

Dettagli

Apprendimento Automatico Esercitazione 15/04/2009 Prof. Roberto Navigli

Apprendimento Automatico Esercitazione 15/04/2009 Prof. Roberto Navigli Apprendimento Automatico Esercitazione 15/04/2009 Prof. Roberto Navigli Esercizio 1 Si vuole apprendere un classificatore Naive Bayes per le interrogazioni di un motore di ricerca. Ogni interrogazione

Dettagli

Introduzione all apprendimento automatico e Spazio delle versioni

Introduzione all apprendimento automatico e Spazio delle versioni Introduzione all apprendimento automatico e Spazio delle versioni Indice Definizione di Apprendimento Automatico (AA) Classificazione della ricerca in AA Linguaggi di rappresentazione Tecniche di apprendimento

Dettagli

Multi classificatori. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna

Multi classificatori. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Multi classificatori Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Combinazione di classificatori Idea: costruire più classificatori di base e predire la classe di appartenza di

Dettagli

d. Cancellazione del valore 5 e. Inserimento del valore 1

d. Cancellazione del valore 5 e. Inserimento del valore 1 Esercizio1 Si consideri un albero binario non vuoto in cui a ciascun nodo v è associato un numero reale v.val. Scrivere un algoritmo che, dato in input l'albero T e un numero reale x, restituisce true

Dettagli

Apprendimento Bayesiano

Apprendimento Bayesiano Apprendimento Automatico 232 Apprendimento Bayesiano [Capitolo 6, Mitchell] Teorema di Bayes Ipotesi MAP e ML algoritmi di apprendimento MAP Principio MDL (Minimum description length) Classificatore Ottimo

Dettagli

Algoritmi di classificazione supervisionati

Algoritmi di classificazione supervisionati Corso di Bioinformatica Algoritmi di classificazione supervisionati Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di apprendimento supervisionato per problemi di biologia computazionale

Dettagli

Alberi di Regressione

Alberi di Regressione lberi di Regressione Caso di studio di Metodi vanzati di Programmazione 2015-2016 Corso Data Mining Lo scopo del data mining è l estrazione (semi) automatica di conoscenza nascosta in voluminose basi di

Dettagli

Esercizi per il corso di Algoritmi, anno accademico 2011/12

Esercizi per il corso di Algoritmi, anno accademico 2011/12 Esercizi per il corso di Algoritmi, anno accademico 2011/12 Esercizi sulla Tecnica Divide et Impera N.B. Tutti gli algoritmi vanno scritti in pseudocodice (non in Java, nè in C++, etc. ). Di tutti gli

Dettagli

Data mining: classificazione

Data mining: classificazione DataBase and Data Mining Group of DataBase and Data Mining Group of DataBase and Data Mining Group of DataBase and Data Mining Group of DataBase and Data Mining Group of DataBase and Data Mining Group

Dettagli

Esercizio: apprendimento di congiunzioni di letterali

Esercizio: apprendimento di congiunzioni di letterali input: insieme di apprendimento istemi di Elaborazione dell Informazione 18 Esercizio: apprendimento di congiunzioni di letterali Algoritmo Find-S /* trova l ipotesi più specifica consistente con l insieme

Dettagli

Computazione per l interazione naturale: processi gaussiani

Computazione per l interazione naturale: processi gaussiani Computazione per l interazione naturale: processi gaussiani Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Classificazione DATA MINING: CLASSIFICAZIONE - 1. Classificazione

Classificazione DATA MINING: CLASSIFICAZIONE - 1. Classificazione M B G Classificazione ATA MINING: CLASSIFICAZIONE - 1 Classificazione Sono dati insieme di classi oggetti etichettati con il nome della classe di appartenenza (training set) L obiettivo della classificazione

Dettagli

Dr. A. Appice. Alberi di Decisione. Caso di studio di Metodi Avanzati di Programmazione AA 2012-2013

Dr. A. Appice. Alberi di Decisione. Caso di studio di Metodi Avanzati di Programmazione AA 2012-2013 Alberi di Decisione Caso di studio di Metodi Avanzati di Programmazione AA 2012-2013 Data Mining Lo scopo del data mining è l estrazione (semi) automatica di conoscenza nascosta in voluminose basi di dati

Dettagli

Data Science A.A. 2018/2019

Data Science A.A. 2018/2019 Corso di Laurea Magistrale in Economia Data Science A.A. 2018/2019 Lez. 6 Modelli di Classificazione Data Science 2018/2019 1 Definizione Si collocano tra i metodi di apprendimento supervisionato e mirano

Dettagli

Sistemi Intelligenti 57. Alberi di Decisione. funzioni target con valori di output discreti (in generale più di 2 valori);

Sistemi Intelligenti 57. Alberi di Decisione. funzioni target con valori di output discreti (in generale più di 2 valori); Sistemi Intelligenti 57 Alberi di Decisione In molte applicazioni del mondo reale non è sufficiente apprendere funzioni booleane con ingressi binari. Gli Alberi di Decisione sono particolarmente adatti

Dettagli

Array e Oggetti. Corso di Laurea Ingegneria Informatica Fondamenti di Informatica 1. Dispensa 12. A. Miola Dicembre 2006

Array e Oggetti. Corso di Laurea Ingegneria Informatica Fondamenti di Informatica 1. Dispensa 12. A. Miola Dicembre 2006 Corso di Laurea Ingegneria Informatica Fondamenti di Informatica 1 Dispensa 12 Array e Oggetti A. Miola Dicembre 2006 http://www.dia.uniroma3.it/~java/fondinf1/ Array e Oggetti 1 Contenuti Array paralleli

Dettagli

COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 2 Aprile 2009 (Punteggio su 30/30; Tempo 2h )

COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 2 Aprile 2009 (Punteggio su 30/30; Tempo 2h ) COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 2 Aprile 2009 (Punteggio su 30/30; Tempo 2h ) Esercizio 1 (punti 8) Dato il seguente training set S: Esposizione Correttezza Classe Buona? Pos Scarsa

Dettagli

Business Intelligence per i Big Data

Business Intelligence per i Big Data Business Intelligence per i Big Data Esercitazione di laboratorio n. 6 L obiettivo dell esercitazione è il seguente: - Applicare algoritmi di data mining per la classificazione al fine di analizzare dati

Dettagli

COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 8 Gennaio 2009 (Punteggio su 30/30; Tempo 2h )

COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 8 Gennaio 2009 (Punteggio su 30/30; Tempo 2h ) COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 8 Gennaio 2009 (Punteggio su 30/30; Tempo 2h ) Esercizio 1 (punti 7) Dato il seguente training set S: Temperatura Umidità Classe Alta Alta Pos Alta Bassa

Dettagli

Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione

Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione Corso di Bioinformatica Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di machine learning I metodi

Dettagli

Naïve Bayesian Classification

Naïve Bayesian Classification Naïve Bayesian Classification Di Alessandro rezzani Sommario Naïve Bayesian Classification (o classificazione Bayesiana)... 1 L algoritmo... 2 Naive Bayes in R... 5 Esempio 1... 5 Esempio 2... 5 L algoritmo

Dettagli

COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 15 Luglio 2010 (Punteggio su 30/30; Tempo 2h )

COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 15 Luglio 2010 (Punteggio su 30/30; Tempo 2h ) COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 15 Luglio 2010 (Punteggio su 30/30; Tempo 2h ) Esercizio 1 (punti 8) Dato il seguente training set S: Citazioni Articoli Classe 1? Si 2? No 1 1 Si 3

Dettagli

Classificazione Mario Guarracino Data Mining a.a. 2010/2011

Classificazione Mario Guarracino Data Mining a.a. 2010/2011 Classificazione Mario Guarracino Data Mining a.a. 2010/2011 Introduzione I modelli di classificazione si collocano tra i metodi di apprendimento supervisionato e si rivolgono alla predizione di un attributo

Dettagli

6) Descrivere con un diagramma a blocchi un algoritmo che legga da input due numeri ne calcoli il prodotto in termini di somme ripetute.

6) Descrivere con un diagramma a blocchi un algoritmo che legga da input due numeri ne calcoli il prodotto in termini di somme ripetute. I due esercizi seguenti su un esempio semplice (trovare il massimo tra due o tra tre numeri) introducono la descrizione di algoritmi con diagrammi a blocchi, le strutture di controllo sequenza e condizione,

Dettagli

Ingegneria della Conoscenza e Sistemi Esperti Lezione 4: Alberi di Decisione

Ingegneria della Conoscenza e Sistemi Esperti Lezione 4: Alberi di Decisione Ingegneria della Conoscenza e Sistemi Esperti Lezione 4: Alberi di Decisione Dipartimento di Elettronica e Informazione Apprendimento Supervisionato I dati considerati considerati degli esempi di un fenomeno

Dettagli

Apprendimento di insiemi disgiuntivi di regole

Apprendimento di insiemi disgiuntivi di regole Apprendimento di insiemi disgiuntivi di regole Apprendimento di insiemi disgiuntivi di regole Consideriamo prima l apprendimento di un singolo concetto target (attributo target booleano). Regole della

Dettagli

Ingegneria della Conoscenza e Sistemi Esperti Lezione 5: Regole di Decisione

Ingegneria della Conoscenza e Sistemi Esperti Lezione 5: Regole di Decisione Ingegneria della Conoscenza e Sistemi Esperti Lezione 5: Regole di Decisione Dipartimento di Elettronica e Informazione Politecnico di Milano Perchè le Regole? Le regole (if-then) sono espressive e leggibili

Dettagli

Codifica di Huffman e Lempel-Ziv-Welch

Codifica di Huffman e Lempel-Ziv-Welch Codifica di e Lempel-Ziv-Welch 1 ALBERTO BELUSSI ANNO ACCADEMICO 2009/2010 Tipi di compressione Senza perdita (lossless lossless): permettono di ricostruire perfettamente la rappresentazione del dato originale,

Dettagli

Metodi supervisionati di classificazione

Metodi supervisionati di classificazione Metodi supervisionati di classificazione Giorgio Valentini e-mail: valentini@dsi.unimi.it DSI - Dipartimento di Scienze dell'informazione Classificazione bio-molecolare di tessuti e geni Diagnosi a livello

Dettagli

Codifica di Huffman e Lempel-Ziv-Welch

Codifica di Huffman e Lempel-Ziv-Welch e Lempel-Ziv-Welch 1 A L B E R T O B E L U S S I A N N O A C C A D E M I C O 2 0 1 0 / 2 0 1 1 Tipi di compressione Senza perdita (lossless): permettono di ricostruire perfettamente la rappresentazione

Dettagli

Codifica di Huffman e Lempel-Ziv-Welch A L B E R T O B E L U S S I A N N O A C C A D E M I C O /

Codifica di Huffman e Lempel-Ziv-Welch A L B E R T O B E L U S S I A N N O A C C A D E M I C O / Codifica di Huffman e Lempel-Ziv-Welch 1 A L B E R T O B E L U S S I A N N O A C C A D E M I C O 2 0 1 0 / 2 0 1 1 Tipi di compressione Senza perdita (lossless): permettono di ricostruire perfettamente

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 9 Alberi di decisione Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr

Dettagli

Classificazione Mario Guarracino Laboratorio di Sistemi Informativi Aziendali a.a. 2006/2007

Classificazione Mario Guarracino Laboratorio di Sistemi Informativi Aziendali a.a. 2006/2007 Classificazione Introduzione I modelli di classificazione si collocano tra i metodi di apprendimento supervisionato e si rivolgono alla predizione di un attributo target categorico. A partire da un insieme

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Metodi Bayesiani Fabio Aiolli 11 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 11 Dicembre 2017 1 / 19 Metodi Bayesiani I metodi Bayesiani forniscono tecniche computazionali

Dettagli

15 Informazione e Predizione

15 Informazione e Predizione (FX) Teoria dell Informazione e della Trasmissione 5 Informazione e Predizione Docente: Nicolò Cesa-Bianchi versione 4 maggio 03 Consideriamo una sorgente X, p. Dallo studio della codifica sorgente, sappiamo

Dettagli

Argomenti della lezione. Criteri di divisibilità fattorizzazione m.c.m. e M.C.D. frazioni ed espressioni

Argomenti della lezione. Criteri di divisibilità fattorizzazione m.c.m. e M.C.D. frazioni ed espressioni Argomenti della lezione Criteri di divisibilità fattorizzazione m.c.m. e M.C.D. frazioni ed espressioni Quale cifra deve assumere la lettera c affinché i numeri 821c e 82c1 siano divisibili per 2? Un numero

Dettagli

PROGETTAZIONE ANNUALE MATEMATICA CLASSE QUARTA/QUINTA

PROGETTAZIONE ANNUALE MATEMATICA CLASSE QUARTA/QUINTA 1 PROGETTAZIONE ANNUALE MATEMATICA CLASSE QUARTA/QUINTA 1 2 TRAGUARDO PER LO SVILUPPO DELLA COMPETENZA NUMERO COMPETENZA in uscita NUMERO Si muove con sicurezza nel calcolo scritto e mentale con i numeri

Dettagli

Classificatori Bayesiani. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna

Classificatori Bayesiani. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna lassificatori Bayesiani rof. Matteo Golfarelli lma Mater Studiorum - Università di Bologna lassificatori Bayesiani Rappresentano un approccio probabilistico per risolvere problemi di classificazione In

Dettagli

ISTITUTO COMPRENSIVO DI CLUSONE A.S CURRICOLO DI MATEMATICA QUARTO BIMESTRE. Classe QUARTA COMPETENZE

ISTITUTO COMPRENSIVO DI CLUSONE A.S CURRICOLO DI MATEMATICA QUARTO BIMESTRE. Classe QUARTA COMPETENZE ISTITUTO COMPRENSIVO DI CLUSONE A.S. 2013-2014 CURRICOLO DI MATEMATICA QUARTO BIMESTRE Classe QUARTA COMPETENZE Indicazioni ABILITA CONOSCENZE AMBIENTE DI APPRENDIMENTO NUMERI L alunno si muove con sicurezza

Dettagli

Introduzione al Machine Learning

Introduzione al Machine Learning InfoLife Introduzione al Machine Learning Laboratorio di Bioinformatica InfoLife Università di Foggia - Consorzio C.IN.I. Dott. Crescenzio Gallo crescenzio.gallo@unifg.it 1 Cos è il Machine Learning? Fa

Dettagli

Esercizi di riepilogo Lezioni

Esercizi di riepilogo Lezioni Esercizi di riepilogo Lezioni 9-10-11 Es1: Aspettazioni iterate Siano X, Y, e Z v.a. discrete. Dimostrare le seguenti generalizzazioni della legge delle aspettazioni iterate a) b) c) Es2: Bacchetta Abbiamo

Dettagli

COMPITO DI FONDAMENTI DI INTELLIGENZA ARTIFICIALE INTELLIGENZA ARTIFICIALE (v.o.) PARTE I. 2 Dicembre 2008 (Tempo a disposizione 2h ; su 32 punti)

COMPITO DI FONDAMENTI DI INTELLIGENZA ARTIFICIALE INTELLIGENZA ARTIFICIALE (v.o.) PARTE I. 2 Dicembre 2008 (Tempo a disposizione 2h ; su 32 punti) COMPITO DI FONDAMENTI DI INTELLIGENZA ARTIFICIALE INTELLIGENZA ARTIFICIALE (v.o.) PARTE I 2 Dicembre 2008 (Tempo a disposizione 2h ; su 32 punti) Esercizio 1 (punti 5) Rappresentare le seguenti frasi:

Dettagli

Sistemi di Elaborazione dell Informazione 170. Caso Non Separabile

Sistemi di Elaborazione dell Informazione 170. Caso Non Separabile Sistemi di Elaborazione dell Informazione 170 Caso Non Separabile La soluzione vista in precedenza per esempi non-linearmente separabili non garantisce usualmente buone prestazioni perchè un iperpiano

Dettagli

Informatica/ Ing. Meccanica/ Edile/ Prof. Verdicchio/ 17/01/2014/ Foglio delle domande / VERSIONE 1

Informatica/ Ing. Meccanica/ Edile/ Prof. Verdicchio/ 17/01/2014/ Foglio delle domande / VERSIONE 1 Informatica/ Ing. Meccanica/ Edile/ Prof. Verdicchio/ 17/01/2014/ Foglio delle domande/ VERSIONE 1 1) L approccio con cui si studia un sistema focalizzandosi solo sul rapporto tra input e output si chiama

Dettagli

Approccio statistico alla classificazione

Approccio statistico alla classificazione Approccio statistico alla classificazione Approccio parametrico e non parametrico Finestra di Parzen Classificatori K-NN 1-NN Limitazioni dell approccio bayesiano Con l approccio bayesiano, sarebbe possibile

Dettagli

Elementi di Apprendimento Automatico

Elementi di Apprendimento Automatico Elementi di Apprendimento Automatico Riferimenti Bibliografici: Tom Mitchell, Machine Learning, McGraw Hill, 1998 1 Quando è Necessario l Apprendimento (Automatico)? Quando il sistema deve... adattarsi

Dettagli

Alberi di decisione: c4.5

Alberi di decisione: c4.5 Alberi di decisione: c4.5 c4.5 [Qui93b,Qui96] Evoluzione di ID3, altro sistema del medesimo autore, J.R. Quinlan Ispirato ad uno dei primi sistemi di questo genere, CLS (Concept Learning Systems) di E.B.

Dettagli

Teoria dell informazione

Teoria dell informazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

Estensioni: Regole di classificazione

Estensioni: Regole di classificazione Lezione 4 Estensioni: Regole di classificazione Giovedì, 1 Febbraio 2007 Giuseppe Manco Classificatori Rule-Based Si classifica utilizzando una collezione di regole if then Regola: (Condition) y Condition

Dettagli

Cenni di apprendimento in Reti Bayesiane

Cenni di apprendimento in Reti Bayesiane Sistemi Intelligenti 216 Cenni di apprendimento in Reti Bayesiane Esistono diverse varianti di compiti di apprendimento La struttura della rete può essere nota o sconosciuta Esempi di apprendimento possono

Dettagli

MATEMATICA OBIETTIVI DI APPRENDIMENTO AL TERMINE DELLA CLASSE PRIMA

MATEMATICA OBIETTIVI DI APPRENDIMENTO AL TERMINE DELLA CLASSE PRIMA MATEMATICA TRAGUARDI DI COMPETENZE DA SVILUPPARE AL TERMINE DELLA SCUOLA PRIMARIA L alunno: a. L alunno si muove con sicurezza nel calcolo scritto e mentale con i numeri naturali e sa valutare l opportunità

Dettagli

5 - Esercizi: Probabilità e Distribuzioni di Probabilità (Uniforme, Gaussiana)

5 - Esercizi: Probabilità e Distribuzioni di Probabilità (Uniforme, Gaussiana) 5 - Esercizi: Probabilità e Distribuzioni di Probabilità (Uniforme, Gaussiana) Esercizio 1: Una variabile casuale e caratterizzata da una distribuzione uniforme tra 0 e 10. Calcolare - a) la probabilità

Dettagli

Rischio statistico e sua analisi

Rischio statistico e sua analisi F94 Metodi statistici per l apprendimento Rischio statistico e sua analisi Docente: Nicolò Cesa-Bianchi versione 7 aprile 018 Per analizzare un algoritmo di apprendimento dobbiamo costruire un modello

Dettagli

C4.5 Algorithms for Machine Learning

C4.5 Algorithms for Machine Learning C4.5 Algorithms for Machine Learning C4.5 Algorithms for Machine Learning Apprendimento di alberi decisionali c4.5 [Qui93b,Qui96] Evoluzione di ID3, altro sistema del medesimo autore, J.R. Quinlan Ispirato

Dettagli

3.2 Decision-Tree Learning

3.2 Decision-Tree Learning 18 CAPITOLO 3. MODELLAZIONE PREDITTIVA dello spazio delle ipotesi per il nuovo linguaggio e lo si confronti con lo spazio originario e con uno spazio senza bias, assumendo di avere F features discrete

Dettagli

Classificazione introduzione

Classificazione introduzione - Classificazione introduzione Vittorio Maniezzo Università di Bologna 1 Ringraziamenti Questi lucidi derivano anche da adattamenti personali di materiale prodotto (fornitomi o reso scaricabile) da: A.

Dettagli

Tecniche di Apprendimento Automatico in Applicazioni Bio-Mediche

Tecniche di Apprendimento Automatico in Applicazioni Bio-Mediche Tecniche di Apprendimento Automatico in Applicazioni Bio-Mediche Marco Botta Dipartimento di Informatica Università di Torino www.di.unito.it/~botta/didattica/ botta@di.unito.it Sommario Caratterizzazione

Dettagli

CORSO DI BASI DI DATI Secondo Compitino

CORSO DI BASI DI DATI Secondo Compitino CORSO DI BASI DI DATI Secondo Compitino 22 maggio 2008 Esercizio 1 Si vuole automatizzare la gestione di un tennis club. Per ogni socio del club, identificato univocamente da un numero di tessera, si vuole

Dettagli

UNITÀ DI APPRENDIMENTO. ANALISI DEI PREREQUISITI Classi quarte Bornato, Cazzago e Pedrocca

UNITÀ DI APPRENDIMENTO. ANALISI DEI PREREQUISITI Classi quarte Bornato, Cazzago e Pedrocca NUMERO UNITÀ D APPRENDIMENTO 0 CLASSI / ALUNNI COINVOLTI OBIETTIVI DELLE INDICAZIONI ACCERTAMENTO COMPETENZE ANALISI DEI PREREQUISITI Classi quarte Bornato, Cazzago e Pedrocca ARTICOLAZIONE DELL Numeri

Dettagli

Informatica/ Ing. Meccanica/ Edile/ Prof. Verdicchio/ 25/02/2016/ Foglio delle domande / VERSIONE 1

Informatica/ Ing. Meccanica/ Edile/ Prof. Verdicchio/ 25/02/2016/ Foglio delle domande / VERSIONE 1 Informatica/ Ing. Meccanica/ Edile/ Prof. Verdicchio/ 25/02/2016/ Foglio delle domande/ VERSIONE 1 1) In Python, se scrivo v = [ ] in un programma, vuol dire che a) v è un quadrato b) v è una list c) v

Dettagli

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A. 2004-05 Alberto Perotti DELEN-DAUIN Esperimento casuale Esperimento suscettibile di più

Dettagli

Algoritmi e Strutture Dati Laboratorio 15/12/2008. Daniele Loiacono

Algoritmi e Strutture Dati Laboratorio 15/12/2008. Daniele Loiacono Algoritmi e Strutture Dati Laboratorio 15/12/2008 Problema della compressione Rappresentare i dati in modo efficiente Impiegare il numero minore di bit per la rappresentazione Goal: risparmio spazio su

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico 1 Apprendimento Automatico Libro di riferimento: Apprendimento Automatico, Tom Mitchell, McGraw Hill, 1998 Tutorial su SVM e Boosting Lucidi http://www.math.unipd.it/ sperduti/ml.html

Dettagli

MATEMATICA E STATISTICA CORSO A III APPELLO 7 Luglio 2009

MATEMATICA E STATISTICA CORSO A III APPELLO 7 Luglio 2009 MATEMATICA E STATISTICA CORSO A III APPELLO 7 Luglio 2009 Soluzioni 1. Calcola quanto vale, in forma decimale, il reciproco del numero 1 2 log 10 4 4. Cominciamo col semplificare il numero di cui vogliamo

Dettagli

Ricerca di outlier. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna

Ricerca di outlier. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Ricerca di outlier Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Ricerca di Anomalie/Outlier Cosa sono gli outlier? L insieme di dati che sono considerevolmente differenti dalla

Dettagli

Computazione per l interazione naturale: Modelli dinamici

Computazione per l interazione naturale: Modelli dinamici Computazione per l interazione naturale: Modelli dinamici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Teoria della decisione di Bayes Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario

Dettagli

INSIEMI FRATTALI. Dimensione di un insieme. Insiemi frattali elementari. Dimensioni frattali. Insiemi frattali e sistemi dinamici

INSIEMI FRATTALI. Dimensione di un insieme. Insiemi frattali elementari. Dimensioni frattali. Insiemi frattali e sistemi dinamici INSIEMI FRATTALI Dimensione di un insieme Insiemi frattali elementari Dimensioni frattali Insiemi frattali e sistemi dinamici C. Piccardi Politecnico di Milano - 03/01/2007 1/1 Caratteristiche tipiche

Dettagli

e applicazioni al dominio del Contact Management Andrea Brunello Università degli Studi di Udine

e applicazioni al dominio del Contact Management Andrea Brunello Università degli Studi di Udine al e applicazioni al dominio del Contact Management Parte I: Il Processo di, Principali tipologie di al Cos è il Il processo di Università degli Studi di Udine Unsupervised In collaborazione con dott.

Dettagli

Compito di Informatica Grafica 5 appello 06/07/2009. Nome e Cognome Numero di Matricola

Compito di Informatica Grafica 5 appello 06/07/2009. Nome e Cognome Numero di Matricola Nome e Cognome Numero di Matricola Esercizio 1 (12 punti) Si consideri la base di dati di un ospedale riportata in figura. Ogni Operatore ha una Qualifica che può essere o medico o infermiere. Ogni operatore

Dettagli

Informatica/ Ing. Meccanica/ Edile/ Prof. Verdicchio/ 18/01/2017/ Foglio delle domande / Versione 1

Informatica/ Ing. Meccanica/ Edile/ Prof. Verdicchio/ 18/01/2017/ Foglio delle domande / Versione 1 Informatica/ Ing. Meccanica/ Edile/ Prof. Verdicchio/ 18/01/2017/ Foglio delle domande/ Versione 1 1) La parte -matica della parola informatica deriva da a) telematica b) matematica c) automatica 2) Un

Dettagli

Introduzione al data mining. Sistemi di elaborazione delle informazioni 2 Anno Accademico Prof. Mauro Giacomini

Introduzione al data mining. Sistemi di elaborazione delle informazioni 2 Anno Accademico Prof. Mauro Giacomini Introduzione al data mining Sistemi di elaborazione delle informazioni 2 Anno Accademico 2007-2008 Prof. Mauro Giacomini Definizione Processo che impiega una o più tecniche di apprendimento computerizzate

Dettagli

Misura della performance di ciascun modello: tasso di errore sul test set

Misura della performance di ciascun modello: tasso di errore sul test set Confronto fra modelli di apprendimento supervisionato Dati due modelli supervisionati M 1 e M costruiti con lo stesso training set Misura della performance di ciascun modello: tasso di errore sul test

Dettagli

Informatica/ Ing. Meccanica/ Edile/ Prof. Verdicchio/ 30/06/2016/ Foglio delle domande / VERSIONE 1

Informatica/ Ing. Meccanica/ Edile/ Prof. Verdicchio/ 30/06/2016/ Foglio delle domande / VERSIONE 1 Informatica/ Ing. Meccanica/ Edile/ Prof. Verdicchio/ 30/06/2016/ Foglio delle domande/ VERSIONE 1 1) In Python, se scrivo v = [ ] in un programma, vuol dire che a) v è un quadrato b) v è un insieme vuoto

Dettagli

CURRICOLO MATEMATICA - CLASSE QUARTA-

CURRICOLO MATEMATICA - CLASSE QUARTA- CURRICOLO MATEMATICA - CLASSE QUARTA- COMPETENZA NUMERI 1. a) Acquisire il concetto di frazione b) riconoscere le frazioni decimali c) trasformare una frazione decimale in numero decimale e viceversa d)

Dettagli