Esercizi d esamed. Spazio delle versioni
|
|
- Rachele Marchesi
- 5 anni fa
- Visualizzazioni
Transcript
1 Esercizi d esamed Spazio delle versioni Si consideri il problema EnjoySport visto a lezione descritto dagli attributi Sky Air Temp Humid Wind Water Forecast Si definisca uno spazio delle ipotesi costituito da tutte le disgiunzioni di 2 ipotesi nello spazio visto a lezione. Ad esempio, una ipotesi potrebbe essere: <?,cold,high,?,?,?> <sunny,?,high,?,?,same>
2 Spazio delle versioni Dati gli esempi: Sky Air Temp Humid Wind Water Forecast Enjoy Sport Sunny Warm Normal Strong Warm Same Yes Sunny Warm High Strong Warm Same Yes Rainy Cold High Strong Warm Change No Sunny Warm High Strong Cool Change Yes Si mostri l evoluzione degli insiemi S e G che si ottiene eseguendo l algoritmo Candidate-Elimination G={<?,?,?,?,?,?> <?,?,?,?,?,?>} S={ } G=G S={s=<s,w,n,s,w,s> } G2=G Generalizzazioni di s: <s,w,?,s,w,s>, <s,w,n,s,w,s> <s,w,h,s,w,s> S2={<s,w,?,s,w,s> } 2
3 G3={<s,?,?,?,?,?> <s,?,?,?,?,?>, <?,w,?,?,?,?> <?,w,?,?,?,?>, <?,?,?,?,?,s> <?,?,?,?,?,s>} S3=S2={s2=<s,w,?,s,w,s> } G4={<s,?,?,?,?,?> <s,?,?,?,?,?>, <?,w,?,?,?,?> <?,w,?,?,?,?>} Generalizzazioni di s2 {<s,w,?,s,?,?>, <s,w,?,s,w,s> <s,w,h,s,c,c>} S4= {<s,w,?,s,w,s> <s,w,h,s,c,c>} Spazio delle versioni Si consideri ancora il problema EnjoySport Sky Air Temp Humid Wind Water Forecast Si consideri ancora uno spazio delle ipotesi costituito da tutte le disgiunzioni di 2 ipotesi nello spazio visto a lezione. 3
4 Spazio delle versioni Dati gli esempi: Sky Air Temp Humid Wind Water Forecast Enjoy Sport Sunny Warm Normal Strong Warm Same Yes Sunny Warm Medium Strong Warm Same Yes Rainy Cold High Strong Warm Change No Sunny Warm High Strong Cool Change Yes Unica differenza: Humid ha tre valori Si mostri l evoluzione degli insiemi S e G che si ottiene eseguendo l algoritmo Candidate-Elimination G={<?,?,?,?,?,?> <?,?,?,?,?,?>} S={ } G=G S={s=<s,w,n,s,w,s> } G2=G Generalizzazioni di s: <s,w,?,s,w,s>, <s,w,n,s,w,s> <s,w,m,s,w,s> S2={<s,w,n,s,w,s> <s,w,m,s,w,s>} 4
5 G3={<s,?,?,?,?,?> <s,?,?,?,?,?>, <?,w,?,?,?,?> <?,w,?,?,?,?>, <?,?,?,?,?,s> <?,?,?,?,?,s>} S3=S2={s2=<s,w,n,s,w,s> <s,w,m,s,w,s>} G4={<s,?,?,?,?,?> <s,?,?,?,?,?>, <?,w,?,?,?,?> <?,w,?,?,?,?>} Generalizzazioni di s2 {<s,w,?,s,?,?> <s,w,m,s,w,s>, <s,w,n,s,w,s> <s,w,?,s,?,?>} S4= {<s,w,?,s,?,?> } Spazio delle versioni Si consideri il problema EnjoySport descritto dagli attributi Sky Air Temp Humid Wind Water Forecast. Si dia la sequenza di esempi di lunghezza minima che produce lo spazio delle versioni descritto da G={?,?,normal,?,?,?} S={<?,warm,normal,strong,?,same>} 5
6 . Una possibile sequenza è <sunny, warm, normal, strong, cool, same>, + <rainy, warm, normal, strong, warm, same>, + <sunny, warm, high, strong, warm, same>, - Domande 2. Quante ipotesi rimangono nello spazio delle versioni descritto sopra? 3. Si supponga che l apprenditore possa fare delle domane al maestro presentandogli una nuova istanza e chiedendo la sua classificazione come esempio positivo o negativo. Quante domande sono necessarie all apprenditore per apprendere esattamente il concetto obiettivo (assumento che utilizzi la strategia di domande ottimale)? Fornire una di tali sequenze di query. 6
7 Risposte 2. 8 <?,?,n,?,?,?> <?,?,n,?,?,s> <?,?,n,s,?,?> <?,w,n,?,?,?> <?,?,n,s,?,s> <?,w,n,?,?,s> <?,w,n,s,?,?> <?,w,n,s,?,s> Risposte Ad esempio:. <sunny,cold,normal,strong,cool,same> 2. <sunny,warm,normal,light,cool,same> 3. <sunny,warm,normal,strong,cool,change> 7
8 Risposte. <sunny,cold,normal,strong,cool,same> 2. <sunny,warm,normal,light,cool,same> 3. <sunny,warm,normal,strong,cool,change> <?,?,n,?,?,?> <?,?,n,?,?,s> <?,?,n,s,?,?> <?,w,n,?,?,?> <?,?,n,s,?,s> <?,w,n,?,?,s> <?,w,n,s,?,?> <?,w,n,s,?,s> Alberi decisionali Il maestro Yoda e' preoccupato dal numero di apprendisti Jedi che hanno deciso di darsi al Lato Oscuro, quindi ha deciso di apprendere un albero di decisione su alcuni dati storici per identificare i casi problematici in futuro. La tabella T descrive 2 iniziati specificando se sono passati al Lato Oscuro sulla base dell'eta' in cui il loro apprendistato Jedi e' cominciato, se hanno completato il loro apprendistato, la loro disposizione generale e la loro specie. 8
9 Tabella T Eta' di inizio Apprendistato Disposizione Specie Lato Oscuro dell'apprendistato completato 5 Felice Umana 9 Felice Gungan 6 Felice Wookie 6 Triste Mon Calamari 7 Triste Umana 8 Arrabbiata Umana 5 Arrabbiata Ewok 9 Felice Ewok 8 Triste Umana 8 Triste Umana 6 Arrabbiata Wookie 7 Arrabbiata Mon Calamari Domande. Qual'e' l'entropia della tabella T rispetto all attributo Lato Oscuro? k freq( C, S) freq( C j, S info( S) = j = log 2 S S j ) 2. Dire ad occhio (senza calcolare la funzione euristica) quale attributo verrebbe scelto come radice dell'albero dall'algoritmo di apprendimento di alberi di decisione? 3. Qual'e' il guadagno di informazione dell'attributo scelto nella risposta precedente? 9
10 Risposte. info(t)=-5/2log 2 (5/2)-7/2log 2 (5/2)= Apprendistato completato 3. gain(app)=info(t)-(5/2*(-/5log 2 (/5)- 5/5log 2 (5/5))+7/2(-5/7log 2 (5/7)-2/7log 2 (2/7)))=.476 Domanda 4. Disegnare l'albero decisionale che sarebbe appreso da questi dati (senza potature) (suggerimento: l'albero ha al massimo 3 divisioni. Si costruisca l'albero guardando solo la composizione degli insiemi, senza calcolare il guadagno di informazione)
11 Apprendistato compl. No Lato Oscuro Età di inzio app. 7 > 7 Felice Disposizione Triste Lato Oscuro Arrabbiata No Lato Oscuro No Lato Oscuro Lato Oscuro Domanda 5. Si consideri la possibilità che i dati di ingresso siano rumorosi e non completamente accurati, al punto che l albero di decisione appreso può non descrivere accuratamente la funzione che si vuole imparare. Se si dovesse valutare i tre iniziati rappresentati dai dati indicati sotto, per quali saresti più confidente riguardo la tua predizione e perchè Nome Eta' di inizio Apprendistato Disposizione Specie dell'apprendistato completato Ardath 5 Arrabbiato Umana Barbar 8 Arrabbiato Umana Caldar 8 Felice Moon Calamari
12 Barbar. Motivazione: la regola che è appresa è che ti rivolgi al Lato Oscuro se non hai completato l apprendistato ed eri troppo vecchio oppure eri arrabbiato. Barbar era sia troppo vecchio che arrabbiato quindi soddisfa entrambe le condizioni dell OR, quindi anche se una di esse è sbagliata, esso viene comunque classificato come Lato Oscuro Domanda 6. Si assuma di voler apprendere un albero di decisione per predire Z da A, B e C usando i dati a sinistra (senza potatura e senza arresto nel caso di minimo di due insiemi con più di 2 elementi). Quale sarà l errore sul training set dell albero appreso? Z A B C 2
13 Ci sono 4 coppie di record che hanno valori duplicati per le variabili di ingresso, ma solo due di queste coppie hanno valori contraddittori per la variabile di output. Uno dei record di queste due coppie sarà sicuramente misclassificato. Quindi gli errori sono 2. Domanda 7. Si consideri un albero di decisione generato da un insieme di dati arbitrario. Se l uscita è discreta e può assumere solo k diversi possibili valori, qual è il massimo errore (espresso come una frazione) dell albero sul training set che ogni insieme di dati possa avere? 3
14 Si consideri un insieme di record con uguali ingressi ma con uscite distribuite uniformemente tra i k possibili valori. L albero classifichera tutti questi punti in una sola classe che sarà sbagliata per quelli nelle altre k- classi. Dato che le uscite sono distribuite uniformemente, l errore frazionario dell albero sul training set sarà (k-)/k. Se le uscite non fossero distribuite uniformenente tra i record ma ci fosse una classe dominante, questa sarebbe scelta come etichetta della foglia, quindi l errore frazionario sarabbe più basso (perchè la classe di maggioranza avrebbe più di /k dei punti). Classificazione Naive Bayes Data la tabella T relativi agli apprendisti di Yoda, si determini la classe più probabile di Barbar Nome Eta' di inizio Apprendistato Disposizione Specie dell'apprendistato completato Barbar 8 Arrabbiato Umana 4
15 P(lato oscuro=sì)=5/2=.46 P(lato oscuro=no)=7/2=.583 P(età=8 lato oscuro=sì)=2/5=.4 P(età=8 lato oscuro=no)=/7=.43 P(compl=no lato oscuro=sì)=5/5= P(compl=no lato oscuro=no)=2/7=.286 P(disp=arr lato oscuro=sì)=2/5=.4 P(disp=arr lato oscuro=no)=2/7.286 P(specie=human lato oscuro=sì)=2/5=.4 P(specie= human lato oscuro=no)=3/7=.429 Lato oscuro=sì:.46*.4**.4*.4=.6656 Lato oscuro=no:.583*.43*.286*.286*.429=.2925 Quindi la classe più probabile è lato oscuro=sì con probabilita.6656/( )= Apprendimento basato sulle istanze Si indichi la classificazione del punto con -NN, 3-NN e 5-NN 5
16 NN=+, 3-NN=-, 5-NN=+ 6
Machine Learning:Version Space. Sommario
Machine Learning:Version Space Sommario Ripasso di alcune definizioni sul ML Lo spazio delle ipotesi H Apprendimento di una funzione booleana: il concept learning Version Space Spazio delle Ipotesi H
DettagliIntroduzione alla Modellazione Predittiva Dal ML al DM: Concept Learning
Introduzione alla Modellazione Predittiva Dal ML al DM: Giuseppe Manco Riferimenti: Chapter 2, Mitchell Chapter 10 Hand, Mannila, Smith Chapter 7 Han, Kamber Apprendimento dagli esempi Nozioni (teoriche)
DettagliApprendimento Automatico: Apprendimento di Concetti da Esempi
Apprendimento Automatico: Apprendimento di Concetti da Esempi Che cos è l apprendimento di concetti Inferire una funzione booleana (funzione obiettivo o concetto) a partire da esempi di addestramento dati
DettagliApprendimento di Alberi di Decisione: Bias Induttivo
istemi di Elaborazione dell Informazione 54 Apprendimento di Alberi di Decisione: Bias Induttivo Il Bias Induttivo è sulla ricerca! + + A1 + + + A2 + +...... + + A2 A3 + + + A2 A4...... istemi di Elaborazione
DettagliID3: Selezione Attributo Ottimo
Sistemi di Elaborazione dell Informazione 49 ID3: Selezione Attributo Ottimo Vari algoritmi di apprendimento si differenziano soprattutto (ma non solo) dal modo in cui si seleziona l attributo ottimo:
DettagliAlberi di Decisione. Fabio Aiolli Sito web del corso
Alberi di Decisione Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Alberi di Decisione In molte applicazioni del mondo reale non è sufficiente
DettagliSistemi Intelligenti 42. Apprendimento PAC
Sistemi Intelligenti 42 Apprendimento PAC Usando la disuguaglianza precedente ed altre considerazioni è possibile mostrare che alcune classi di concetti non sono PAC-apprendibili dato uno specifico algoritmo
DettagliAlberi di Decisione. Corso di AA, anno 2017/18, Padova. Fabio Aiolli. 23 Ottobre Fabio Aiolli Alberi di Decisione 23 Ottobre / 16
Alberi di Decisione Corso di AA, anno 2017/18, Padova Fabio Aiolli 23 Ottobre 2017 Fabio Aiolli Alberi di Decisione 23 Ottobre 2017 1 / 16 Alberi di decisione (Decision Trees) In molte applicazioni del
DettagliApprendimento basato sulle istanze
Apprendimento basato sulle istanze Apprendimento basato sulle istanze Apprendimento: semplice memorizzazione di tutti gli esempi Classificazione di una nuova istanza x j : reperimento degli
DettagliTraining Set Test Set Find-S Dati Training Set Def: Errore Ideale Training Set Validation Set Test Set Dati
" #!! Suddivisione tipica ( 3 5 6 & ' ( ) * 3 5 6 = > ; < @ D Sistemi di Elaborazione dell Informazione Sistemi di Elaborazione dell Informazione Principali Paradigmi di Apprendimento Richiamo Consideriamo
DettagliAlberi di Decisione (2)
Alberi di Decisione (2) Corso di AA, anno 2018/19, Padova Fabio Aiolli 05 Novembre 2018 Fabio Aiolli Alberi di Decisione (2) 05 Novembre 2018 1 / 19 Apprendimento di alberi di decisione: Bias induttivo
DettagliData Science e Tecnologie per le Basi di Dati
Data Science e Tecnologie per le Basi di Dati Esercitazione #3 Data mining BOZZA DI SOLUZIONE Domanda 1 (a) Come mostrato in Figura 1, l attributo più selettivo risulta essere Capital Gain, perché rappresenta
DettagliCorso di Intelligenza Artificiale A.A. 2016/2017
Università degli Studi di Cagliari Corsi di Laurea Magistrale in Ing. Elettronica Corso di Intelligenza rtificiale.. 26/27 Esercizi sui metodi di apprendimento automatico. Si consideri la funzione ooleana
DettagliAlberi di Decisione (2)
Alberi di Decisione (2) Corso di AA, anno 2017/18, Padova Fabio Aiolli 25 Ottobre 2017 Fabio Aiolli Alberi di Decisione (2) 25 Ottobre 2017 1 / 18 Apprendimento di alberi di decisione: Bias induttivo Come
DettagliCOMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 21 Giugno 2005 (Punteggio su 30/30; Tempo 2h )
COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 21 Giugno 2005 (Punteggio su 30/30; Tempo 2h ) Esercizio 1 (punti 8) Dato il seguente training set S: Att1 Att2 Classe 2 Spada Sith 1 Lancia Jedi 3 Lancia
DettagliCOMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 13 Settembre 2007 (Punteggio su 30/30; Tempo 2h )
COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 13 Settembre 2007 (Punteggio su 30/30; Tempo 2h ) Esercizio 1 (punti 8) Dato il seguente training set S: Distanza Uguali Stessa entità 1 Si Si 2 No Si
DettagliCOMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 13 Luglio 2005 (Punteggio su 30/30; Tempo 2h )
COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 13 Luglio 2005 (Punteggio su 30/30; Tempo 2h ) Esercizio 1 (punti 8) Dato il seguente training set S: Ritrovamento Aspetto Classe Montagna? Stegosauro
DettagliCOMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 12 aprile 2006 (Punteggio su 30/30; Tempo 2h )
COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 12 aprile 2006 (Punteggio su 30/30; Tempo 2h ) Esercizio 1 (punti 8) Dato il seguente training set S: Ruote Motore Ripara due benzina + quattro benzina
DettagliClassificazione Bayesiana
Classificazione Bayesiana Selezionare, dato un certo pattern x, la classe ci che ha, a posteriori, la massima probabilità rispetto al pattern: P(C=c i x)>p(c=c j x) j i Teorema di Bayes (TDB): P(A B) =
DettagliCOMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE L-S 23 Giugno 2004 Docente: Michela Milano
COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE L-S 23 Giugno 2004 Docente: Michela Milano Esercizio 1 (punti 8) Dato il seguente training set S: A1 A2 Classe 1 0 A 1 1 A 3 0 B 2 1 B 2 0 A 2 1 B? 0
DettagliApprendimento Automatico
Apprendimento Automatico Metodi Bayesiani - Naive Bayes Fabio Aiolli 13 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 13 Dicembre 2017 1 / 18 Classificatore Naive Bayes Una delle tecniche più semplici
DettagliCOMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 19 marzo 2009 (Punteggio su 30/30; Tempo 2h )
COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 19 marzo 2009 (Punteggio su 30/30; Tempo 2h ) Esercizio 1 (punti 8) Dato il seguente training set S: Temperatura Umidità Classe Alta Alta Pos Alta Bassa
DettagliApprendimento Automatico Esercitazione 15/04/2009 Prof. Roberto Navigli
Apprendimento Automatico Esercitazione 15/04/2009 Prof. Roberto Navigli Esercizio 1 Si vuole apprendere un classificatore Naive Bayes per le interrogazioni di un motore di ricerca. Ogni interrogazione
DettagliIntroduzione all apprendimento automatico e Spazio delle versioni
Introduzione all apprendimento automatico e Spazio delle versioni Indice Definizione di Apprendimento Automatico (AA) Classificazione della ricerca in AA Linguaggi di rappresentazione Tecniche di apprendimento
DettagliMulti classificatori. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna
Multi classificatori Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Combinazione di classificatori Idea: costruire più classificatori di base e predire la classe di appartenza di
Dettaglid. Cancellazione del valore 5 e. Inserimento del valore 1
Esercizio1 Si consideri un albero binario non vuoto in cui a ciascun nodo v è associato un numero reale v.val. Scrivere un algoritmo che, dato in input l'albero T e un numero reale x, restituisce true
DettagliApprendimento Bayesiano
Apprendimento Automatico 232 Apprendimento Bayesiano [Capitolo 6, Mitchell] Teorema di Bayes Ipotesi MAP e ML algoritmi di apprendimento MAP Principio MDL (Minimum description length) Classificatore Ottimo
DettagliAlgoritmi di classificazione supervisionati
Corso di Bioinformatica Algoritmi di classificazione supervisionati Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di apprendimento supervisionato per problemi di biologia computazionale
DettagliAlberi di Regressione
lberi di Regressione Caso di studio di Metodi vanzati di Programmazione 2015-2016 Corso Data Mining Lo scopo del data mining è l estrazione (semi) automatica di conoscenza nascosta in voluminose basi di
DettagliEsercizi per il corso di Algoritmi, anno accademico 2011/12
Esercizi per il corso di Algoritmi, anno accademico 2011/12 Esercizi sulla Tecnica Divide et Impera N.B. Tutti gli algoritmi vanno scritti in pseudocodice (non in Java, nè in C++, etc. ). Di tutti gli
DettagliData mining: classificazione
DataBase and Data Mining Group of DataBase and Data Mining Group of DataBase and Data Mining Group of DataBase and Data Mining Group of DataBase and Data Mining Group of DataBase and Data Mining Group
DettagliEsercizio: apprendimento di congiunzioni di letterali
input: insieme di apprendimento istemi di Elaborazione dell Informazione 18 Esercizio: apprendimento di congiunzioni di letterali Algoritmo Find-S /* trova l ipotesi più specifica consistente con l insieme
DettagliComputazione per l interazione naturale: processi gaussiani
Computazione per l interazione naturale: processi gaussiani Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliClassificazione DATA MINING: CLASSIFICAZIONE - 1. Classificazione
M B G Classificazione ATA MINING: CLASSIFICAZIONE - 1 Classificazione Sono dati insieme di classi oggetti etichettati con il nome della classe di appartenenza (training set) L obiettivo della classificazione
DettagliDr. A. Appice. Alberi di Decisione. Caso di studio di Metodi Avanzati di Programmazione AA 2012-2013
Alberi di Decisione Caso di studio di Metodi Avanzati di Programmazione AA 2012-2013 Data Mining Lo scopo del data mining è l estrazione (semi) automatica di conoscenza nascosta in voluminose basi di dati
DettagliData Science A.A. 2018/2019
Corso di Laurea Magistrale in Economia Data Science A.A. 2018/2019 Lez. 6 Modelli di Classificazione Data Science 2018/2019 1 Definizione Si collocano tra i metodi di apprendimento supervisionato e mirano
DettagliSistemi Intelligenti 57. Alberi di Decisione. funzioni target con valori di output discreti (in generale più di 2 valori);
Sistemi Intelligenti 57 Alberi di Decisione In molte applicazioni del mondo reale non è sufficiente apprendere funzioni booleane con ingressi binari. Gli Alberi di Decisione sono particolarmente adatti
DettagliArray e Oggetti. Corso di Laurea Ingegneria Informatica Fondamenti di Informatica 1. Dispensa 12. A. Miola Dicembre 2006
Corso di Laurea Ingegneria Informatica Fondamenti di Informatica 1 Dispensa 12 Array e Oggetti A. Miola Dicembre 2006 http://www.dia.uniroma3.it/~java/fondinf1/ Array e Oggetti 1 Contenuti Array paralleli
DettagliCOMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 2 Aprile 2009 (Punteggio su 30/30; Tempo 2h )
COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 2 Aprile 2009 (Punteggio su 30/30; Tempo 2h ) Esercizio 1 (punti 8) Dato il seguente training set S: Esposizione Correttezza Classe Buona? Pos Scarsa
DettagliBusiness Intelligence per i Big Data
Business Intelligence per i Big Data Esercitazione di laboratorio n. 6 L obiettivo dell esercitazione è il seguente: - Applicare algoritmi di data mining per la classificazione al fine di analizzare dati
DettagliCOMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 8 Gennaio 2009 (Punteggio su 30/30; Tempo 2h )
COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 8 Gennaio 2009 (Punteggio su 30/30; Tempo 2h ) Esercizio 1 (punti 7) Dato il seguente training set S: Temperatura Umidità Classe Alta Alta Pos Alta Bassa
DettagliMachine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione
Corso di Bioinformatica Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di machine learning I metodi
DettagliNaïve Bayesian Classification
Naïve Bayesian Classification Di Alessandro rezzani Sommario Naïve Bayesian Classification (o classificazione Bayesiana)... 1 L algoritmo... 2 Naive Bayes in R... 5 Esempio 1... 5 Esempio 2... 5 L algoritmo
DettagliCOMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 15 Luglio 2010 (Punteggio su 30/30; Tempo 2h )
COMPITO DI APPLICAZIONI DI INTELLIGENZA ARTIFICIALE 15 Luglio 2010 (Punteggio su 30/30; Tempo 2h ) Esercizio 1 (punti 8) Dato il seguente training set S: Citazioni Articoli Classe 1? Si 2? No 1 1 Si 3
DettagliClassificazione Mario Guarracino Data Mining a.a. 2010/2011
Classificazione Mario Guarracino Data Mining a.a. 2010/2011 Introduzione I modelli di classificazione si collocano tra i metodi di apprendimento supervisionato e si rivolgono alla predizione di un attributo
Dettagli6) Descrivere con un diagramma a blocchi un algoritmo che legga da input due numeri ne calcoli il prodotto in termini di somme ripetute.
I due esercizi seguenti su un esempio semplice (trovare il massimo tra due o tra tre numeri) introducono la descrizione di algoritmi con diagrammi a blocchi, le strutture di controllo sequenza e condizione,
DettagliIngegneria della Conoscenza e Sistemi Esperti Lezione 4: Alberi di Decisione
Ingegneria della Conoscenza e Sistemi Esperti Lezione 4: Alberi di Decisione Dipartimento di Elettronica e Informazione Apprendimento Supervisionato I dati considerati considerati degli esempi di un fenomeno
DettagliApprendimento di insiemi disgiuntivi di regole
Apprendimento di insiemi disgiuntivi di regole Apprendimento di insiemi disgiuntivi di regole Consideriamo prima l apprendimento di un singolo concetto target (attributo target booleano). Regole della
DettagliIngegneria della Conoscenza e Sistemi Esperti Lezione 5: Regole di Decisione
Ingegneria della Conoscenza e Sistemi Esperti Lezione 5: Regole di Decisione Dipartimento di Elettronica e Informazione Politecnico di Milano Perchè le Regole? Le regole (if-then) sono espressive e leggibili
DettagliCodifica di Huffman e Lempel-Ziv-Welch
Codifica di e Lempel-Ziv-Welch 1 ALBERTO BELUSSI ANNO ACCADEMICO 2009/2010 Tipi di compressione Senza perdita (lossless lossless): permettono di ricostruire perfettamente la rappresentazione del dato originale,
DettagliMetodi supervisionati di classificazione
Metodi supervisionati di classificazione Giorgio Valentini e-mail: valentini@dsi.unimi.it DSI - Dipartimento di Scienze dell'informazione Classificazione bio-molecolare di tessuti e geni Diagnosi a livello
DettagliCodifica di Huffman e Lempel-Ziv-Welch
e Lempel-Ziv-Welch 1 A L B E R T O B E L U S S I A N N O A C C A D E M I C O 2 0 1 0 / 2 0 1 1 Tipi di compressione Senza perdita (lossless): permettono di ricostruire perfettamente la rappresentazione
DettagliCodifica di Huffman e Lempel-Ziv-Welch A L B E R T O B E L U S S I A N N O A C C A D E M I C O /
Codifica di Huffman e Lempel-Ziv-Welch 1 A L B E R T O B E L U S S I A N N O A C C A D E M I C O 2 0 1 0 / 2 0 1 1 Tipi di compressione Senza perdita (lossless): permettono di ricostruire perfettamente
DettagliTecniche di riconoscimento statistico
On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 9 Alberi di decisione Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr
DettagliClassificazione Mario Guarracino Laboratorio di Sistemi Informativi Aziendali a.a. 2006/2007
Classificazione Introduzione I modelli di classificazione si collocano tra i metodi di apprendimento supervisionato e si rivolgono alla predizione di un attributo target categorico. A partire da un insieme
DettagliApprendimento Automatico
Apprendimento Automatico Metodi Bayesiani Fabio Aiolli 11 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 11 Dicembre 2017 1 / 19 Metodi Bayesiani I metodi Bayesiani forniscono tecniche computazionali
Dettagli15 Informazione e Predizione
(FX) Teoria dell Informazione e della Trasmissione 5 Informazione e Predizione Docente: Nicolò Cesa-Bianchi versione 4 maggio 03 Consideriamo una sorgente X, p. Dallo studio della codifica sorgente, sappiamo
DettagliArgomenti della lezione. Criteri di divisibilità fattorizzazione m.c.m. e M.C.D. frazioni ed espressioni
Argomenti della lezione Criteri di divisibilità fattorizzazione m.c.m. e M.C.D. frazioni ed espressioni Quale cifra deve assumere la lettera c affinché i numeri 821c e 82c1 siano divisibili per 2? Un numero
DettagliPROGETTAZIONE ANNUALE MATEMATICA CLASSE QUARTA/QUINTA
1 PROGETTAZIONE ANNUALE MATEMATICA CLASSE QUARTA/QUINTA 1 2 TRAGUARDO PER LO SVILUPPO DELLA COMPETENZA NUMERO COMPETENZA in uscita NUMERO Si muove con sicurezza nel calcolo scritto e mentale con i numeri
DettagliClassificatori Bayesiani. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna
lassificatori Bayesiani rof. Matteo Golfarelli lma Mater Studiorum - Università di Bologna lassificatori Bayesiani Rappresentano un approccio probabilistico per risolvere problemi di classificazione In
DettagliISTITUTO COMPRENSIVO DI CLUSONE A.S CURRICOLO DI MATEMATICA QUARTO BIMESTRE. Classe QUARTA COMPETENZE
ISTITUTO COMPRENSIVO DI CLUSONE A.S. 2013-2014 CURRICOLO DI MATEMATICA QUARTO BIMESTRE Classe QUARTA COMPETENZE Indicazioni ABILITA CONOSCENZE AMBIENTE DI APPRENDIMENTO NUMERI L alunno si muove con sicurezza
DettagliIntroduzione al Machine Learning
InfoLife Introduzione al Machine Learning Laboratorio di Bioinformatica InfoLife Università di Foggia - Consorzio C.IN.I. Dott. Crescenzio Gallo crescenzio.gallo@unifg.it 1 Cos è il Machine Learning? Fa
DettagliEsercizi di riepilogo Lezioni
Esercizi di riepilogo Lezioni 9-10-11 Es1: Aspettazioni iterate Siano X, Y, e Z v.a. discrete. Dimostrare le seguenti generalizzazioni della legge delle aspettazioni iterate a) b) c) Es2: Bacchetta Abbiamo
DettagliCOMPITO DI FONDAMENTI DI INTELLIGENZA ARTIFICIALE INTELLIGENZA ARTIFICIALE (v.o.) PARTE I. 2 Dicembre 2008 (Tempo a disposizione 2h ; su 32 punti)
COMPITO DI FONDAMENTI DI INTELLIGENZA ARTIFICIALE INTELLIGENZA ARTIFICIALE (v.o.) PARTE I 2 Dicembre 2008 (Tempo a disposizione 2h ; su 32 punti) Esercizio 1 (punti 5) Rappresentare le seguenti frasi:
DettagliSistemi di Elaborazione dell Informazione 170. Caso Non Separabile
Sistemi di Elaborazione dell Informazione 170 Caso Non Separabile La soluzione vista in precedenza per esempi non-linearmente separabili non garantisce usualmente buone prestazioni perchè un iperpiano
DettagliInformatica/ Ing. Meccanica/ Edile/ Prof. Verdicchio/ 17/01/2014/ Foglio delle domande / VERSIONE 1
Informatica/ Ing. Meccanica/ Edile/ Prof. Verdicchio/ 17/01/2014/ Foglio delle domande/ VERSIONE 1 1) L approccio con cui si studia un sistema focalizzandosi solo sul rapporto tra input e output si chiama
DettagliApproccio statistico alla classificazione
Approccio statistico alla classificazione Approccio parametrico e non parametrico Finestra di Parzen Classificatori K-NN 1-NN Limitazioni dell approccio bayesiano Con l approccio bayesiano, sarebbe possibile
DettagliElementi di Apprendimento Automatico
Elementi di Apprendimento Automatico Riferimenti Bibliografici: Tom Mitchell, Machine Learning, McGraw Hill, 1998 1 Quando è Necessario l Apprendimento (Automatico)? Quando il sistema deve... adattarsi
DettagliAlberi di decisione: c4.5
Alberi di decisione: c4.5 c4.5 [Qui93b,Qui96] Evoluzione di ID3, altro sistema del medesimo autore, J.R. Quinlan Ispirato ad uno dei primi sistemi di questo genere, CLS (Concept Learning Systems) di E.B.
DettagliTeoria dell informazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliEstensioni: Regole di classificazione
Lezione 4 Estensioni: Regole di classificazione Giovedì, 1 Febbraio 2007 Giuseppe Manco Classificatori Rule-Based Si classifica utilizzando una collezione di regole if then Regola: (Condition) y Condition
DettagliCenni di apprendimento in Reti Bayesiane
Sistemi Intelligenti 216 Cenni di apprendimento in Reti Bayesiane Esistono diverse varianti di compiti di apprendimento La struttura della rete può essere nota o sconosciuta Esempi di apprendimento possono
DettagliMATEMATICA OBIETTIVI DI APPRENDIMENTO AL TERMINE DELLA CLASSE PRIMA
MATEMATICA TRAGUARDI DI COMPETENZE DA SVILUPPARE AL TERMINE DELLA SCUOLA PRIMARIA L alunno: a. L alunno si muove con sicurezza nel calcolo scritto e mentale con i numeri naturali e sa valutare l opportunità
Dettagli5 - Esercizi: Probabilità e Distribuzioni di Probabilità (Uniforme, Gaussiana)
5 - Esercizi: Probabilità e Distribuzioni di Probabilità (Uniforme, Gaussiana) Esercizio 1: Una variabile casuale e caratterizzata da una distribuzione uniforme tra 0 e 10. Calcolare - a) la probabilità
DettagliRischio statistico e sua analisi
F94 Metodi statistici per l apprendimento Rischio statistico e sua analisi Docente: Nicolò Cesa-Bianchi versione 7 aprile 018 Per analizzare un algoritmo di apprendimento dobbiamo costruire un modello
DettagliC4.5 Algorithms for Machine Learning
C4.5 Algorithms for Machine Learning C4.5 Algorithms for Machine Learning Apprendimento di alberi decisionali c4.5 [Qui93b,Qui96] Evoluzione di ID3, altro sistema del medesimo autore, J.R. Quinlan Ispirato
Dettagli3.2 Decision-Tree Learning
18 CAPITOLO 3. MODELLAZIONE PREDITTIVA dello spazio delle ipotesi per il nuovo linguaggio e lo si confronti con lo spazio originario e con uno spazio senza bias, assumendo di avere F features discrete
DettagliClassificazione introduzione
- Classificazione introduzione Vittorio Maniezzo Università di Bologna 1 Ringraziamenti Questi lucidi derivano anche da adattamenti personali di materiale prodotto (fornitomi o reso scaricabile) da: A.
DettagliTecniche di Apprendimento Automatico in Applicazioni Bio-Mediche
Tecniche di Apprendimento Automatico in Applicazioni Bio-Mediche Marco Botta Dipartimento di Informatica Università di Torino www.di.unito.it/~botta/didattica/ botta@di.unito.it Sommario Caratterizzazione
DettagliCORSO DI BASI DI DATI Secondo Compitino
CORSO DI BASI DI DATI Secondo Compitino 22 maggio 2008 Esercizio 1 Si vuole automatizzare la gestione di un tennis club. Per ogni socio del club, identificato univocamente da un numero di tessera, si vuole
DettagliUNITÀ DI APPRENDIMENTO. ANALISI DEI PREREQUISITI Classi quarte Bornato, Cazzago e Pedrocca
NUMERO UNITÀ D APPRENDIMENTO 0 CLASSI / ALUNNI COINVOLTI OBIETTIVI DELLE INDICAZIONI ACCERTAMENTO COMPETENZE ANALISI DEI PREREQUISITI Classi quarte Bornato, Cazzago e Pedrocca ARTICOLAZIONE DELL Numeri
DettagliInformatica/ Ing. Meccanica/ Edile/ Prof. Verdicchio/ 25/02/2016/ Foglio delle domande / VERSIONE 1
Informatica/ Ing. Meccanica/ Edile/ Prof. Verdicchio/ 25/02/2016/ Foglio delle domande/ VERSIONE 1 1) In Python, se scrivo v = [ ] in un programma, vuol dire che a) v è un quadrato b) v è una list c) v
DettagliCorso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A. 2004-05 Alberto Perotti DELEN-DAUIN Esperimento casuale Esperimento suscettibile di più
DettagliAlgoritmi e Strutture Dati Laboratorio 15/12/2008. Daniele Loiacono
Algoritmi e Strutture Dati Laboratorio 15/12/2008 Problema della compressione Rappresentare i dati in modo efficiente Impiegare il numero minore di bit per la rappresentazione Goal: risparmio spazio su
DettagliApprendimento Automatico
Apprendimento Automatico 1 Apprendimento Automatico Libro di riferimento: Apprendimento Automatico, Tom Mitchell, McGraw Hill, 1998 Tutorial su SVM e Boosting Lucidi http://www.math.unipd.it/ sperduti/ml.html
DettagliMATEMATICA E STATISTICA CORSO A III APPELLO 7 Luglio 2009
MATEMATICA E STATISTICA CORSO A III APPELLO 7 Luglio 2009 Soluzioni 1. Calcola quanto vale, in forma decimale, il reciproco del numero 1 2 log 10 4 4. Cominciamo col semplificare il numero di cui vogliamo
DettagliRicerca di outlier. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna
Ricerca di outlier Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Ricerca di Anomalie/Outlier Cosa sono gli outlier? L insieme di dati che sono considerevolmente differenti dalla
DettagliComputazione per l interazione naturale: Modelli dinamici
Computazione per l interazione naturale: Modelli dinamici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliRiconoscimento e recupero dell informazione per bioinformatica
Riconoscimento e recupero dell informazione per bioinformatica Teoria della decisione di Bayes Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario
DettagliINSIEMI FRATTALI. Dimensione di un insieme. Insiemi frattali elementari. Dimensioni frattali. Insiemi frattali e sistemi dinamici
INSIEMI FRATTALI Dimensione di un insieme Insiemi frattali elementari Dimensioni frattali Insiemi frattali e sistemi dinamici C. Piccardi Politecnico di Milano - 03/01/2007 1/1 Caratteristiche tipiche
Dettaglie applicazioni al dominio del Contact Management Andrea Brunello Università degli Studi di Udine
al e applicazioni al dominio del Contact Management Parte I: Il Processo di, Principali tipologie di al Cos è il Il processo di Università degli Studi di Udine Unsupervised In collaborazione con dott.
DettagliCompito di Informatica Grafica 5 appello 06/07/2009. Nome e Cognome Numero di Matricola
Nome e Cognome Numero di Matricola Esercizio 1 (12 punti) Si consideri la base di dati di un ospedale riportata in figura. Ogni Operatore ha una Qualifica che può essere o medico o infermiere. Ogni operatore
DettagliInformatica/ Ing. Meccanica/ Edile/ Prof. Verdicchio/ 18/01/2017/ Foglio delle domande / Versione 1
Informatica/ Ing. Meccanica/ Edile/ Prof. Verdicchio/ 18/01/2017/ Foglio delle domande/ Versione 1 1) La parte -matica della parola informatica deriva da a) telematica b) matematica c) automatica 2) Un
DettagliIntroduzione al data mining. Sistemi di elaborazione delle informazioni 2 Anno Accademico Prof. Mauro Giacomini
Introduzione al data mining Sistemi di elaborazione delle informazioni 2 Anno Accademico 2007-2008 Prof. Mauro Giacomini Definizione Processo che impiega una o più tecniche di apprendimento computerizzate
DettagliMisura della performance di ciascun modello: tasso di errore sul test set
Confronto fra modelli di apprendimento supervisionato Dati due modelli supervisionati M 1 e M costruiti con lo stesso training set Misura della performance di ciascun modello: tasso di errore sul test
DettagliInformatica/ Ing. Meccanica/ Edile/ Prof. Verdicchio/ 30/06/2016/ Foglio delle domande / VERSIONE 1
Informatica/ Ing. Meccanica/ Edile/ Prof. Verdicchio/ 30/06/2016/ Foglio delle domande/ VERSIONE 1 1) In Python, se scrivo v = [ ] in un programma, vuol dire che a) v è un quadrato b) v è un insieme vuoto
DettagliCURRICOLO MATEMATICA - CLASSE QUARTA-
CURRICOLO MATEMATICA - CLASSE QUARTA- COMPETENZA NUMERI 1. a) Acquisire il concetto di frazione b) riconoscere le frazioni decimali c) trasformare una frazione decimale in numero decimale e viceversa d)
Dettagli