Learning finite Mixture- Models. Giuseppe Manco

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Learning finite Mixture- Models. Giuseppe Manco"

Transcript

1 Learning finite Mixture- Models Giuseppe Manco

2 Clustering La problematica del clustering è relativa al learning non supervisionato Abbiamo un dataset con istanze la cui etichetta è sconosciuta Obiettivo del clustering è individuare raggruppamenti delle istanze del dataset I raggruppamenti devono essere tali per cui ci sia alta similarità fra le istanze delle stesso cluster, mentre ci sia alta dissimilarità fra le istanze di cluster differenti Il clusterer deve ricostruire la struttura nascosta alla base dei dati a disposizione

3 Model-based Clustering In questo approccio si suppone che le istanze del dataset siano state generate a partire da un mix di modelli probabilistici Per questa ragione si parla anche di Probabilistic Clustering Il clusterer, quindi, deve stimare quali siano i parametri delle distribuzioni che hanno più verosimilmente generato il dataset di training

4 Stima per massima verosimiglianza (maximum likelihood) (1/2) Avendo i dati che provengono da una distribuzione di forma nota si vogliono stimare i parametri per cui è più verosimile osservare i dati che si hanno effettivamente a disposizione Sia il dataset a disposizione, si definisce la likelihood come: Dove θ rappresenta il vettore di tutti i parametri della distribuzione

5 Stima per massima verosimiglianza (maximum likelihood) (2/2) Si devono quindi trovare quali siano i parametri della distribuzione che massimizzano la likelihood Spesso si massimizza il logaritmo della likelihood, la log-likelihood, perché si possono ottenere espressioni analitiche più semplici:

6 Mixture-Model (1/5) Per il clustering si utilizza l approccio a mixture-model In questo contesto ogni istanza viene generata scegliendo prima, secondo una data probabilità, una particolare distribuzione e poi si genera l istanza in accordo alla distribuzione scelta La distribuzione per una istanza è: Dove è la probabilità che venga scelta la k-ma distribuzione, e prende il nome di mixing probability, e è la k-ma distribuzione

7 Model-Based Clustering Clustering basato su modelli probabilistici Si assume che dati siano distribuiti secondo un mix di funzioni di densità EM Per ogni funzione i parametri non sono noti Bayesian clustering

8 Finite Mixture Models

9 Finite Mixture Models

10 Finite Mixture Models

11 Finite Mixture Models Peso k Modello k Parametri k

12 Esempio: Mistura di Gaussiane Gaussian mixtures:

13 Esempio: Mistura di Gaussiane Gaussian mixtures: Ogni componente è una densità gaussiana con media µ k covarianza Σ k

14 Example: Mixture of Gaussians Gaussian mixtures: Ogni componente è una densità gaussiana con media µ k e covarianza Σ k Esempio: K=2, 1-dim: {θ, α} = {µ 1, σ 1, µ 2, σ 2, α 1, α 2 }

15

16

17

18 Esempio: Mixture di Naïve Bayes

19 Esempio: Mixture di Naïve Bayes

20 Esempio: Mixture di Naïve Bayes Indipendenza condizionale per ogni componente

21 Mixtures di Naïve Bayes Termini Documenti

22 Mixtures di Naïve Bayes Termini Documenti Componente Componente 2

23 Esempio: Mixtures di multinomiali Le distribuzioni multinomiali modellano il ripetersi di esperimenti indipendenti che possono portare a più risultati: come il lancio di un dado ( Qual è la probabilità che su 4 lanci esca due volte 1 una volta 3 ed una volta 6?) Una multinomiale è caratterizzata dai parametri che indica qual è la probabilità che si verifichi un evento di classe c Poiché facciamo riferimento ad un mixture-model di multinomiali, poniamo la probabilità che si verifichi l evento di classe c nella multinomiale k

24 Esempio: Mixtures di multinomiali Nel nostro caso, quindi, i dati che osserviamo sono nella forma:, dove è il numero di eventi di classe c per l istanza i

25 Esempio: Mixtures di multinomiali Nel nostro caso, quindi, i dati che osserviamo sono nella forma:, dove è il numero di eventi di classe c per l istanza i La probabilità di osservare una particolare istanza generata da una distribuzione multinomiale è:

26 Mixture-Model (2/5) La log-likelihood in questo caso vale:

27 Mixture-Model (2/5) La log-likelihood in questo caso vale: Sommatoria dentro il logaritmo!

28 Mixture-Model (2/5) La log-likelihood in questo caso vale: Sommatoria dentro il logaritmo! Questa funzione risulta molto complessa da ottimizzare

29 Mixture-Model (3/5) Si utilizza uno stratagemma: si suppone l esistenza delle variabili che indicano se l istanza i è stata generata dalla distribuzione k La variabile vale 1 se l istanza i è stata generata dalla distribuzione k, vale 0 altrimenti.

30 Mixture-Model (3/5) Si utilizza uno stratagemma: si suppone l esistenza delle variabili che indicano se l istanza i è stata generata dalla distribuzione k La variabile vale 1 se l istanza i è stata generata dalla distribuzione k, vale 0 altrimenti. Queste variabili soddisfano la condizione:

31 Mixture-Model (4/5) In questo caso la likelihood e quindi la log-likelihood valgono:

32 Mixture-Model (4/5) In questo caso la likelihood e quindi la log-likelihood valgono:

33 Mixture-Model (4/5) In questo caso la likelihood e quindi la log-likelihood valgono:

34 Mixture-Model (4/5) In questo caso la likelihood e quindi la log-likelihood valgono: Solo un termine della sommatoria è diverso da zero

35 Mixture-Model (5/5) Per quanto evidenziato possiamo semplificare l espressione della log-likelihood:

36 Mixture-Model (5/5) Per quanto evidenziato possiamo semplificare l espressione della log-likelihood: Questa espressione è aleatoria perché contiene le variabili aleatorie Si può soltanto massimizzarne il valore atteso

37 Expectation-Maximization (1/11)

38 Expectation-Maximization (1/11) Questo algoritmo di clustering viene utilizzato per stimare i parametri del mixture-model che è alla base di un dataset

39 Expectation-Maximization (1/11) Questo algoritmo di clustering viene utilizzato per stimare i parametri del mixture-model che è alla base di un dataset L algoritmo migliora iterativamente il valore atteso della loglikelihood del mixture-model e con esso la stima dei parametri dei modelli

40 Expectation-Maximization (1/11) Questo algoritmo di clustering viene utilizzato per stimare i parametri del mixture-model che è alla base di un dataset L algoritmo migliora iterativamente il valore atteso della loglikelihood del mixture-model e con esso la stima dei parametri dei modelli È caratterizzato da due passi:

41 Expectation-Maximization (1/11) Questo algoritmo di clustering viene utilizzato per stimare i parametri del mixture-model che è alla base di un dataset L algoritmo migliora iterativamente il valore atteso della loglikelihood del mixture-model e con esso la stima dei parametri dei modelli È caratterizzato da due passi: Expectation: nel quale si effettua un assegnamento soft delle istanze ai cluster (si calcola la probabilità che un istanza appartenga ad un cluster)

42 Expectation-Maximization (1/11) Questo algoritmo di clustering viene utilizzato per stimare i parametri del mixture-model che è alla base di un dataset L algoritmo migliora iterativamente il valore atteso della loglikelihood del mixture-model e con esso la stima dei parametri dei modelli È caratterizzato da due passi: Expectation: nel quale si effettua un assegnamento soft delle istanze ai cluster (si calcola la probabilità che un istanza appartenga ad un cluster) Maximization: nel quale si utilizzano gli assegnamenti del passo precedente per stimare, in maniera pesata in base alla probabilità di appartenenza di un istanza al cluster, i parametri dei modelli

43 Expectation-Maximization (1/11) Questo algoritmo di clustering viene utilizzato per stimare i parametri del mixture-model che è alla base di un dataset L algoritmo migliora iterativamente il valore atteso della loglikelihood del mixture-model e con esso la stima dei parametri dei modelli È caratterizzato da due passi: Expectation: nel quale si effettua un assegnamento soft delle istanze ai cluster (si calcola la probabilità che un istanza appartenga ad un cluster) Maximization: nel quale si utilizzano gli assegnamenti del passo precedente per stimare, in maniera pesata in base alla probabilità di appartenenza di un istanza al cluster, i parametri dei modelli Si iterano Expectation e Maximization fino alla convergenza dei parametri che si stanno stimando

44 Expectation-Maximization (2/11) Passo Expectation (g-ma iterazione) Si definisce la funzione:

45 Expectation-Maximization (2/11) Passo Expectation (g-ma iterazione) Si definisce la funzione: Questa è funzione dei parametri θ, ed il valore atteso è calcolato a partire dalle stime dell iterazione precedente sui dati di training

46 Expectation-Maximization (3/11) {Expectation} L espressione della funzione Q può essere riscritta come:

47 Expectation-Maximization (3/11) {Expectation} L espressione della funzione Q può essere riscritta come:

48 Expectation-Maximization (3/11) {Expectation} L espressione della funzione Q può essere riscritta come: per definizione di valore atteso

49 Expectation-Maximization (3/11) {Expectation} L espressione della funzione Q può essere riscritta come: per definizione di valore atteso Responsibility: è la probabilità che sia stata la distribuzione k a generare l istanza i, considerando corretti i parametri stimati all iterazione precedente

50 Expectation-Maximization (4/11) {Expectation} Valendo la relazione P(A,B C)=P(A B,C)P(B C) possiamo scrivere che:

51 Expectation-Maximization (4/11) {Expectation} Valendo la relazione P(A,B C)=P(A B,C)P(B C) possiamo scrivere che: Probabilità a priori che venga scelta la distribuzione k: la mixing probability

52 Expectation-Maximization (4/11) {Expectation} Valendo la relazione P(A,B C)=P(A B,C)P(B C) possiamo scrivere che: Probabilità a priori che venga scelta la distribuzione k: la mixing probability

53 Expectation-Maximization (5/11) Passo Maximization (g-ma iterazione) Si devono individuare i valori di θ affinché venga massimizzata la funzione Q, ovvero: Per far questo calcoliamo le derivate parziali della funzione Q rispetto a tutti i parametri θ e le poniamo a zero

54 Expectation-Maximization (6/11) {Maximization di gaussiane} La massimizzazione deve rispettare i seguenti vincoli: Utilizziamo, quindi, i moltiplicatori di Lagrange:

55 Expectation-Maximization (6/11) {Maximization di multinomiali} La massimizzazione deve rispettare i seguenti vincoli: Utilizziamo, quindi, i moltiplicatori di Lagrange:

56 Expectation-Maximization (6/11) {Maximization di multinomiali} La massimizzazione deve rispettare i seguenti vincoli: Utilizziamo, quindi, i moltiplicatori di Lagrange:

57 Expectation-Maximization (6/11) {Maximization di multinomiali} La massimizzazione deve rispettare i seguenti vincoli: Utilizziamo, quindi, i moltiplicatori di Lagrange:

58 Expectation-Maximization (6/11) {Maximization di multinomiali} La massimizzazione deve rispettare i seguenti vincoli: Utilizziamo, quindi, i moltiplicatori di Lagrange:

59 Expectation-Maximization (7/11) {Maximization} Calcolo delle mixing probability:

60 Expectation-Maximization (8/11) {Maximization} Derivando l espressione mostrata:

61 Expectation-Maximization (8/11) {Maximization} Derivando l espressione mostrata:

62 Expectation-Maximization (8/11) {Maximization} Derivando l espressione mostrata:

63 Expectation-Maximization (8/11) {Maximization} Derivando l espressione mostrata:

64 Expectation-Maximization (8/11) {Maximization} Derivando l espressione mostrata:

65 Expectation-Maximization (8/11) {Maximization} Derivando l espressione mostrata:

66 Expectation-Maximization (8/11) {Maximization} Derivando l espressione mostrata:

67 Expectation-Maximization (9/11) {Maximization di gaussiane} Calcolo dei parametri delle gaussiane:

68 Expectation-Maximization (10/11) Derivando l espressione mostrata:

69 Expectation-Maximization (9/11) {Maximization di multinomiali} Calcolo dei parametri delle multinomiali:

70 Expectation-Maximization (10/11) {Maximization} Derivando l espressione mostrata:

71 Expectation-Maximization (10/11) {Maximization} Derivando l espressione mostrata:

72 Expectation-Maximization (11/11) Ricapitolando Expectation: Maximization:

73 Expectation-Maximization (11/11) Ricapitolando Expectation: Maximization:

74 Expectation-Maximization (11/11) Ricapitolando Expectation: Maximization:

75 Expectation-Maximization (11/11) Ricapitolando Expectation: Maximization:

76

77

78

79

80

81

82

83

84 Inizializzazione (1/14) EM ha necessita di una inizializzazione Come in tutte le tecniche di hill climbing, il risultato dipende fortemente dalla scelta del punto iniziale

85 Scelta del numero di cluster (1/12) EM, come altri algoritmi di clustering, richiede in input il numero di cluster in cui clusterizzare il dataset di training Si possono sfruttare tecniche per la stima del numero di cluster da utilizzare Ci sono vari approcci: Deterministici: come ad esempio i metodi basati sull information theory tipo MML e MDL, ed altri; Stocastici: come ad esempio la cross-validazione, ed altri;

86 Scelta del numero di cluster (2/12) L approccio utilizzato in questo lavoro e quello della cross-validazione Di certo non si può utilizzare la sola likelihood sui dati di training per stimare il numero di cluster Infatti più cluster si utilizzano più i dati verranno fittati meglio (la log-likelihood dei dati di training è una funzione crescente nel numero di cluster utilizzati) Disponendo di un dataset indipendente da quello di training per effettuare solamente test, la sua loglikelihood potrebbe risultare utile

87 Scelta del numero di cluster (3/12) Supponiamo di avere un dataset per il training, ed un altro dataset,, per effettuare il testing Supponiamo che sia la vera distribuzione alla base dei due dataset

88 Scelta del numero di cluster (3/12) Supponiamo di avere un dataset per il training, ed un altro dataset,, per effettuare il testing Supponiamo che sia la vera distribuzione alla base dei due dataset Poniamo la distribuzione che EM ha ricavato a partire dal dataset di training utilizzando k cluster Con la notazione indichiamo i parametri stimati da EM utilizzando k cluster

89 Scelta del numero di cluster (4/12) La funzione indica la likelihood dei parametri stimati rispetto al dataset di training (è una funzione crescente di k)

90 Scelta del numero di cluster (4/12) La funzione indica la likelihood dei parametri stimati rispetto al dataset di training (è una funzione crescente di k) La funzione indica la likelihood dei parametri stimati rispetto al dataset di test; indica quanto verosimilmente le istanze del dataset di test provengano dalla distribuzione stimata

91 Scelta del numero di cluster (5/12) La log-likelihood relativa è: che è una funzione di k fissati i restanti parametri ed il dataset di training Questa funzione, intuitivamente, dovrebbe risultare più utile nella stima del numero corretto di cluster. Mostriamo che ciò è vero

92 Scelta del numero di cluster (6/12) Poniamo opportunamente: che è l opposto della log-likelihood per istanza Calcoliamone il valore atteso:

93 Scelta del numero di cluster (6/12) Poniamo opportunamente: che è l opposto della log-likelihood per istanza Calcoliamone il valore atteso: sono variabili aleatorie che provengono tutte dalla stessa distribuzione, quella vera

94 Scelta del numero di cluster (7/12) Sostituiamo con ed otteniamo:

95 Scelta del numero di cluster (7/12) Sostituiamo con ed otteniamo: è indipendente da k, e misura l entropia della distribuzione

96 Scelta del numero di cluster (7/12) Sostituiamo con ed otteniamo: è indipendente da k, e misura l entropia della distribuzione distanza di Kullback-Leibler, misura la distanza fra due distribuzioni; è sempre positiva e vale zero quando le distribuzioni coincidono

97 Scelta del numero di cluster (8/12) La log-likelihood del dataset di test, opportunamente scalata, è una stima della distanza fra le due distribuzioni, quella vera e quella ricavata da EM Quasi mai si dispone di un ampio dataset di test indipendente da quello di training Si utilizzano ripetutamente porzioni del dataset di training per effettuare il test: in questo caso si parla di cross-validazione

98 Scelta del numero di cluster (9/12) {cross-validazione} Supponiamo che si effettui M volte la ripartizione del dataset di training e sia la porzione utilizzata per il calcolo della log-likelihood di test La log-likelihood di cross-validazione è: la media delle log-likelihood delle porzioni utilizzate per il test

99 Scelta del numero di cluster (10/12) {Monte Carlo Cross-Validation} Ci sono vari approcci per fare cross-validazione, quello utilizzato è la Monte Carlo Cross-Validation Con questa metodologia il dataset di test viene ripetutamente suddiviso in due parti, una per il training l altra per il testing Ad ogni iterazione di cross-validazione si provano tutti i clustering con numero di cluster da 1 ad un valore massimo fornito dall utente β indica la porzione di dataset da utilizzare per il testing Sperimentalmente si è visto come valori di β pari a 0,5 ed M compreso tra 20 e 50, siano buoni nella maggior parte dei casi

100 Riferimenti [1] Trevor Hastie, Robert Tibshirani, and Jerome Friedman, The Elements of Statistical Learning: Data Mining, Inference, and Prediction; Springer Series in Statistics. New York, NY: Springer Verlag, [2] Robert A. Adams, Calcolo Differenziale 2: Funzioni di più variabili; (seconda edizione). Milano, Italy: Casa Editrice Ambrosiana, [3] Padhraic Smyth, Clustering using Monte Carlo Cross-Validation, in E. Simoudis, J. Han, and U. M. Fayyad, Proceedings of the Second International Conference on Knowledge Discovery and Data Mining (KDD-96), Menlo Park, CA: AAAI Press, pp , [4] Padhraic Smyth, Model Selection for Probabilistic Clustering using Cross-Validated Likelihood, Technical Report UCI-ICS 98-09, Department of Information and Computer Science, University of California, Irvine, CA, [5] Thomas M. Cover, and Joy A. Thomas, Elements of Information Theory; Wiley Series in Telecommunications. New York, NY: John Wiley & Sons, 1991.

Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità)

Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Cenni di apprendimento in Reti Bayesiane

Cenni di apprendimento in Reti Bayesiane Sistemi Intelligenti 216 Cenni di apprendimento in Reti Bayesiane Esistono diverse varianti di compiti di apprendimento La struttura della rete può essere nota o sconosciuta Esempi di apprendimento possono

Dettagli

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Metodi per l Analisi dei Dati Sperimentali AA009/010 IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Sommario Massima Verosimiglianza Introduzione La Massima Verosimiglianza Esempio 1: una sola misura sperimentale

Dettagli

Computazione per l interazione naturale: clustering e riduzione di dimensionalità

Computazione per l interazione naturale: clustering e riduzione di dimensionalità Computazione per l interazione naturale: clustering e riduzione di dimensionalità Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Metodi Bayesiani - Naive Bayes Fabio Aiolli 13 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 13 Dicembre 2017 1 / 18 Classificatore Naive Bayes Una delle tecniche più semplici

Dettagli

Stima dei parametri. I parametri di una pdf sono costanti che caratterizzano la sua forma. r.v. parameter. Assumiamo di avere un campione di valori

Stima dei parametri. I parametri di una pdf sono costanti che caratterizzano la sua forma. r.v. parameter. Assumiamo di avere un campione di valori Stima dei parametri I parametri di una pdf sono costanti che caratterizzano la sua forma r.v. parameter Assumiamo di avere un campione di valori Vogliamo una funzione dei dati che permette di stimare i

Dettagli

Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri

Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano

Dettagli

Clustering. Introduzione Definizioni Criteri Algoritmi. Clustering Gerarchico

Clustering. Introduzione Definizioni Criteri Algoritmi. Clustering Gerarchico Introduzione Definizioni Criteri Algoritmi Gerarchico Centroid-based K-means Fuzzy K-means Expectation Maximization (Gaussian Mixture) 1 Definizioni Con il termine (in italiano «raggruppamento») si denota

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2018.html

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2017.html

Dettagli

Algoritmi di minimizzazione EM Mixture models

Algoritmi di minimizzazione EM Mixture models Algoritmi di minimizzazione E ixture models I. Frosio AIS Lab. frosio@dsi.unimi.it /58 Overview Stima di due rette (riassunto) inimizzazione: metodi di ordine zero (simplesso, ) inimizzazione: metodi di

Dettagli

Naïve Bayesian Classification

Naïve Bayesian Classification Naïve Bayesian Classification Di Alessandro rezzani Sommario Naïve Bayesian Classification (o classificazione Bayesiana)... 1 L algoritmo... 2 Naive Bayes in R... 5 Esempio 1... 5 Esempio 2... 5 L algoritmo

Dettagli

Clustering. Leggere il Capitolo 15 di Riguzzi et al. Sistemi Informativi

Clustering. Leggere il Capitolo 15 di Riguzzi et al. Sistemi Informativi Clustering Leggere il Capitolo 15 di Riguzzi et al. Sistemi Informativi Clustering Raggruppare le istanze di un dominio in gruppi tali che gli oggetti nello stesso gruppo mostrino un alto grado di similarità

Dettagli

Stima dell intervallo per un parametro

Stima dell intervallo per un parametro Stima dell intervallo per un parametro In aggiunta alla stima puntuale di un parametro dobbiamo dare l intervallo che rappresenta l incertezza statistica. Questo intervallo deve: comunicare in modo obbiettivo

Dettagli

Stima dei parametri. La v.c. multipla (X 1, X 2,.., X n ) ha probabilità (o densità): Le f( ) sono uguali per tutte le v.c.

Stima dei parametri. La v.c. multipla (X 1, X 2,.., X n ) ha probabilità (o densità): Le f( ) sono uguali per tutte le v.c. Stima dei parametri Sia il carattere X rappresentato da una variabile casuale (v.c.) che si distribuisce secondo la funzione di probabilità f(x). Per investigare su tale carattere si estrae un campione

Dettagli

Statistica Applicata all edilizia: Stime e stimatori

Statistica Applicata all edilizia: Stime e stimatori Statistica Applicata all edilizia E-mail: orietta.nicolis@unibg.it 15 marzo 2011 Statistica Applicata all edilizia: Indice 1 2 Statistica Applicata all edilizia: Uno dei problemi principali della statistica

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 2 Teoria della decisione Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr

Dettagli

Rilevazione di messaggi spam con algoritmo Naive-Bayes

Rilevazione di messaggi spam con algoritmo Naive-Bayes Rilevazione di messaggi spam con algoritmo Naive-Bayes Luca Zanetti matricola nr. 808229 luca.zanetti2@studenti.unimi.it Sommario L individuazione di messaggi spam costituisce uno dei più noti esempi di

Dettagli

Clustering. Leggere il Capitolo 15 di Riguzzi et al. Sistemi Informativi

Clustering. Leggere il Capitolo 15 di Riguzzi et al. Sistemi Informativi Clustering Leggere il Capitolo 15 di Riguzzi et al. Sistemi Informativi Clustering Raggruppare le istanze di un dominio in gruppi tali che gli oggetti nello stesso gruppo mostrino un alto grado di similarità

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici (2)

Computazione per l interazione naturale: fondamenti probabilistici (2) Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Apprendimento Bayesiano

Apprendimento Bayesiano Apprendimento Automatico 232 Apprendimento Bayesiano [Capitolo 6, Mitchell] Teorema di Bayes Ipotesi MAP e ML algoritmi di apprendimento MAP Principio MDL (Minimum description length) Classificatore Ottimo

Dettagli

A.A /49 frosio\

A.A /49   frosio\ Expectation Maximization I. Frosio A.A. 009-00 /49 http:\\homes.dsi.unimi.it\ frosio\ Overview Stima di due rette (riassunto) Minimizzazione: metodi di ordine zero (simplesso, ) Minimizzazione: i i i metodi

Dettagli

Corso di Laurea in Informatica Applicata Esame di Calcolo delle Probabilità e Statistica Prova scritta dell 11 gennaio 2007

Corso di Laurea in Informatica Applicata Esame di Calcolo delle Probabilità e Statistica Prova scritta dell 11 gennaio 2007 Corso di Laurea in Informatica Applicata Esame di Calcolo delle Probabilità e Statistica Prova scritta dell 11 gennaio 007 Primo esercizio Per una certa stampante S 1, la probabilità che un generico foglio

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Metodi Bayesiani Fabio Aiolli 11 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 11 Dicembre 2017 1 / 19 Metodi Bayesiani I metodi Bayesiani forniscono tecniche computazionali

Dettagli

Statistica Metodologica Avanzato Test 1: Concetti base di inferenza

Statistica Metodologica Avanzato Test 1: Concetti base di inferenza Test 1: Concetti base di inferenza 1. Se uno stimatore T n è non distorto per il parametro θ, allora A T n è anche consistente B lim Var[T n] = 0 n C E[T n ] = θ, per ogni θ 2. Se T n è uno stimatore con

Dettagli

Statistica 2 parte ARGOMENTI

Statistica 2 parte ARGOMENTI Statistica 2 parte ARGOMENTI Vettori gaussiani Matrice di covarianza e sua positività Marginali di un vettore normale Trasformazioni affini di vettori normali Indipendenza delle componenti scorrelate di

Dettagli

9. Test del χ 2 e test di Smirnov-Kolmogorov. 9.1 Stimatori di massima verosimiglianza per distribuzioni con densità finita

9. Test del χ 2 e test di Smirnov-Kolmogorov. 9.1 Stimatori di massima verosimiglianza per distribuzioni con densità finita 9. Test del χ 2 e test di Smirnov-Kolmogorov 9. Stimatori di massima verosimiglianza per distribuzioni con densità finita Supponiamo di avere un campione statistico X,..., X n e di sapere che esso è relativo

Dettagli

ELEMENTI DI STATISTICA INFERENZIALE ELEMENTI DI STATISTICA INFERENZIALE

ELEMENTI DI STATISTICA INFERENZIALE ELEMENTI DI STATISTICA INFERENZIALE ELEMENTI DI STATISTICA INFERENZIALE 133. ELEMENTI DI STATISTICA INFERENZIALE In questo paragrafo verranno illustrati alcuni elementi di Statistica che sono essenziali per procedere alla costruzione di

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Teoria della decisione di Bayes Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario

Dettagli

La likelihood. , x 2. } sia prodotto a partire dal particolare valore di a: ; a... f x N. La probabilità che l'i ma misura sia compresa tra x i

La likelihood. , x 2. } sia prodotto a partire dal particolare valore di a: ; a... f x N. La probabilità che l'i ma misura sia compresa tra x i La likelihood E' dato un set di misure {x 1, x 2, x 3,...x N } (ciascuna delle quali puo' essere multidimensionale) Supponiamo che la pdf (f) dipenda da un parametro a (anch'esso eventualmente multidimensionale)

Dettagli

Calcolo delle Probabilità 2

Calcolo delle Probabilità 2 Prova d esame di Calcolo delle Probabilità 2 Maggio 2006 Sia X una variabile aleatoria distribuita secondo la densità seguente ke x 1 x < 0 f X (x) = 1/2 0 x 1. 1. Determinare il valore del parametro reale

Dettagli

Stima dei Parametri. Corso di Apprendimento Automatico Laurea Magistrale in Informatica Nicola Fanizzi

Stima dei Parametri. Corso di Apprendimento Automatico Laurea Magistrale in Informatica Nicola Fanizzi Laurea Magistrale in Informatica Nicola Fanizzi Dipartimento di Informatica Università degli Studi di Bari 20 gennaio 2009 Sommario Introduzione Stima dei parametri di massima verosimiglianza Stima dei

Dettagli

Minimi quadrati vincolati e test F

Minimi quadrati vincolati e test F Minimi quadrati vincolati e test F Impostazione del problema Spesso, i modelli econometrici che stimiamo hanno dei parametri che sono passibili di interpretazione diretta nella teoria economica. Consideriamo

Dettagli

c) Ancora in corrispondenza allo stesso valore di p e ponendo Y = minorazione, fornita dalla diseguaglianza di Chebichev, per la probabilita

c) Ancora in corrispondenza allo stesso valore di p e ponendo Y = minorazione, fornita dalla diseguaglianza di Chebichev, per la probabilita Laurea Triennale in Matematica Corso di Calcolo delle Probabilita I A.A. 00/00 (Docenti: M. Piccioni, F. Spizzichino) a prova di esonero 6 giugno 00 Risolvere almeno tre dei seguenti esercizi.. Indichiamo

Dettagli

La Decisione Statistica Campione aleatorio: risultato dell osservazione di un fenomeno soggetto a fluttuazioni casuali.

La Decisione Statistica Campione aleatorio: risultato dell osservazione di un fenomeno soggetto a fluttuazioni casuali. La Decisione Statistica Campione aleatorio: risultato dell osservazione di un fenomeno soggetto a fluttuazioni casuali. Analisi del campione: - descrizione sintetica (statistica descrittiva) - deduzione

Dettagli

Elementi di Probabilità e Statistica - 052AA - A.A

Elementi di Probabilità e Statistica - 052AA - A.A Elementi di Probabilità e Statistica - AA - A.A. -6 Prova scritta - giugno 6 Problema. (pt 9) Supponiamo che ad un centralino arrivino n chiamate, agli istanti aleatori T, T,..., T n.. Supponiamo che T,

Dettagli

Prova Scritta di Probabilità e Statistica Cognome: Laurea in Matematica

Prova Scritta di Probabilità e Statistica Cognome: Laurea in Matematica Prova Scritta di Probabilità e Statistica Cognome: Laurea in Matematica Nome: 25 febbraio 2013 Matricola: ESERCIZIO 1. Si mostri la seguente formula di disintegrazione per la probabilità condizionata:

Dettagli

La formula di Taylor per funzioni di più variabili

La formula di Taylor per funzioni di più variabili La formula di Taylor per funzioni di più variabili Il polinomio di Taylor Due variabili. Sia A R 2 un aperto, f : A R una funzione sufficientemente regolare, (x, y) un punto di A. Sia (h, k) un vettore

Dettagli

I modelli probabilistici

I modelli probabilistici e I modelli probabilistici Finora abbiamo visto che esistono modelli probabilistici che possiamo utilizzare per prevedere gli esiti di esperimenti aleatori. Naturalmente la previsione è di tipo probabilistico:

Dettagli

CP110 Probabilità: Esonero 2. Testo e soluzione

CP110 Probabilità: Esonero 2. Testo e soluzione Dipartimento di Matematica, Roma Tre Pietro Caputo 2011-12, II semestre 29 maggio, 2012 CP110 Probabilità: Esonero 2 Testo e soluzione 1. (8 punti) La freccia lanciata da un arco è distribuita uniformemente

Dettagli

Il metodo di Gauss-Newton per le regressioni non-lineari

Il metodo di Gauss-Newton per le regressioni non-lineari Il metodo di Gauss-Newton per le regressioni non-lineari Andrea Onofri Dipartimento di Scienze Agrarie ed Ambientali Università degli Studi di Perugia Versione on-line: http://www.unipg.it/ onofri/rtutorial/index.html

Dettagli

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A Università di Siena Teoria della Stima Lucidi del corso di A.A. 2002-2003 Università di Siena 1 Indice Approcci al problema della stima Stima parametrica Stima bayesiana Proprietà degli stimatori Stime

Dettagli

Presentazione dell edizione italiana

Presentazione dell edizione italiana 1 Indice generale Presentazione dell edizione italiana Prefazione xi xiii Capitolo 1 Una introduzione alla statistica 1 1.1 Raccolta dei dati e statistica descrittiva... 1 1.2 Inferenza statistica e modelli

Dettagli

Esercizi settimana 5. Esercizi applicati. Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 2 3

Esercizi settimana 5. Esercizi applicati. Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 2 3 1 Esercizi settimana 5 Esercizi applicati Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 3 di ottenere testa. Se scegliete la prima moneta vincete 10 punti se esce testa e punti

Dettagli

Brevi richiami su variabili aleatorie e processi stocastici

Brevi richiami su variabili aleatorie e processi stocastici Appendice Parte 9, 1 Brevi richiami su variabili aleatorie e processi stocastici Richiami di teoria della probabilita` Appendice Parte 9, 2 Esperimento casuale: analisi degli elementi caratteristici dei

Dettagli

Stima dei Parametri. Capitolo 8

Stima dei Parametri. Capitolo 8 Capitolo 8 Stima dei Parametri Lo scopo dello studio dei fenomeni fisici è quello di scoprire le leggi che legano le grandezze oggetto di indagine e di misurare il valore delle costanti che compaiono della

Dettagli

ECONOMETRIA: Laboratorio I

ECONOMETRIA: Laboratorio I ECONOMETRIA: Laboratorio I Luca De Angelis CLASS - Università di Bologna Programma Laboratorio I Valori attesi e varianze Test di ipotesi Stima di un modello lineare attraverso OLS Valore atteso Data una

Dettagli

Approccio statistico alla classificazione

Approccio statistico alla classificazione Approccio statistico alla classificazione Approccio parametrico e non parametrico Finestra di Parzen Classificatori K-NN 1-NN Limitazioni dell approccio bayesiano Con l approccio bayesiano, sarebbe possibile

Dettagli

Computazione per l interazione naturale: Regressione lineare Bayesiana

Computazione per l interazione naturale: Regressione lineare Bayesiana Computazione per l interazione naturale: Bayesiana Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it

Dettagli

Clustering. Corso di Apprendimento Automatico Laurea Magistrale in Informatica Nicola Fanizzi

Clustering. Corso di Apprendimento Automatico Laurea Magistrale in Informatica Nicola Fanizzi Laurea Magistrale in Informatica Nicola Fanizzi Dipartimento di Informatica Università degli Studi di Bari 3 febbraio 2009 Sommario Introduzione iterativo basato su distanza k-means e sue generalizzazioni:

Dettagli

si tratta del test del chi-quadro di adattamento e di quello di indipendenza. 1 l ipotesi che la popolazione segua una legge fissata;

si tratta del test del chi-quadro di adattamento e di quello di indipendenza. 1 l ipotesi che la popolazione segua una legge fissata; di : dado : normale Finora abbiamo visto test d ipotesi per testare ipotesi differenti, ma tutte concernenti il valore atteso di una o due popolazioni. In questo capitolo vediamo come testare 1 l ipotesi

Dettagli

Regressione. Apprendimento supervisionato //Regressione. Corso di Sistemi di Elaborazione dell Informazione

Regressione. Apprendimento supervisionato //Regressione. Corso di Sistemi di Elaborazione dell Informazione Regressione SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Computazione per l interazione naturale: classificazione probabilistica

Computazione per l interazione naturale: classificazione probabilistica Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Esercitazione del 04/06/2015 Probabilità e Statistica Foglio 14

Esercitazione del 04/06/2015 Probabilità e Statistica Foglio 14 Esercitazione del 0/06/05 Probabilità e Statistica Foglio David Barbato Esercizio. Ci sono 0 monetine di cui 5 con due teste, con due croci e regolari una moneta regolare ha una faccia testa e una faccia

Dettagli

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17 II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 6/7 Martedì 4 febbraio 7 Cognome: Nome: Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile

Dettagli

Prova d esame di Istituzioni di Calcolo delle Probabilità Laurea Triennale in Scienze Statistica. 09/09/2013

Prova d esame di Istituzioni di Calcolo delle Probabilità Laurea Triennale in Scienze Statistica. 09/09/2013 Prova d esame di Istituzioni di Calcolo delle Probabilità Laurea Triennale in Scienze Statistica. 09/09/2013 COGNOME e NOME... N. MATRICOLA... Esercizio 1. (V. 12 punti.) Supponiamo di avere due urne che

Dettagli

Video Analysis (cenni) Annalisa Franco

Video Analysis (cenni) Annalisa Franco 1 Video Analysis (cenni) Annalisa Franco annalisa.franco@unibo.it http://bias.csr.unibo.it/vr/ 2 Visual motion Un video è una sequenza di frame catturati nel corso del tempo Il valori dell immagine sono

Dettagli

STATISTICA INDUTTIVA: STIMA DI PARAMETRI STIMA PUNTUALE

STATISTICA INDUTTIVA: STIMA DI PARAMETRI STIMA PUNTUALE S.S.I.S TOSCANA F.I.M. -II anno STATISTICA INDUTTIVA: STIMA DI PARAMETRI STIMA PUNTUALE PROBLEMA 1 Vogliamo valutare la percentuale p di donne fumatrici tra le donne in età fertile. Procediamo all estrazione

Dettagli

Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prima prova in itinere

Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prima prova in itinere Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (69AA) A.A. 016/17 - Prima prova in itinere 017-01-13 La durata della prova è di tre ore. Le risposte devono essere adeguatamente giustificate.

Dettagli

Esercizi di Calcolo delle Probabilità

Esercizi di Calcolo delle Probabilità Esercizi di Calcolo delle Probabilità Versione del 1/05/005 Corso di Statistica Anno Accademico 00/05 Antonio Giannitrapani, Simone Paoletti Calcolo delle probabilità Esercizio 1. Un dado viene lanciato

Dettagli

Rischio statistico e sua analisi

Rischio statistico e sua analisi F94 Metodi statistici per l apprendimento Rischio statistico e sua analisi Docente: Nicolò Cesa-Bianchi versione 7 aprile 018 Per analizzare un algoritmo di apprendimento dobbiamo costruire un modello

Dettagli

Teoria e Tecniche del Riconoscimento

Teoria e Tecniche del Riconoscimento Facoltà di Scienze MM. FF. NN. Università di Verona A.A. 2010-11 Teoria e Tecniche del Riconoscimento Notizie preliminari Introduzione Marco Cristani Teoria e Tecniche del Riconoscimento 1 Il docente Prof.

Dettagli

RICHIAMI DI CALCOLO DELLE PROBABILITÀ

RICHIAMI DI CALCOLO DELLE PROBABILITÀ UNIVERSITA DEL SALENTO INGEGNERIA CIVILE RICHIAMI DI CALCOLO DELLE PROBABILITÀ ing. Marianovella LEONE INTRODUZIONE Per misurare la sicurezza di una struttura, ovvero la sua affidabilità, esistono due

Dettagli

Analisi Discriminante Strumenti quantitativi per la gestione

Analisi Discriminante Strumenti quantitativi per la gestione Analisi Discriminante Strumenti quantitativi per la gestione Emanuele Taufer Un esempio introduttivo Approccio con Bayes Perchè un altro metodo di classificazione? Classificazione con Bayes Analisi discriminante

Dettagli

ARGOMENTI TRATTATI NEL CORSO DI ANALISI II

ARGOMENTI TRATTATI NEL CORSO DI ANALISI II ARGOMENTI TRATTATI NEL CORSO DI ANALISI II ANALISI Limiti Curve Convergenza di una successione di punti Definizione di limite Condizione necessaria e condizione sufficiente all esistenza del limite in

Dettagli

Corso di Laurea in Ingegneria Robotica e dell Automazione Probabilità e Processi Stocastici (455AA) A.A. 2018/19 - Esercitazione

Corso di Laurea in Ingegneria Robotica e dell Automazione Probabilità e Processi Stocastici (455AA) A.A. 2018/19 - Esercitazione Corso di Laurea in Ingegneria Robotica e dell Automazione Probabilità e Processi Stocastici (55AA) A.A. 28/9 - Esercitazione 28--9 La durata della prova è di due ore e mezzo. Le risposte devono essere

Dettagli

E n 1 n. n i. n 2. n 2 ( n

E n 1 n. n i. n 2. n 2 ( n Lezione n. 7 7.1 Ancora sulle proprietà degli stimatori Esempio 7.1 [continua dall Esempio 6.1] Studiare varianza e MSE dei due stimatori e verificare se T n raggiunge il limite di Cramer- Rao. Soluzione.

Dettagli

Esercizi di statistica

Esercizi di statistica Esercizi di statistica Test a scelta multipla (la risposta corretta è la prima) [1] Il seguente campione è stato estratto da una popolazione distribuita normalmente: -.4, 5.5,, -.5, 1.1, 7.4, -1.8, -..

Dettagli

Computazione per l interazione naturale: Modelli dinamici

Computazione per l interazione naturale: Modelli dinamici Computazione per l interazione naturale: Modelli dinamici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Corso di Laurea Triennale in Matematica Calcolo delle Probabilità I (docenti G. Nappo, F. Spizzichino)

Corso di Laurea Triennale in Matematica Calcolo delle Probabilità I (docenti G. Nappo, F. Spizzichino) Corso di Laurea Triennale in Matematica Calcolo delle Probabilità I (docenti G. Nappo, F. Spizzichino Prova di mercoledì 22 Settembre 24 (tempo a disposizione: 2 ore e 4 minuti. consegna compiti e inizio

Dettagli

Ulteriori Conoscenze di Informatica e Statistica. Popolazione. Campione. I risultati di un esperimento sono variabili aleatorie.

Ulteriori Conoscenze di Informatica e Statistica. Popolazione. Campione. I risultati di un esperimento sono variabili aleatorie. Ulteriori Conoscenze di Informatica e Statistica Carlo Meneghini Dip. di fisica via della Vasca Navale 84, st. 83 (I piano) tel.: 06 55 17 72 17 meneghini@fis.uniroma3.it I risultati di un esperimento

Dettagli

P ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea)

P ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea) 10.4 Convergenze 166 10.4.3. Convergenza in Probabilità. Definizione 10.2. Data una successione X 1, X 2,...,,... di vettori aleatori e un vettore aleatorio X aventi tutti la stessa dimensione k diremo

Dettagli

Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016

Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016 Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 205/206 20 Settembre 206 Esercizio. Un dado equilibrato viene lanciato ripetutamente. Indichiamo con X n il risultato dell n-esimo

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Classificazione Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sistema di classificazione

Dettagli

UNIVERSITÀ di ROMA TOR VERGATA

UNIVERSITÀ di ROMA TOR VERGATA UNIVERSITÀ di ROMA TOR VERGATA Corso di Laurea Magistrale in Scienze della Nutrizione Umana Corso di Statistica Medica, anno 2015-16 P.Baldi Lista di esercizi 4, 11 febbraio 2016. Esercizio 1 Una v.a.

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico On AIR s.r.l. Tecniche di riconoscimento statistico Teoria e applicazioni industriali Parte 3 Costruzione di un classificatore Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr

Dettagli

Esercitazione del 29 aprile 2014

Esercitazione del 29 aprile 2014 Esercitazione del 9 aprile 014 Esercizio 10.13 pg. 94 Complemento: Calcolare la probabilità che un negozio apra tra le sette e venti e le nove e quaranta del mattino. Soluzione: Siccome non è nota la distribuzione

Dettagli

ASSEGNAZIONE STOCASTICA. SU RETI NON CONGESTIONATE SNL (Stochastic Network Loading)

ASSEGNAZIONE STOCASTICA. SU RETI NON CONGESTIONATE SNL (Stochastic Network Loading) ASSEGNAZIONE STOCASTICA SU RETI NON CONGESTIONATE SNL Stochastic Network Loading algoritmo di DIAL Ipotesi: 1. La scelta del percorso è basata sul modello LOGIT 2. Si considerano solamente percorsi efficienti

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Clustering: metodologie Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario Tassonomia

Dettagli

I Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

I Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17 I Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 6/7 Martedì 3 gennaio 7 Cognome: Nome: Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile

Dettagli

Teoria e Tecniche del Riconoscimento Clustering

Teoria e Tecniche del Riconoscimento Clustering Facoltà di Scienze MM. FF. NN. Università di Verona A.A. 2010-11 Teoria e Tecniche del Riconoscimento Clustering Sommario Tassonomia degli algoritmi di clustering Algoritmi partizionali: clustering sequenziale

Dettagli

1 Esercizi tutorato 1/4

1 Esercizi tutorato 1/4 Esercizi tutorato 1/ 1 1 Esercizi tutorato 1/ Esercizio 11 Siano X e Y due va discrete indipendenti di distribuzione geometrica con parametro p [0, 1] (i) Si calcoli la legge di X + Y, è una legge nota?

Dettagli

Calcolo delle Probabilità e Statistica, Ingegneria Civile e A&T e Informatica I prova finale a.a. 2016/17

Calcolo delle Probabilità e Statistica, Ingegneria Civile e A&T e Informatica I prova finale a.a. 2016/17 Calcolo delle Probabilità e Statistica, Ingegneria Civile e A&T e Informatica I prova finale aa 6/ Punteggi: : 3 + 6; : + + + ; 3: + Una scatola contiene monete; 8 di queste sono equilibrate, mentre le

Dettagli

Università di Pavia Econometria. Richiami di Statistica. Eduardo Rossi

Università di Pavia Econometria. Richiami di Statistica. Eduardo Rossi Università di Pavia Econometria Richiami di Statistica Eduardo Rossi Università di Pavia Campione casuale Siano (Y 1, Y 2,..., Y N ) variabili casuali tali che le y i siano realizzazioni mutuamente indipendenti

Dettagli

Computazione per l interazione naturale: processi gaussiani

Computazione per l interazione naturale: processi gaussiani Computazione per l interazione naturale: processi gaussiani Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

CP210 Introduzione alla Probabilità: Esame 2

CP210 Introduzione alla Probabilità: Esame 2 Dipartimento di Matematica, Roma Tre Pietro Caputo 2018-19, II semestre 9 luglio, 2019 CP210 Introduzione alla Probabilità: Esame 2 Cognome Nome Matricola Firma Nota: 1. L unica cosa che si può usare durante

Dettagli

Università di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti

Università di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Università di Siena Corso di STATISTICA Parte seconda: Teoria della stima Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Master E 2 C Centro per lo Studio dei Sistemi Complessi Università di

Dettagli

1 PROCESSI STOCASTICI... 11

1 PROCESSI STOCASTICI... 11 1 PROCESSI STOCASTICI... 11 Introduzione... 11 Rappresentazione dei dati biomedici... 11 Aleatorietà delle misure temporali... 14 Medie definite sul processo aleatorio... 16 Valore atteso... 16 Esercitazione

Dettagli

Corso di Statistica - Prof. Fabio Zucca IV Appello - 5 febbraio Esercizio 1

Corso di Statistica - Prof. Fabio Zucca IV Appello - 5 febbraio Esercizio 1 Corso di Statistica - Prof. Fabio Zucca IV Appello - 5 febbraio 2015 Nome e cognome: Matricola: c I diritti d autore sono riservati. Ogni sfruttamento commerciale non autorizzato sarà perseguito. 8994

Dettagli

Corso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza CALCOLO DELLE PROBABILITÀ E STATISTICA ESAME DEL 13/1/2017

Corso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza CALCOLO DELLE PROBABILITÀ E STATISTICA ESAME DEL 13/1/2017 Corso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza CALCOLO DELLE PROBABILITÀ E STATISTICA ESAME DEL 13/1/2017 NOME: COGNOME: MATRICOLA: Esercizio 1 Quattro arcieri

Dettagli

Introduzione all inferenza statistica

Introduzione all inferenza statistica Introduzione all inferenza statistica Carla Rampichini Dipartimento di Statistica Giuseppe Parenti - Firenze - Italia carla@ds.unifi.it - www.ds.unifi.it/rampi/ Dottorato in METODOLOGIA DELLE SCIENZE SOCIALI,

Dettagli

Crittografia Moderna. Segretezza Perfetta: nozioni

Crittografia Moderna. Segretezza Perfetta: nozioni Crittografia Moderna Segretezza Perfetta: nozioni Segretezza perfetta Ci occuperemo di schemi di cifratura perfettamente sicuri Avversari di potere computazionale illimitato confidenzialità / riservatezza

Dettagli

Computazione per l interazione naturale: Regressione lineare

Computazione per l interazione naturale: Regressione lineare Computazione per l interazione naturale: Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it http://homes.dsi.unimi.it/~boccignone/l

Dettagli