Algoritmi di minimizzazione EM Mixture models
|
|
- Severina Di Giacomo
- 5 anni fa
- Visualizzazioni
Transcript
1 Algoritmi di minimizzazione E ixture models I. Frosio AIS Lab. frosio@dsi.unimi.it /58 Overview Stima di due rette (riassunto) inimizzazione: metodi di ordine zero (simplesso, ) inimizzazione: metodi di primo ordine (gradiente, ) inimizzazione: metodi di secondo ordine (ewton, ) inimizzazione: Expectation-aximization ixture models: introduzione oxture models: segmentazione di radiografia cefalometrica /58
2 Stima di due rette (riassunto) Si vogliono stimare i coefficienti angolari di due rette passanti per l origine. I dati misurati yi possono provenire dall una o dall altra retta con la stessa probabilità. Sui dati misurati è presente rumore gaussiano con varianza σ. 3/58 Stima di due rette (riassunto) Scriviamo la funzione di verosimiglianza: p G ( yi) = P G( m xi, σ ) + P G( m xi, σ ) ( μ, σ ) = e πσ In pratica un punto yi può provenire dalla retta con probabilità P o dalla retta con probabilità P. In ciascuno dei due casi il punto misurato ha una distribuzione gaussiana centrata sulla retta stessa. x μ σ 4/58
3 Stima di due rette (riassunto) Calcolo il logaritmo negativo della verosimiglianza: f ( m, m) = ln p( yi) = p i= ln ( xi, σ ) i= [ ] = ln[ P G( m xi, σ ) + P G( m xi, σ )] [ P p ( xi, σ ) + P p ( xi, σ )] = e πσ i= x m xi σ on può essere minimizzato analiticamente ponendo le derivate uguali a zero è necessario usare un algoritmo di minimizzazione iterativo. 5/58 inimizzazione: metodi di ordine 0 Strategia di base: Sia f(x) la funzione da minimizzare, x 0 la soluzione di partenza; La soluzione viene perturbata (x k+ =x k +Δx) in modo più meno furbo, testando diverse perturbazioni Δx. Per ogni perturbazione Δx si calcola la f(x k +Δx). Si sceglie la Δx tale per cui la f(x k +Δx) è minima e si aggiorna la soluzione (x k+ =x k +Δx). Esempi: metodo del simplesso, simulated annealing, algoritmi genetici Se si utilizza un metodo di ordine 0 è necessario calcolare la sola f(x). Facile da implementare, bassa velocità di convergenza. 6/58 3
4 f(x) inimizzazione: metodi di ordine 0 f(x 0 ) Soluzioni perturbate x 0 x 7/58 f(x) inimizzazione: metodi di ordine 0 f(x 0 ) Soluzione scelta al passo 0 f(x ) x 0 x x 8/58 4
5 inimizzazione: metodi di ordine Strategia di base: Sia f(x) la funzione da minimizzare, x 0 la soluzione di partenza; Si calcoli il gradiente della f in x k, J(x k ). La soluzione viene aggiornata utilizzando l informazione del gradiente. ell ipotesi più semplice (metodo del gradiente), muovendosi nella direzione opposta rispetto al gradiente (x k+ =x k -α J(x k ).) Esempi: metodo del gradiente, gradiente coniugato, Se si utilizza un metodo di ordine è necessario calcolare la f(x) e J(x). Abbastanza facile da implementare, velocità di convergenza media (dipende dalla strategia adottata). Il parametro scalare α (learning rate) determina la velocità di convergenza e la stabilità del metodo. 9/58 f(x) inimizzazione: metodi di ordine Gradiente, J(x 0 ) f(x 0 ) x 0 x 0/58 5
6 f(x) inimizzazione: metodi di ordine Gradiente, J(x 0 ) f(x 0 ) αj(x 0 ) f(x ) x 0 x x /58 inimizzazione: metodi di ordine el caso del problema delle due rette abbiamo già calcolato le derivate (si veda la lezione precedente). Utilizzando il metodo del gradiente, la soluzione può essere aggiornata come: m ( m, m ) k + k f k = m α = m α m i= P p ( xi) p ( ) ( x m xi ) xi σ xi (Esercizio implementazione atlab del metodo del gradiente confronto con E per vari valori di α) /58 6
7 inimizzazione: metodi di ordine Strategia di base: Sia f(x) la funzione da minimizzare, x 0 la soluzione di partenza; L espansione in serie di Taylor arrestata al ordine di f(x) è la seguente: f(x k +Δx)=f(x k )+J(x k ) (Δx)+/(Δx) T H(x k )(Δx), dove H(x k ) è l Hessiano di f. L espansione in serie di Taylor dà un approssimazione locale della f(x). E possibile minimizzare analiticamente tale approssimazione; il minimo si ottiene derivando e ponendo la derivata uguale a zero (metodo di ewton): J(x k )+H(x k )(Δx)=0 Δx = -H(x k ) - J(x k ) E oneroso calcolare l hessiano, velocità di convergenza alta. 3/58 inimizzazione: metodi di ordine f(x) f(x 0 ) Approssimazione con serie di Taylor della f(x) x 0 x 4/58 7
8 inimizzazione: metodi di ordine f(x) f(x 0 ) Approssimazione con serie di Taylor della f(x) f(x ) x 0 5/58 x x inimizzazione metodi iterativi (riassunto) Quando la funzione da minimizzare è fortemente non lineare, è necessario ricorrere ad un metodo iterativo. Si fanno delle ipotesi sull andamento locale della f(x) e si aggiorna la soluzione x in modo da garantire che la f(x) decresca, fino al raggiungimento di un minimo locale. I metodi di ordine 0 utilizzano il calcolo della sola f(x) per studiarne l andamento locale e scegliere l aggiornamento della soluzione facili da implementare, lenti nella convergenza. I metodi di ordine utilizzano anche il gradiente per studiare l andamento locale della soluzione discretamente complessi, velocità di convergenza media. I metodi di ordine utilizzano anche l hessiano per descrivere con maggior cura l andamento locale della soluzione (funzione surrogato ) e minimizzano ad ogni iterazione la funzione surrogato invece della f(x) il calcolo dell hessiano è complesso, velocità di convergenza alta. 6/58 8
9 inimizzazione: Expectation- aximization Expectation-aximization: un algoritmo di massimizzazione della verosimiglianza per modelli con variabili latenti. Si consideri un problema di massimizzazione della verosimiglianza (es. stima delle due rette). Tale problema ha una formulazione complessa, ma Se vengono inserite alcune variabili nascoste nel modello, la formulazione matematica del problema può essere semplificata. 7/58 inimizzazione: Expectation- aximization Sia θ il vettore dei parametri del modello da stimare; Scriviamo la verosimiglianza del problema introducendo delle variabili nascoste, Z, oltre alle variabili misurate, Y: ln [ p( Y θ )] ln p( Y, Z θ ) = Z 8/58 9
10 inimizzazione: Expectation- aximization el caso della stima delle due rette Cosa succederebbe se ci fosse data l appartenenza di una misura yi all una o all altra retta? In tal caso il problema si ridurrebbe a due semplici problemi di stima di retta ai minimi quadrati. Per formulare E, introduciamo delle variabili nascoste Z che descrivono l appartenenza di una misura yi alla retta o alla retta. 9/58 inimizzazione: Expectation- aximization Dal momento che le variabili nascoste non sono note, devono essere stimate a partire dai dati. Utilizzando il teorema di Bayes, e considerando un vettore di parametri stimato θ, possiamo stimare le probabilità delle Z, p(z Y, θ ). 0/58 0
11 inimizzazione: Expectation- aximization Stimiamo le variabili nascoste per il problema di stima delle due rette. Dal teorema di Bayes: Probabilità che sia stata la retta J- esima a generare il dato y p ( J y) Probabilità del dato y quando generato dalla componente J = p ( y J ) p( J ) p( y) Probabilità della componente J Probabilità del dato y /58 inimizzazione: Expectation- aximization Specificando per nostro caso: p ( J yi) = P p p ( yi) P ( yi) + P p ( yi) La p( yi) descrive il grado di appartenenza del dato yi alla retta. All iterazione k-esima, può essere calcolato con i parametri m, m dell iterazione stessa. /58
12 inimizzazione: Expectation- aximization Ciò consente di costruire la funzione di Expectation, che verrà massimizzata ad ogni passo si richiede di massimizzare la media su Z della funzione di verosimiglianza: aximization θ Q = arg maxθ Q( θ, θ ) ( θ, θ ) = { p( Z Y, θ ) ln[ p( Y, Z θ )]} Z Expectation 3/58 inimizzazione: Expectation- aximization Scriviamo il passo di maximization per il problema di stima delle due rette: Q( θ, θ ) = { p( Z Y, θ ) ln[ p( Y, Z θ )]} Z { p( Z Y, m, m ) ln[ p( Y, Z m, m) ]} Z Costante, calcolata nella fase di Expectation K(yi,) 4/58
13 inimizzazione: Expectation- aximization Q = = = i= = i= = i= = k k k ( yi, ) ln p ( yi) [ ] = k( yi, ) i= = ( yi, ) ln + k( yi, ) πσ πσ i= = σ ( yi, ) ln k( yi, ) ( yi m xi) i= = yi m xi σ ln e = πσ yi m xi = σ 5/58 inimizzazione: Expectation- aximization Cerchiamo allora il massimo di Q (aximization) per avere l aggiornamento della soluzione: Q = m m i = 0 σ m = σ m = σ = σ i= i= = = i= i= = πσ k( yi, ) ln k( yi, ) ( yi m xi) k( yi, ) ( yi m xi) k( yi, ) ( yi m xi) k( yi, ) ( yi m xi) ( xi) k( yi, ) ( yi m xi) ( xi) = σ = = i= = = 6/58 3
14 inimizzazione: Expectation- aximization Ponendo la derivata di Q uguale a zero Q = k( yi, ) ( yi m xi) ( xi) = 0 m k( yi, ) ( yi m xi) ( xi) i= k( yi, ) ( yi xi) m k( yi, ) ( xi ) i= m = σ k( yi, ) ( yi xi) i= k( yi, ) ( xi ) i= i= i= = 0 = 0 Otteniamo le equazioni di aggiornamento per i parametri del modello secondo E. 7/58 inimizzazione: Expectation- aximization Analizzando la funzione di aggiornamento per E m i= = k i= ( yi, ) ( yi xi) k ( yi, ) ( xi ) I parametri vengono aggiornati secondo uno schema ai minimi quadrati pesati dai fattori k(yi,) che descrivono l appartenenza di un dato alla retta o alla retta. Vedere anche codice atlab 8/58 4
15 inimizzazione: Expectation- aximization Discorso al limite per interpretare E Si assegna un punto alla retta o alla retta sulla base della distanza dalle due rette (expectation); Si risolvono i due problemi di stima ai minimi quadrati (facili! - maximization); Si itera fino a convergenza ell E reale l assegnazione è soft invece che hard. Vedere anche codice atlab 9/58 inimizzazione: Expectation- aximization 30/58 5
16 inimizzazione: Expectation- aximization 3/58 inimizzazione: Expectation- aximization 3/58 6
17 inimizzazione: Expectation- aximization (riassunto) La funzione di verosimiglianza può portare ad una minimizzazione complessa; Introducendo delle variabili nascoste Z nel modello la formulazione può essere semplificata; Il valore delle variabili nascoste Z viene calcolato con il teorema di Bayes nella fase di costruzione della funzione di Expectation; el passo di aximization, si massimizza la media su Z della verosimiglianza. 33/58 inimizzazione: Expectation- aximization (riassunto e ) Derivazione rigorosa di E: el passo di expectation si costruisce un lower bound per la funzione di verosimiglianza (upper bound per Log(L)); el passo di maximization si massimizza il lower bound; Per approfondire: Cristopher. Bishop, Pattern Recognition and achine Learning, Capitolo /58 7
18 inimizzazione: Expectation- aximization (riassunto e ) f(x) Funzione di expectation Q f(x 0 ) [upper bound di f(x)] aximization step f(x ) x x 0 35/58 x ixture models: introduzione La funzione di verosimiglianza permette di stimare i parametri incogniti di una distribuzione (es. media e varianza di una gaussiana); ei casi reali, la densità di probabilità può essere complessa a piacere; In particolare, si può considerare una combinazione lineare (mixture) di variabili casuali mixture models 36/58 8
19 ixture models: introduzione In un mixture model, la d.d.p. complessiva è la combinazione lineare di d.d.p. di base. Probabilità del dato x nella J-esima distribuzione ddp complessiva p( x) = = = p θ ( x ) P( ) P( ) = ; 0 <= P( ) <= ; Probabilità che il dato x provenga dalla J-esima distribuzione p θ ( x ) = 37/58 ixture models: introduzione (incognite) p( x) = p ( x = θ ) P( ) Dati La d.d.p. complessiva, p(x), viene misurata. La forma delle d.d.p. di base, p q (x ), viene scelta a priori (es. gaussiana). Incognite I parametri θ di ogni d.d.p. di base, p θ (x ), devono essere stimati. Le probabilità per ogni d.d.p. di base, P(), devono essere stimate. 38/58 9
20 ixture models: introduzione Per la stima del vettore dei parametri θ viene utilizzato L approccio alla massima verosimiglianza. ixture model: p(x) = Σ =.. p θ (x ) P() Likelihood function: L = L (θ) = p(x θ) p(x θ) p(x D θ); egative log likelihood function: E = E (θ) = -log(l) = -Σ i=..d log [p(x i θ)] = = Σ i=..d log [Σ =.. p θ (x i )P()] 39/58 ixture models: introduzione (riassunto) ixture models: una combinazione lineare di densità di probabilità utilizzata per descrivere la densità di probabilità degli elementi di un vettore di dati misurato. Le incognite sono i parametri di ogni ddp del mixture e la probabilità di ogni singola componente del mixture. I parametri vengono calcolati massimizzando la funzione di verosimiglianza. 40/58 0
21 ixture models: segmentazione I(x,y) immagine Row x Col, 8 bit (56 livelli di grigio g); Hist( ) istogramma, 56 componenti; Hist(g) # pixel t.c. I(x,y)=g; Hist(g) / (Row * Col) = p(g). ddp Solo 4 livelli di grigio I(x,y) Hist(g) = #pixel 4/58 g ixture models: segmentazione Background Bone tissue Bone tissue Soft tissue Soft tissue Background Istogramma tipico immagine radiografica cefalometrica p(g) easured histogram Background Soft tissue 4/58 Bone tissue g
22 ixture models: segmentazione p(g) easured histogram Background Soft tissue Bone tissue g Livelli di grigio diversi identificano tessuti diversi (soglia segmentazione). 43/58 ixture models: segmentazione p(g) easured histogram Soft tissue Bone tissue g Pixel classificati erroneamente 44/58
23 ixture models: segmentazione L istogramma di una radiografia cefalometrica è composto da tre componenti principali; Il problema di segmentazione dell immagine si presta ad essere trattato con un approccio tipo mixture model; Ogni componente del mixture model sarà responsabile rispettivamente della generazione dei dati relativi a background, soft tissue e bone tissue; assimizzazione della verosimiglianza: E (massimizzazione di lower bound). 45/58 ixture models: segmentazione Funzione da minimizzare (incognita θ): E = ln n n ( L) = ln pϑ ( x ) = ln pϑ ( x ) n= n= E Per ogni iterazione, i parametri vengono aggiornati (, indice θ omesso): E = n= ln p ( ) ( ) ( ) n n n p x x ln p x = ln n n= n= p ( x ) 46/58 3
24 E ixture models: segmentazione ( ) ( ) ( ) n = n n p x E ln p x ln p x = ln n n= n= n= p ( x ) Ricordando che: p ( x) = P( ) p( x ) = Si ottiene: E E = ln P n ( ) p ( x ) n p ( x ) P n = = P n ( x ) n ( x ) 47/58 ixture models: segmentazione La disuguaglianza di Jensen dice che: dati λ t. c. λ = ln λ K = ln λ K = = = λ ln ( K ) = λ ln ( K ) 48/58 4
25 ixture models: segmentazione = n λ = P ( x ) =, n = Jensen ixture model E possibile applicare la disuguaglianza di Jensen ai mixture model, ove i P ( x n ) giocano il ruolo dei λ. 49/58 ixture models: segmentazione Applicando Jensen: ln = λ K = λ ln ( K ) E E = ln P n ( ) p ( x ) n p ( x ) P n= = P n ( x ) n ( x ) 50/58 5
26 ixture models: segmentazione E E = ln P n ( ) p ( x ) n p ( x ) P n= = P n ( x ) n ( x ) P n n P ( ) ( ) p ( x ) x ln n n p ( x ) P ( x ) = 5/58 E ixture models: segmentazione E n n n P ( ) ( ) p ( x ) x ln n n p ( x ) P ( x ) P = = E E + Q inimizzando Q si minimizza E! P (x n ), P ( x n ) costanti dunque Q = Q (θ )! 5/58 6
27 ~ Q ixture models: segmentazione Eliminando i termini costanti () nella somma (! trasf. Logaritmica!), è sufficiente minimizzare ad ogni iterazione: = = P n= = P Tenendo inoltre conto del fatto che: n ( x ) =, n n n ( x ) ln{ P ( ) p ( x ) } 53/58 ixture models: segmentazione Si minimizza allora (metodo dei moltiplicatori di Lagrange): ~ f = Q + ψ P = Vincolo Cioè: f = 0 μ f = 0 σ f = 0 P ( ) f = 0 (vincolo) A.A. ψ ( ) 54/58 Da questo sistema possono essere ricavate le equazioni per l aggiornamento dei parametri del mixture model ad ogni iterazione. 7
28 ixture models: segmentazione Aggiornamento P(): P n ( ) = P ( x ) n= el caso di ddp gaussiane: n n P ( x ) x n= μ = ( σ ) n P ( x ) n= P n= = n= n n ( x )( x μ ) P n ( x ) 55/58 ixture models: segmentazione 56/58 8
29 Risultato (bone tissue) Clusterizzazione immagine in 3 zone (background, soft tissue, bone tissue). 57/58 Bibliografia Cristopher. Bishop, Pattern Recognition and achine Learning, Capitolo.3.9 (mixture di gaussiane), Capitolo 9., 9., 9.3 (K-means, mixture models, E). I. Frosio, G. Ferrigno,. A. Borghese, Enhancing Digital Cephalic Radiography with ixture odel and Local Gamma Correction, IEEE Transaction on edical Imaging, Vol. 5, o., Jan. 006, pp. 3- (mixture models e radiografia cefalometrica). Poul Erik Frandsen, Kristian Jonasson, Hans Bruun ielsen, Ole Tingleff, Unconstrained Optimization, disponibile in rete, algoritmi di minimizzazione (approfondimento). Cristopher. Bishop, Pattern Recognition and achine Learning, Capitolo 9.4, E come minimizzazione di un lower bound (approfondimento). 58/58 9
30 59/58 30
A.A /49 frosio\
Expectation Maximization I. Frosio A.A. 009-00 /49 http:\\homes.dsi.unimi.it\ frosio\ Overview Stima di due rette (riassunto) Minimizzazione: metodi di ordine zero (simplesso, ) Minimizzazione: i i i metodi
DettagliExpectation Maximization
Expectation Maximization I. Frosio A.A. 010-011 1/54 http:\\homes.dsi.unimi.it\frosio\ Overview Stima di due rette (riassunto) Minimizzazione: metodi di ordine zero (simplesso, ) Minimizzazione: metodi
DettagliIL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA
Metodi per l Analisi dei Dati Sperimentali AA009/010 IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Sommario Massima Verosimiglianza Introduzione La Massima Verosimiglianza Esempio 1: una sola misura sperimentale
DettagliComputazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità)
Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliComputazione per l interazione naturale: clustering e riduzione di dimensionalità
Computazione per l interazione naturale: clustering e riduzione di dimensionalità Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliMinimi quadrati e massima verosimiglianza
Minimi quadrati e massima verosimiglianza 1 Introduzione Nella scorsa lezione abbiamo assunto che la forma delle probilità sottostanti al problema fosse nota e abbiamo usato gli esempi per stimare i parametri
DettagliUniversità della Calabria
Università della Calabria FACOLTA DI INGEGNERIA Corso di Laurea in Ingegneria Civile CORSO DI IDROLOGIA N.O. Prof. Pasquale Versace SCHEDA DIDATTICA N 3 CURVE DI PROBABILITÀ PLUVIOMETRICA A.A. 00- CURVE
DettagliCenni di apprendimento in Reti Bayesiane
Sistemi Intelligenti 216 Cenni di apprendimento in Reti Bayesiane Esistono diverse varianti di compiti di apprendimento La struttura della rete può essere nota o sconosciuta Esempi di apprendimento possono
DettagliComputazione per l interazione naturale: Regressione probabilistica
Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html
DettagliComputazione per l interazione naturale: Regressione probabilistica
Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2018.html
DettagliStatistica 2. Esercitazioni. Dott. Luigi Augugliaro 1. Università di Palermo
Statistica 2 Esercitazioni Dott. L 1 1 Dipartimento di Scienze Statistiche e Matematiche S. Vianelli, Università di Palermo ricevimento: lunedì ore 15-17 mercoledì ore 15-17 e-mail: luigi.augugliaro@unipa.it
DettagliMetodi Numerici con elementi di Programmazione (A.A )
Metodi Numerici con elementi di Programmazione (A.A. 2013-2014) Metodi Numerici Appunti delle lezioni: Approssimazione di dati e funzioni Approssimazione ai minimi quadrati Docente Vittoria Bruni Email:
DettagliUniversità di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A
Università di Siena Teoria della Stima Lucidi del corso di A.A. 2002-2003 Università di Siena 1 Indice Approcci al problema della stima Stima parametrica Stima bayesiana Proprietà degli stimatori Stime
Dettagli5. Analisi dei dati di input
Anno accademico 2007/08 Analisi e scelta dei dati di input Per l esecuzione di una simulazione è necessario disporre di dati di input che siano una adeguata rappresentazione di ciò che accadrà in realtà
DettagliPrima prova in Itinere Ist. Mat. 1, Prima parte, Tema ALFA COGNOME: NOME: MATR.:
Prima prova in Itinere Ist. Mat. 1, Prima parte, Tema ALFA 1) L applicazione lineare f : R 3 R 2 data da f(x, y, z) = (3x + 2y + z, kx + 2y + kz) è suriettiva A: sempre; B: mai; C: per k 1 D: per k 2;
DettagliRegressione Lineare e Regressione Logistica
Regressione Lineare e Regressione Logistica Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: stefano.gualandi@unipv.it @famo2spaghi http://stegua.github.com 1 Introduzione
DettagliUniversità di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti
Università di Siena Corso di STATISTICA Parte seconda: Teoria della stima Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Master E 2 C Centro per lo Studio dei Sistemi Complessi Università di
Dettagli1 Fit di dati sperimentali: il χ 2. Il metodo dei minimi quadrati.
1 Fit di dati sperimentali: il χ 2. Il metodo dei minimi quadrati. Per comprendere dei fenomeni fisici, non basta raccogliere buoni dati sperimentali, occorre anche interpretarli. Molto spesso lo scopo
Dettagli7.9 Il caso vincolato: vincoli di disuguaglianza
7.9 Il caso vincolato: vincoli di disuguaglianza Il problema con vincoli di disuguaglianza: g i (x) 0, i = 1,..., p, (51) o, in forma vettoriale: g(x) 0, può essere trattato basandosi largamente su quanto
DettagliMassimi e minimi vincolati
Massimi e minimi vincolati Vedremo tra breve un metodo per studiare il problema di trovare il minimo e il massimo di una funzione su di un sottoinsieme dello spazio ambiente che non sia un aperto. Abbiamo
DettagliApprendimento Automatico
Apprendimento Automatico Metodi Bayesiani Fabio Aiolli 11 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 11 Dicembre 2017 1 / 19 Metodi Bayesiani I metodi Bayesiani forniscono tecniche computazionali
Dettagli01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I
01CXGBN Trasmissione numerica parte 6: calcolo delle probabilità I 1 Probabilità di errore BER e SER Per rappresentare la bontà di un sistema di trasmissione numerica in termini di probabilità di errore
DettagliMATEMATICA CORSO A II COMPITINO (Tema 1) 5 Aprile 2013
MATEMATICA CORSO A II COMPITINO (Tema 1) 5 Aprile 2013 Soluzioni 1. Due sperimentatori hanno rilevato rispettivamente 25 e 5 misure di una certa grandezza lineare e calcolato le medie che sono risultate
DettagliSistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese
Sistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese Università degli Studi di Milano Laboratory of Applied Intelligent Systems (AIS-Lab) Dipartimento di Informatica borghese@di.unimi.it
DettagliAnalisi e scelta dei dati di input
Analisi e scelta dei dati di input Corso di Tecniche di Simulazione, a.a. 2005/2006 Francesca Mazzia Dipartimento di Matematica Università di Bari 24 Aprile 2006 Francesca Mazzia (Univ. Bari) Analisi e
DettagliDerivazione numerica. Introduzione al calcolo numerico. Derivazione numerica (II) Derivazione numerica (III)
Derivazione numerica Introduzione al calcolo numerico Il calcolo della derivata di una funzione in un punto implica un processo al limite che può solo essere approssimato da un calcolatore. Supponiamo
DettagliStatistica Applicata all edilizia: Stime e stimatori
Statistica Applicata all edilizia E-mail: orietta.nicolis@unibg.it 15 marzo 2011 Statistica Applicata all edilizia: Indice 1 2 Statistica Applicata all edilizia: Uno dei problemi principali della statistica
DettagliEsercizi di Ricapitolazione
Esercizio 1. Sono dati 150 g di una soluzione S 1 concentrata al 12%. (a) Determinare quanti grammi di soluto occorre aggiungere a S 1 per ottenere una nuova soluzione S 2 concentrata al 20%. (b) Determinare
Dettagli3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI
3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI ESISTENZA DI UN PUNTO DI OTTIMO VINCOLATO Il problema di ottimizzazione vincolata introdotto nel paragrafo precedente può essere formulato nel modo seguente:
DettagliStima dei Parametri. Capitolo 8
Capitolo 8 Stima dei Parametri Lo scopo dello studio dei fenomeni fisici è quello di scoprire le leggi che legano le grandezze oggetto di indagine e di misurare il valore delle costanti che compaiono della
DettagliClustering. Introduzione Definizioni Criteri Algoritmi. Clustering Gerarchico
Introduzione Definizioni Criteri Algoritmi Gerarchico Centroid-based K-means Fuzzy K-means Expectation Maximization (Gaussian Mixture) 1 Definizioni Con il termine (in italiano «raggruppamento») si denota
DettagliAPPLICAZIONE DELLA DEVIATA GAUSSIANA STANDARD
APPLICAZIONE DELLA DEVIATA GAUSSIANA STANDARD In una popolazione di ragazze di età inclusa tra i 18 e i 25 anni, la concentrazione di emoglobina nel sangue (x) approssima la distribuzione gaussiana con
DettagliNel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0.
Regressione [] el modello di regressione lineare si assume una relazione di tipo lineare tra il valore medio della variabile dipendente Y e quello della variabile indipendente X per cui Il modello si scrive
DettagliLa likelihood. , x 2. } sia prodotto a partire dal particolare valore di a: ; a... f x N. La probabilità che l'i ma misura sia compresa tra x i
La likelihood E' dato un set di misure {x 1, x 2, x 3,...x N } (ciascuna delle quali puo' essere multidimensionale) Supponiamo che la pdf (f) dipenda da un parametro a (anch'esso eventualmente multidimensionale)
DettagliARGOMENTI TRATTATI NEL CORSO DI ANALISI II
ARGOMENTI TRATTATI NEL CORSO DI ANALISI II ANALISI Limiti Curve Convergenza di una successione di punti Definizione di limite Condizione necessaria e condizione sufficiente all esistenza del limite in
DettagliVideo Analysis (cenni) Annalisa Franco
1 Video Analysis (cenni) Annalisa Franco annalisa.franco@unibo.it http://bias.csr.unibo.it/vr/ 2 Visual motion Un video è una sequenza di frame catturati nel corso del tempo Il valori dell immagine sono
DettagliMetodo dei Minimi Quadrati. Dott. Claudio Verona
Metodo dei Minimi Quadrati Dott. Claudio Verona E in generale interessante studiare l andamento di una variabile in funzione di un altra e capire se c è una funzione matematica che le lega. Viceversa è
DettagliIl metodo delle osservazioni indirette
Il metodo delle osservazioni indirette Teoria della stima ai minimi quadrati Il criterio di massima verosimiglianza Sia data una grandezza η e si abbiano n osservazioni indipendenti l i (i=1,...,n) di
Dettagli1) Applicando la definizione di derivata, calcolare la derivata in x = 0 delle funzioni: c) x + 1 d)x sin x.
Funzioni derivabili Esercizi svolti 1) Applicando la definizione di derivata, calcolare la derivata in x = 0 delle funzioni: a)2x 5 b) x 3 x 4 c) x + 1 d)x sin x. 2) Scrivere l equazione della retta tangente
DettagliEsercitazioni di Matematica
Università degli Studi di Udine Anno Accademico 009/00 Facoltà di Agraria Corsi di Laurea in VIT e STAL Esercitazioni di Matematica novembre 009 Trovare le soluzioni della seguente disequazione: x + +
DettagliValutazione incertezza di categoria B
Valutazione incertezza di categoria B La valutazione consiste nell assegnare alla grandezza x uno scarto tipo σ in base alle informazioni disponibili Le informazioni riguardano: ) Gli estremi dell intervallo
DettagliAppunti sul corso di Complementi di Matematica mod. Analisi prof. B.Bacchelli - a.a. 2010/2011.
Appunti sul corso di Complementi di Matematica mod. Analisi prof. B.Baccelli - a.a. 2010/2011. 06 - Derivate, differenziabilità, piano tangente, derivate di ordine superiore. Riferimenti: R.Adams, Calcolo
DettagliLezione 13 Corso di Statistica. Domenico Cucina
Lezione 13 Corso di Statistica Domenico Cucina Università Roma Tre D. Cucina (domenico.cucina@uniroma3.it) 1 / 20 obiettivi della lezione comprendere il concetto di variabile aleatoria continua familiarizzare
DettagliEsercitazioni di Statistica
Esercitazioni di Statistica Stima Puntuale Prof. Livia De Giovanni statistica@dis.uniroma.it Esercizio In ciascuno dei casi seguenti determinare quale tra i due stimatori S e T per il parametro θ è distorto
DettagliPolinomio di Taylor del secondo ordine per funzioni di due variabili
Esercitazioni del 15 aprile 2013 Polinomio di Taylor del secondo ordine per funzioni di due variabili Sia f : A R 2 R una funzione di classe C 2. Fissato un p unto (x 0, y 0 A consideriamo il seguente
DettagliApprendimento Automatico
Apprendimento Automatico Metodi Bayesiani - Naive Bayes Fabio Aiolli 13 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 13 Dicembre 2017 1 / 18 Classificatore Naive Bayes Una delle tecniche più semplici
DettagliGenerazione di variabili aleatorie con distribuzione non uniforme. Daniela Picin
Generazione di variabili aleatorie con distribuzione non uniforme Daniela Picin A partire da una sequenza di numeri random u k ~ U(0,1) opportunamente generati, alcuni dei metodi per la generazione di
DettagliLezione 7 Metodo dei Minimi Quadra1
Lezione 7 Metodo dei Minimi Quadra1 S1matori di Minimi Quadra1 q Supponiamo di misurare due variabili casuali X e Y: ad ogni valore di X misuro il valore di Y. Per esempio negli istan1 x 1, x 2,, x n misuro
DettagliTecniche di riconoscimento statistico
On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 2 Teoria della decisione Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr
Dettagli1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano
Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una
DettagliTeoria delle Decisioni Bayesiana
Laurea Magistrale in Informatica Nicola Fanizzi Dipartimento di Informatica Università degli Studi di Bari 14 gennaio 2009 Sommario Introduzione Teoria delle decisioni Bayesiana - nel continuo Classificazione
DettagliLaboratorio di Calcolo Numerico
Laboratorio di Calcolo Numerico M.R. Russo Università degli Studi di Padova Dipartimento di Matematica Pura ed Applicata A.A. 2009/2010 Equazioni non lineari Data una funzione consideriamo il problema
DettagliMatematica II prof. C.Mascia
Corso di laurea in CHIMICA INDUSTRIALE Sapienza, Università di Roma Matematica II prof CMascia alcuni esercizi, parte, 7 marzo 25 Indice Testi degli esercizi 2 Svolgimento degli esercizi 4 Testi degli
DettagliEsercitazione del
Esercizi sulla regressione lineare. Esercitazione del 21.05.2013 Esercizio dal tema d esame del 13.06.2011. Si consideri il seguente campione di n = 9 osservazioni relative ai caratteri ed Y: 7 17 8 36
DettagliComplementi di Matematica A.A Laboratorio 10
Complementi di Matematica A.A. 2016-2017 Laboratorio 10 Equazioni non lineari (fzero) Sia f : R R una funzione che ammette una radice α, ovvero t.c. f(α) = 0. Possiamo utilizzare la funzione predefinita
DettagliCenni sui metodi iterativi per sistemi lineari. Analisi Numerica Prof. M. Lucia Sampoli a.a. 2014/2015
Cenni sui metodi iterativi per sistemi lineari Analisi Numerica Prof. M. Lucia Sampoli a.a. 2014/2015 Metodi numerici per sistemi lineari Nei metodi diretti la presenza di eventuali elementi nulli nella
DettagliEsame di Calcolo Numerico per Informatica A.A. 2010/11 Proff. S. De Marchi e M. R. Russo 20 giugno 2011
Esame di Calcolo Numerico per Informatica A.A. 2010/11 Proff. S. De Marchi e M. R. Russo 20 giugno 2011 L esame consiste di 4 domande aperte e 10 esercizi a risposta multipla. Per gli esercizi ci sono
DettagliLe condizioni di Karush-Kuhn-Tucker
Capitolo 9 Le condizioni di Karush-Kuhn-Tucker 9. Introduzione In questo capitolo deriveremo le condizioni necessarie di Karush-Kuhn-Tucker (KKT) per problemi vincolati in cui S è descritto da vincoli
Dettaglilezione n. 6 (a cura di Gaia Montanucci) Verosimiglianza: L = = =. Parte dipendente da β 0 e β 1
lezione n. 6 (a cura di Gaia Montanucci) METODO MASSIMA VEROSIMIGLIANZA PER STIMARE β 0 E β 1 Distribuzione sui termini di errore ε i ε i ~ N (0, σ 2 ) ne consegue : ogni y i ha ancora distribuzione normale,
DettagliElementi di Probabilità e Statistica - 052AA - A.A
Elementi di Probabilità e Statistica - 05AA - A.A. 014-015 Prima prova di verifica intermedia - 9 aprile 015 Problema 1. Dati due eventi A, B, su uno spazio probabilizzato (Ω, F, P), diciamo che A è in
DettagliComplementi di Matematica e Calcolo Numerico A.A Laboratorio 3-24/3/2014
Complementi di Matematica e Calcolo Numerico A.A. 2012-2013 Laboratorio 3-24/3/2014 Equazioni non lineari (fzero) Sia f : R R una funzione che ammette una radice α, ovvero t.c. f(α) = 0. Possiamo utilizzare
DettagliCapitolo 3: Ottimizzazione non vincolata parte II. E. Amaldi DEI, Politecnico di Milano
Capitolo 3: Ottimizzazione non vincolata parte II E. Amaldi DEI, Politecnico di Milano 3.3 Metodi basati su direzioni di ricerca Problema di ottimizzazione non vincolata: min x R n f(x) con f : R n R di
DettagliDistribuzione di densità
Distribuzione di densità Distribuzione di densità in presenza di forze conservative. A F dx A La forza conservativa esterna agisce su ciascuno degli N componenti del gas all interno del volume Adx. La
DettagliEconomia, Corso di Laurea Magistrale in Ing. Elettrotecnica, A.A Prof. R. Sestini SCHEMA DELLE LEZIONI DELLA QUINTA E SESTA SETTIMANA
Economia, Corso di Laurea Magistrale in Ing. Elettrotecnica, A.A. 2013-2014. Prof. R. Sestini SCHEMA DELLE LEZIONI DELLA QUINTA E SESTA SETTIMANA In sintesi, una tecnologia costituisce un insieme di piani
DettagliCapitolo 6. La distribuzione normale
Levine, Krehbiel, Berenson Statistica II ed. 2006 Apogeo Capitolo 6 La distribuzione normale Insegnamento: Statistica Corso di Laurea Triennale in Ingegneria Gestionale Facoltà di Ingegneria, Università
DettagliAnalisi Matematica II Corso di Ingegneria Gestionale Compito del f(x, y) = log 1 + (x y 2 ) x 2.
Analisi Matematica II Corso di Ingegneria Gestionale Compito del 7-7-6 - È obbligatorio consegnare tutti i fogli, anche la brutta. - Le risposte senza giustificazione sono considerate nulle. Esercizio.
DettagliPresentazione dell edizione italiana
1 Indice generale Presentazione dell edizione italiana Prefazione xi xiii Capitolo 1 Una introduzione alla statistica 1 1.1 Raccolta dei dati e statistica descrittiva... 1 1.2 Inferenza statistica e modelli
DettagliA.A Prof. R. Morandi
Svolgimento di alcuni esercizi del corso di Calcolo Numerico A.A. - Prof. R. Morandi Versione in aggiornamento ( gennaio ): ogni segnalazione di imprecisioni è gradita Aritmetica Finita Esercizio : Assegnati
DettagliEsercizi di Ricapitolazione
Esercizio 1. Sono dati 150g di una soluzione S 1 concentrata al 12%. (a) Determinare quanti grammi di soluto occorre aggiungere a S 1 per ottenere una nuova soluzione S 2 concentrata al 20%. (b) Determinare
DettagliTECNICHE DI SIMULAZIONE
TECNICHE DI SIMULAZIONE Analisi e scelta dei dati di input Francesca Mazzia Dipartimento di Matematica Università di Bari a.a. 2004/2005 TECNICHE DI SIMULAZIONE p. 1 Dati di input Per l esecuzione di una
DettagliLa Decisione Statistica Campione aleatorio: risultato dell osservazione di un fenomeno soggetto a fluttuazioni casuali.
La Decisione Statistica Campione aleatorio: risultato dell osservazione di un fenomeno soggetto a fluttuazioni casuali. Analisi del campione: - descrizione sintetica (statistica descrittiva) - deduzione
DettagliCapitolo 6 La distribuzione normale
Levine, Krehbiel, Berenson Statistica Casa editrice: Pearson Capitolo 6 La distribuzione normale Insegnamento: Statistica Corso di Laurea Triennale in Economia Dipartimento di Economia e Management, Università
DettagliRegressione Lineare Semplice e Correlazione
Regressione Lineare Semplice e Correlazione 1 Introduzione La Regressione è una tecnica di analisi della relazione tra due variabili quantitative Questa tecnica è utilizzata per calcolare il valore (y)
DettagliCorso di Analisi Matematica. Polinomi e serie di Taylor
a.a. 2011/12 Laurea triennale in Informatica Corso di Analisi Matematica Polinomi e serie di Taylor Avvertenza Questi sono appunti informali delle lezioni, che vengono resi disponibili per comodità degli
Dettagli25 - Funzioni di più Variabili Introduzione
Università degli Studi di Palermo Facoltà di Economia CdS Statistica per l Analisi dei Dati Appunti del corso di Matematica 25 - Funzioni di più Variabili Introduzione Anno Accademico 2013/2014 M. Tumminello
DettagliEsercizi geometria analitica nello spazio. Corso di Laurea in Informatica. Docente: Andrea Loi. Correzione
Esercizi geometria analitica nello spazio Corso di Laurea in Informatica Docente: Andrea Loi Correzione 1. Denotiamo con P 1, P 13, P 3, P 1, P, P 3, P i simmetrici di un punto P rispetto ai piani coordinati
DettagliLe derivate parziali
Sia f(x, y) una funzione definita in un insieme aperto A R 2 e sia P 0 = x 0, y 0 un punto di A. Essendo A un aperto, esiste un intorno I(P 0, δ) A. Preso un punto P(x, y) I(P 0, δ), P P 0, possiamo definire
DettagliMetodi computazionali per i Minimi Quadrati
Metodi computazionali per i Minimi Quadrati Come introdotto in precedenza si considera la matrice. A causa di mal condizionamenti ed errori di inversione, si possono avere casi in cui il e quindi S sarebbe
DettagliModelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri
Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano
DettagliRisoluzione di sistemi lineari sparsi e di grandi dimensioni
Risoluzione di sistemi lineari sparsi e di grandi dimensioni Un sistema lineare Ax = b con A R n n, b R n, è sparso quando il numero di elementi della matrice A diversi da zero è αn, con n α. Una caratteristica
DettagliDiario delle lezioni di Calcolo e Biostatistica (O-Z) - a.a. 2013/14 A. Teta
Diario delle lezioni di Calcolo e Biostatistica (O-Z) - a.a. 2013/14 A. Teta 1. (1/10 Lu.) Generalità sugli insiemi, operazioni di unione, intersezione e prodotto cartesiano. Insiemi numerici: naturali,
DettagliSistemi Intelligenti I sistemi lineari. Sommario
Sistemi Intelligenti I sistemi lineari Alberto Borghese Università degli Studi di Milano Laboratorio di Sistemi Intelligenti Applicati (AIS-Lab) Dipartimento di Scienze dell Informazione borghese@dsiunimiit
DettagliIstituto d Istruzione Superiore A. Tilgher Ercolano (Na)
Premessa Istituto d Istruzione Superiore A. Tilgher Ercolano (Na) Questa breve trattazione non vuole costituire una guida completa ed esauriente sull argomento, ma vuole fornire solamente i concetti fondamentali
DettagliCorso Integrato di Statistica Informatica e Analisi dei Dati Sperimentali. Esercitazione E
Corso Integrato di Statistica Informatica e Analisi dei Dati Sperimentali A.A 2009-2010 Esercitazione E Scopo dell esercitazione Applicazioni del teorema del limite centrale. Rappresentazione delle incertezze
DettagliSoluzione. Il dominio E consiste nella parte di spazio contenuta nella sfera ma esterna al cono rappresentata in Figura 1. Infatti
Esercizio 1 (G. Ziglio). (6 punti) Calcolare il volume della porzione di spazio E interna alla sfera di equazione x 2 + y 2 + z 2 = 1 ed esterna al cono di equazione z 2 = x 2 + y 2 E = (x, y, z) R x 2
DettagliRiconoscimento e recupero dell informazione per bioinformatica
Riconoscimento e recupero dell informazione per bioinformatica Teoria della decisione di Bayes Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario
DettagliMETODI NUMERICI. Metodo delle differenze finite
METOI NUMERICI Lo sviluppo dei moderni calcolatori ha consentito di mettere a disposizione della scienza e della tecnica formidabili strumenti che hanno permesso di risolvere numerosi problemi la cui soluzione
DettagliCALCOLO NUMERICO Laurea di base in Ingegneria Elettronica, delle Comunicazioni
CALCOLO NUMERICO Laurea di base in Ingegneria Elettronica, delle Comunicazioni Prof.ssa Laura Pezza (A.A. 2017-2018) V Lezione del 15.03.2018 http://www.dmmm.uniroma1.it/ laura.pezza 1 Metodo di Newton:
DettagliEsercizi di ricapitolazione
Esercizio 1. Sono dati 150 g di una soluzione S 1 concentrata al 12%. (a) Determinare quanti grammi di soluto occorre aggiungere a S 1 per ottenere una nuova soluzione S 2 concentrata al 20%. (b) Determinare
DettagliStima puntuale di parametri
Probabilità e Statistica Esercitazioni a.a. 2009/2010 C.d.L.: Ingegneria Elettronica e delle Telecomunicazioni, Ingegneria Informatica Stima puntuale di parametri Ines Campa Probabilità e Statistica -
DettagliIl metodo di Gauss-Newton per le regressioni non-lineari
Il metodo di Gauss-Newton per le regressioni non-lineari Andrea Onofri Dipartimento di Scienze Agrarie ed Ambientali Università degli Studi di Perugia Versione on-line: http://www.unipg.it/ onofri/rtutorial/index.html
DettagliINDICE. XIII Prefazione
INDICE XIII Prefazione Capitolo zero Prerequisiti 3 Unità uno Statistica descrittiva 5 Capitolo uno Statistica descrittiva di base 5 1.1 Tipi di dati in biologia 6 1.2 Sintesi della statistica descrittiva
DettagliIstituzioni di Analisi 2 (programma, domande ed esercizi)
Istituzioni di Analisi programma, domande ed esercizi) nona settimana Argomenti trattati Dal libro di testo: 3. punti critici vincolati), 3.3. estremi assoluti), 0.3. e 0.3. solo la definizione di compatto
DettagliEsperimentazioni di Fisica 1. Prova d esame del 20 febbraio 2018 SOLUZIONI
Esperimentazioni di Fisica 1 Prova d esame del 20 febbraio 2018 SOLUZIONI Esp-1-Soluzioni - - Page 2 of 6 01/02/2018 1. (12 Punti) Quesito. In un esperimento è stata misurata la grandezza Y in funzione
DettagliDistribuzione Normale. Dott. Claudio Verona
Distribuzione Normale Dott. Claudio Verona Rappresentazione di valori ottenuti da misure ripetute Il primo problema che si riscontra nelle misure ripetute più volte è trovare un metodo conveniente per
Dettagli