Algoritmi di minimizzazione EM Mixture models

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Algoritmi di minimizzazione EM Mixture models"

Transcript

1 Algoritmi di minimizzazione E ixture models I. Frosio AIS Lab. frosio@dsi.unimi.it /58 Overview Stima di due rette (riassunto) inimizzazione: metodi di ordine zero (simplesso, ) inimizzazione: metodi di primo ordine (gradiente, ) inimizzazione: metodi di secondo ordine (ewton, ) inimizzazione: Expectation-aximization ixture models: introduzione oxture models: segmentazione di radiografia cefalometrica /58

2 Stima di due rette (riassunto) Si vogliono stimare i coefficienti angolari di due rette passanti per l origine. I dati misurati yi possono provenire dall una o dall altra retta con la stessa probabilità. Sui dati misurati è presente rumore gaussiano con varianza σ. 3/58 Stima di due rette (riassunto) Scriviamo la funzione di verosimiglianza: p G ( yi) = P G( m xi, σ ) + P G( m xi, σ ) ( μ, σ ) = e πσ In pratica un punto yi può provenire dalla retta con probabilità P o dalla retta con probabilità P. In ciascuno dei due casi il punto misurato ha una distribuzione gaussiana centrata sulla retta stessa. x μ σ 4/58

3 Stima di due rette (riassunto) Calcolo il logaritmo negativo della verosimiglianza: f ( m, m) = ln p( yi) = p i= ln ( xi, σ ) i= [ ] = ln[ P G( m xi, σ ) + P G( m xi, σ )] [ P p ( xi, σ ) + P p ( xi, σ )] = e πσ i= x m xi σ on può essere minimizzato analiticamente ponendo le derivate uguali a zero è necessario usare un algoritmo di minimizzazione iterativo. 5/58 inimizzazione: metodi di ordine 0 Strategia di base: Sia f(x) la funzione da minimizzare, x 0 la soluzione di partenza; La soluzione viene perturbata (x k+ =x k +Δx) in modo più meno furbo, testando diverse perturbazioni Δx. Per ogni perturbazione Δx si calcola la f(x k +Δx). Si sceglie la Δx tale per cui la f(x k +Δx) è minima e si aggiorna la soluzione (x k+ =x k +Δx). Esempi: metodo del simplesso, simulated annealing, algoritmi genetici Se si utilizza un metodo di ordine 0 è necessario calcolare la sola f(x). Facile da implementare, bassa velocità di convergenza. 6/58 3

4 f(x) inimizzazione: metodi di ordine 0 f(x 0 ) Soluzioni perturbate x 0 x 7/58 f(x) inimizzazione: metodi di ordine 0 f(x 0 ) Soluzione scelta al passo 0 f(x ) x 0 x x 8/58 4

5 inimizzazione: metodi di ordine Strategia di base: Sia f(x) la funzione da minimizzare, x 0 la soluzione di partenza; Si calcoli il gradiente della f in x k, J(x k ). La soluzione viene aggiornata utilizzando l informazione del gradiente. ell ipotesi più semplice (metodo del gradiente), muovendosi nella direzione opposta rispetto al gradiente (x k+ =x k -α J(x k ).) Esempi: metodo del gradiente, gradiente coniugato, Se si utilizza un metodo di ordine è necessario calcolare la f(x) e J(x). Abbastanza facile da implementare, velocità di convergenza media (dipende dalla strategia adottata). Il parametro scalare α (learning rate) determina la velocità di convergenza e la stabilità del metodo. 9/58 f(x) inimizzazione: metodi di ordine Gradiente, J(x 0 ) f(x 0 ) x 0 x 0/58 5

6 f(x) inimizzazione: metodi di ordine Gradiente, J(x 0 ) f(x 0 ) αj(x 0 ) f(x ) x 0 x x /58 inimizzazione: metodi di ordine el caso del problema delle due rette abbiamo già calcolato le derivate (si veda la lezione precedente). Utilizzando il metodo del gradiente, la soluzione può essere aggiornata come: m ( m, m ) k + k f k = m α = m α m i= P p ( xi) p ( ) ( x m xi ) xi σ xi (Esercizio implementazione atlab del metodo del gradiente confronto con E per vari valori di α) /58 6

7 inimizzazione: metodi di ordine Strategia di base: Sia f(x) la funzione da minimizzare, x 0 la soluzione di partenza; L espansione in serie di Taylor arrestata al ordine di f(x) è la seguente: f(x k +Δx)=f(x k )+J(x k ) (Δx)+/(Δx) T H(x k )(Δx), dove H(x k ) è l Hessiano di f. L espansione in serie di Taylor dà un approssimazione locale della f(x). E possibile minimizzare analiticamente tale approssimazione; il minimo si ottiene derivando e ponendo la derivata uguale a zero (metodo di ewton): J(x k )+H(x k )(Δx)=0 Δx = -H(x k ) - J(x k ) E oneroso calcolare l hessiano, velocità di convergenza alta. 3/58 inimizzazione: metodi di ordine f(x) f(x 0 ) Approssimazione con serie di Taylor della f(x) x 0 x 4/58 7

8 inimizzazione: metodi di ordine f(x) f(x 0 ) Approssimazione con serie di Taylor della f(x) f(x ) x 0 5/58 x x inimizzazione metodi iterativi (riassunto) Quando la funzione da minimizzare è fortemente non lineare, è necessario ricorrere ad un metodo iterativo. Si fanno delle ipotesi sull andamento locale della f(x) e si aggiorna la soluzione x in modo da garantire che la f(x) decresca, fino al raggiungimento di un minimo locale. I metodi di ordine 0 utilizzano il calcolo della sola f(x) per studiarne l andamento locale e scegliere l aggiornamento della soluzione facili da implementare, lenti nella convergenza. I metodi di ordine utilizzano anche il gradiente per studiare l andamento locale della soluzione discretamente complessi, velocità di convergenza media. I metodi di ordine utilizzano anche l hessiano per descrivere con maggior cura l andamento locale della soluzione (funzione surrogato ) e minimizzano ad ogni iterazione la funzione surrogato invece della f(x) il calcolo dell hessiano è complesso, velocità di convergenza alta. 6/58 8

9 inimizzazione: Expectation- aximization Expectation-aximization: un algoritmo di massimizzazione della verosimiglianza per modelli con variabili latenti. Si consideri un problema di massimizzazione della verosimiglianza (es. stima delle due rette). Tale problema ha una formulazione complessa, ma Se vengono inserite alcune variabili nascoste nel modello, la formulazione matematica del problema può essere semplificata. 7/58 inimizzazione: Expectation- aximization Sia θ il vettore dei parametri del modello da stimare; Scriviamo la verosimiglianza del problema introducendo delle variabili nascoste, Z, oltre alle variabili misurate, Y: ln [ p( Y θ )] ln p( Y, Z θ ) = Z 8/58 9

10 inimizzazione: Expectation- aximization el caso della stima delle due rette Cosa succederebbe se ci fosse data l appartenenza di una misura yi all una o all altra retta? In tal caso il problema si ridurrebbe a due semplici problemi di stima di retta ai minimi quadrati. Per formulare E, introduciamo delle variabili nascoste Z che descrivono l appartenenza di una misura yi alla retta o alla retta. 9/58 inimizzazione: Expectation- aximization Dal momento che le variabili nascoste non sono note, devono essere stimate a partire dai dati. Utilizzando il teorema di Bayes, e considerando un vettore di parametri stimato θ, possiamo stimare le probabilità delle Z, p(z Y, θ ). 0/58 0

11 inimizzazione: Expectation- aximization Stimiamo le variabili nascoste per il problema di stima delle due rette. Dal teorema di Bayes: Probabilità che sia stata la retta J- esima a generare il dato y p ( J y) Probabilità del dato y quando generato dalla componente J = p ( y J ) p( J ) p( y) Probabilità della componente J Probabilità del dato y /58 inimizzazione: Expectation- aximization Specificando per nostro caso: p ( J yi) = P p p ( yi) P ( yi) + P p ( yi) La p( yi) descrive il grado di appartenenza del dato yi alla retta. All iterazione k-esima, può essere calcolato con i parametri m, m dell iterazione stessa. /58

12 inimizzazione: Expectation- aximization Ciò consente di costruire la funzione di Expectation, che verrà massimizzata ad ogni passo si richiede di massimizzare la media su Z della funzione di verosimiglianza: aximization θ Q = arg maxθ Q( θ, θ ) ( θ, θ ) = { p( Z Y, θ ) ln[ p( Y, Z θ )]} Z Expectation 3/58 inimizzazione: Expectation- aximization Scriviamo il passo di maximization per il problema di stima delle due rette: Q( θ, θ ) = { p( Z Y, θ ) ln[ p( Y, Z θ )]} Z { p( Z Y, m, m ) ln[ p( Y, Z m, m) ]} Z Costante, calcolata nella fase di Expectation K(yi,) 4/58

13 inimizzazione: Expectation- aximization Q = = = i= = i= = i= = k k k ( yi, ) ln p ( yi) [ ] = k( yi, ) i= = ( yi, ) ln + k( yi, ) πσ πσ i= = σ ( yi, ) ln k( yi, ) ( yi m xi) i= = yi m xi σ ln e = πσ yi m xi = σ 5/58 inimizzazione: Expectation- aximization Cerchiamo allora il massimo di Q (aximization) per avere l aggiornamento della soluzione: Q = m m i = 0 σ m = σ m = σ = σ i= i= = = i= i= = πσ k( yi, ) ln k( yi, ) ( yi m xi) k( yi, ) ( yi m xi) k( yi, ) ( yi m xi) k( yi, ) ( yi m xi) ( xi) k( yi, ) ( yi m xi) ( xi) = σ = = i= = = 6/58 3

14 inimizzazione: Expectation- aximization Ponendo la derivata di Q uguale a zero Q = k( yi, ) ( yi m xi) ( xi) = 0 m k( yi, ) ( yi m xi) ( xi) i= k( yi, ) ( yi xi) m k( yi, ) ( xi ) i= m = σ k( yi, ) ( yi xi) i= k( yi, ) ( xi ) i= i= i= = 0 = 0 Otteniamo le equazioni di aggiornamento per i parametri del modello secondo E. 7/58 inimizzazione: Expectation- aximization Analizzando la funzione di aggiornamento per E m i= = k i= ( yi, ) ( yi xi) k ( yi, ) ( xi ) I parametri vengono aggiornati secondo uno schema ai minimi quadrati pesati dai fattori k(yi,) che descrivono l appartenenza di un dato alla retta o alla retta. Vedere anche codice atlab 8/58 4

15 inimizzazione: Expectation- aximization Discorso al limite per interpretare E Si assegna un punto alla retta o alla retta sulla base della distanza dalle due rette (expectation); Si risolvono i due problemi di stima ai minimi quadrati (facili! - maximization); Si itera fino a convergenza ell E reale l assegnazione è soft invece che hard. Vedere anche codice atlab 9/58 inimizzazione: Expectation- aximization 30/58 5

16 inimizzazione: Expectation- aximization 3/58 inimizzazione: Expectation- aximization 3/58 6

17 inimizzazione: Expectation- aximization (riassunto) La funzione di verosimiglianza può portare ad una minimizzazione complessa; Introducendo delle variabili nascoste Z nel modello la formulazione può essere semplificata; Il valore delle variabili nascoste Z viene calcolato con il teorema di Bayes nella fase di costruzione della funzione di Expectation; el passo di aximization, si massimizza la media su Z della verosimiglianza. 33/58 inimizzazione: Expectation- aximization (riassunto e ) Derivazione rigorosa di E: el passo di expectation si costruisce un lower bound per la funzione di verosimiglianza (upper bound per Log(L)); el passo di maximization si massimizza il lower bound; Per approfondire: Cristopher. Bishop, Pattern Recognition and achine Learning, Capitolo /58 7

18 inimizzazione: Expectation- aximization (riassunto e ) f(x) Funzione di expectation Q f(x 0 ) [upper bound di f(x)] aximization step f(x ) x x 0 35/58 x ixture models: introduzione La funzione di verosimiglianza permette di stimare i parametri incogniti di una distribuzione (es. media e varianza di una gaussiana); ei casi reali, la densità di probabilità può essere complessa a piacere; In particolare, si può considerare una combinazione lineare (mixture) di variabili casuali mixture models 36/58 8

19 ixture models: introduzione In un mixture model, la d.d.p. complessiva è la combinazione lineare di d.d.p. di base. Probabilità del dato x nella J-esima distribuzione ddp complessiva p( x) = = = p θ ( x ) P( ) P( ) = ; 0 <= P( ) <= ; Probabilità che il dato x provenga dalla J-esima distribuzione p θ ( x ) = 37/58 ixture models: introduzione (incognite) p( x) = p ( x = θ ) P( ) Dati La d.d.p. complessiva, p(x), viene misurata. La forma delle d.d.p. di base, p q (x ), viene scelta a priori (es. gaussiana). Incognite I parametri θ di ogni d.d.p. di base, p θ (x ), devono essere stimati. Le probabilità per ogni d.d.p. di base, P(), devono essere stimate. 38/58 9

20 ixture models: introduzione Per la stima del vettore dei parametri θ viene utilizzato L approccio alla massima verosimiglianza. ixture model: p(x) = Σ =.. p θ (x ) P() Likelihood function: L = L (θ) = p(x θ) p(x θ) p(x D θ); egative log likelihood function: E = E (θ) = -log(l) = -Σ i=..d log [p(x i θ)] = = Σ i=..d log [Σ =.. p θ (x i )P()] 39/58 ixture models: introduzione (riassunto) ixture models: una combinazione lineare di densità di probabilità utilizzata per descrivere la densità di probabilità degli elementi di un vettore di dati misurato. Le incognite sono i parametri di ogni ddp del mixture e la probabilità di ogni singola componente del mixture. I parametri vengono calcolati massimizzando la funzione di verosimiglianza. 40/58 0

21 ixture models: segmentazione I(x,y) immagine Row x Col, 8 bit (56 livelli di grigio g); Hist( ) istogramma, 56 componenti; Hist(g) # pixel t.c. I(x,y)=g; Hist(g) / (Row * Col) = p(g). ddp Solo 4 livelli di grigio I(x,y) Hist(g) = #pixel 4/58 g ixture models: segmentazione Background Bone tissue Bone tissue Soft tissue Soft tissue Background Istogramma tipico immagine radiografica cefalometrica p(g) easured histogram Background Soft tissue 4/58 Bone tissue g

22 ixture models: segmentazione p(g) easured histogram Background Soft tissue Bone tissue g Livelli di grigio diversi identificano tessuti diversi (soglia segmentazione). 43/58 ixture models: segmentazione p(g) easured histogram Soft tissue Bone tissue g Pixel classificati erroneamente 44/58

23 ixture models: segmentazione L istogramma di una radiografia cefalometrica è composto da tre componenti principali; Il problema di segmentazione dell immagine si presta ad essere trattato con un approccio tipo mixture model; Ogni componente del mixture model sarà responsabile rispettivamente della generazione dei dati relativi a background, soft tissue e bone tissue; assimizzazione della verosimiglianza: E (massimizzazione di lower bound). 45/58 ixture models: segmentazione Funzione da minimizzare (incognita θ): E = ln n n ( L) = ln pϑ ( x ) = ln pϑ ( x ) n= n= E Per ogni iterazione, i parametri vengono aggiornati (, indice θ omesso): E = n= ln p ( ) ( ) ( ) n n n p x x ln p x = ln n n= n= p ( x ) 46/58 3

24 E ixture models: segmentazione ( ) ( ) ( ) n = n n p x E ln p x ln p x = ln n n= n= n= p ( x ) Ricordando che: p ( x) = P( ) p( x ) = Si ottiene: E E = ln P n ( ) p ( x ) n p ( x ) P n = = P n ( x ) n ( x ) 47/58 ixture models: segmentazione La disuguaglianza di Jensen dice che: dati λ t. c. λ = ln λ K = ln λ K = = = λ ln ( K ) = λ ln ( K ) 48/58 4

25 ixture models: segmentazione = n λ = P ( x ) =, n = Jensen ixture model E possibile applicare la disuguaglianza di Jensen ai mixture model, ove i P ( x n ) giocano il ruolo dei λ. 49/58 ixture models: segmentazione Applicando Jensen: ln = λ K = λ ln ( K ) E E = ln P n ( ) p ( x ) n p ( x ) P n= = P n ( x ) n ( x ) 50/58 5

26 ixture models: segmentazione E E = ln P n ( ) p ( x ) n p ( x ) P n= = P n ( x ) n ( x ) P n n P ( ) ( ) p ( x ) x ln n n p ( x ) P ( x ) = 5/58 E ixture models: segmentazione E n n n P ( ) ( ) p ( x ) x ln n n p ( x ) P ( x ) P = = E E + Q inimizzando Q si minimizza E! P (x n ), P ( x n ) costanti dunque Q = Q (θ )! 5/58 6

27 ~ Q ixture models: segmentazione Eliminando i termini costanti () nella somma (! trasf. Logaritmica!), è sufficiente minimizzare ad ogni iterazione: = = P n= = P Tenendo inoltre conto del fatto che: n ( x ) =, n n n ( x ) ln{ P ( ) p ( x ) } 53/58 ixture models: segmentazione Si minimizza allora (metodo dei moltiplicatori di Lagrange): ~ f = Q + ψ P = Vincolo Cioè: f = 0 μ f = 0 σ f = 0 P ( ) f = 0 (vincolo) A.A. ψ ( ) 54/58 Da questo sistema possono essere ricavate le equazioni per l aggiornamento dei parametri del mixture model ad ogni iterazione. 7

28 ixture models: segmentazione Aggiornamento P(): P n ( ) = P ( x ) n= el caso di ddp gaussiane: n n P ( x ) x n= μ = ( σ ) n P ( x ) n= P n= = n= n n ( x )( x μ ) P n ( x ) 55/58 ixture models: segmentazione 56/58 8

29 Risultato (bone tissue) Clusterizzazione immagine in 3 zone (background, soft tissue, bone tissue). 57/58 Bibliografia Cristopher. Bishop, Pattern Recognition and achine Learning, Capitolo.3.9 (mixture di gaussiane), Capitolo 9., 9., 9.3 (K-means, mixture models, E). I. Frosio, G. Ferrigno,. A. Borghese, Enhancing Digital Cephalic Radiography with ixture odel and Local Gamma Correction, IEEE Transaction on edical Imaging, Vol. 5, o., Jan. 006, pp. 3- (mixture models e radiografia cefalometrica). Poul Erik Frandsen, Kristian Jonasson, Hans Bruun ielsen, Ole Tingleff, Unconstrained Optimization, disponibile in rete, algoritmi di minimizzazione (approfondimento). Cristopher. Bishop, Pattern Recognition and achine Learning, Capitolo 9.4, E come minimizzazione di un lower bound (approfondimento). 58/58 9

30 59/58 30

A.A /49 frosio\

A.A /49   frosio\ Expectation Maximization I. Frosio A.A. 009-00 /49 http:\\homes.dsi.unimi.it\ frosio\ Overview Stima di due rette (riassunto) Minimizzazione: metodi di ordine zero (simplesso, ) Minimizzazione: i i i metodi

Dettagli

Expectation Maximization

Expectation Maximization Expectation Maximization I. Frosio A.A. 010-011 1/54 http:\\homes.dsi.unimi.it\frosio\ Overview Stima di due rette (riassunto) Minimizzazione: metodi di ordine zero (simplesso, ) Minimizzazione: metodi

Dettagli

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Metodi per l Analisi dei Dati Sperimentali AA009/010 IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Sommario Massima Verosimiglianza Introduzione La Massima Verosimiglianza Esempio 1: una sola misura sperimentale

Dettagli

Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità)

Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Computazione per l interazione naturale: clustering e riduzione di dimensionalità

Computazione per l interazione naturale: clustering e riduzione di dimensionalità Computazione per l interazione naturale: clustering e riduzione di dimensionalità Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Minimi quadrati e massima verosimiglianza

Minimi quadrati e massima verosimiglianza Minimi quadrati e massima verosimiglianza 1 Introduzione Nella scorsa lezione abbiamo assunto che la forma delle probilità sottostanti al problema fosse nota e abbiamo usato gli esempi per stimare i parametri

Dettagli

Università della Calabria

Università della Calabria Università della Calabria FACOLTA DI INGEGNERIA Corso di Laurea in Ingegneria Civile CORSO DI IDROLOGIA N.O. Prof. Pasquale Versace SCHEDA DIDATTICA N 3 CURVE DI PROBABILITÀ PLUVIOMETRICA A.A. 00- CURVE

Dettagli

Cenni di apprendimento in Reti Bayesiane

Cenni di apprendimento in Reti Bayesiane Sistemi Intelligenti 216 Cenni di apprendimento in Reti Bayesiane Esistono diverse varianti di compiti di apprendimento La struttura della rete può essere nota o sconosciuta Esempi di apprendimento possono

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2018.html

Dettagli

Statistica 2. Esercitazioni. Dott. Luigi Augugliaro 1. Università di Palermo

Statistica 2. Esercitazioni. Dott. Luigi Augugliaro 1. Università di Palermo Statistica 2 Esercitazioni Dott. L 1 1 Dipartimento di Scienze Statistiche e Matematiche S. Vianelli, Università di Palermo ricevimento: lunedì ore 15-17 mercoledì ore 15-17 e-mail: luigi.augugliaro@unipa.it

Dettagli

Metodi Numerici con elementi di Programmazione (A.A )

Metodi Numerici con elementi di Programmazione (A.A ) Metodi Numerici con elementi di Programmazione (A.A. 2013-2014) Metodi Numerici Appunti delle lezioni: Approssimazione di dati e funzioni Approssimazione ai minimi quadrati Docente Vittoria Bruni Email:

Dettagli

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A Università di Siena Teoria della Stima Lucidi del corso di A.A. 2002-2003 Università di Siena 1 Indice Approcci al problema della stima Stima parametrica Stima bayesiana Proprietà degli stimatori Stime

Dettagli

5. Analisi dei dati di input

5. Analisi dei dati di input Anno accademico 2007/08 Analisi e scelta dei dati di input Per l esecuzione di una simulazione è necessario disporre di dati di input che siano una adeguata rappresentazione di ciò che accadrà in realtà

Dettagli

Prima prova in Itinere Ist. Mat. 1, Prima parte, Tema ALFA COGNOME: NOME: MATR.:

Prima prova in Itinere Ist. Mat. 1, Prima parte, Tema ALFA COGNOME: NOME: MATR.: Prima prova in Itinere Ist. Mat. 1, Prima parte, Tema ALFA 1) L applicazione lineare f : R 3 R 2 data da f(x, y, z) = (3x + 2y + z, kx + 2y + kz) è suriettiva A: sempre; B: mai; C: per k 1 D: per k 2;

Dettagli

Regressione Lineare e Regressione Logistica

Regressione Lineare e Regressione Logistica Regressione Lineare e Regressione Logistica Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: stefano.gualandi@unipv.it @famo2spaghi http://stegua.github.com 1 Introduzione

Dettagli

Università di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti

Università di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Università di Siena Corso di STATISTICA Parte seconda: Teoria della stima Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Master E 2 C Centro per lo Studio dei Sistemi Complessi Università di

Dettagli

1 Fit di dati sperimentali: il χ 2. Il metodo dei minimi quadrati.

1 Fit di dati sperimentali: il χ 2. Il metodo dei minimi quadrati. 1 Fit di dati sperimentali: il χ 2. Il metodo dei minimi quadrati. Per comprendere dei fenomeni fisici, non basta raccogliere buoni dati sperimentali, occorre anche interpretarli. Molto spesso lo scopo

Dettagli

7.9 Il caso vincolato: vincoli di disuguaglianza

7.9 Il caso vincolato: vincoli di disuguaglianza 7.9 Il caso vincolato: vincoli di disuguaglianza Il problema con vincoli di disuguaglianza: g i (x) 0, i = 1,..., p, (51) o, in forma vettoriale: g(x) 0, può essere trattato basandosi largamente su quanto

Dettagli

Massimi e minimi vincolati

Massimi e minimi vincolati Massimi e minimi vincolati Vedremo tra breve un metodo per studiare il problema di trovare il minimo e il massimo di una funzione su di un sottoinsieme dello spazio ambiente che non sia un aperto. Abbiamo

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Metodi Bayesiani Fabio Aiolli 11 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 11 Dicembre 2017 1 / 19 Metodi Bayesiani I metodi Bayesiani forniscono tecniche computazionali

Dettagli

01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I

01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I 01CXGBN Trasmissione numerica parte 6: calcolo delle probabilità I 1 Probabilità di errore BER e SER Per rappresentare la bontà di un sistema di trasmissione numerica in termini di probabilità di errore

Dettagli

MATEMATICA CORSO A II COMPITINO (Tema 1) 5 Aprile 2013

MATEMATICA CORSO A II COMPITINO (Tema 1) 5 Aprile 2013 MATEMATICA CORSO A II COMPITINO (Tema 1) 5 Aprile 2013 Soluzioni 1. Due sperimentatori hanno rilevato rispettivamente 25 e 5 misure di una certa grandezza lineare e calcolato le medie che sono risultate

Dettagli

Sistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese

Sistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese Sistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese Università degli Studi di Milano Laboratory of Applied Intelligent Systems (AIS-Lab) Dipartimento di Informatica borghese@di.unimi.it

Dettagli

Analisi e scelta dei dati di input

Analisi e scelta dei dati di input Analisi e scelta dei dati di input Corso di Tecniche di Simulazione, a.a. 2005/2006 Francesca Mazzia Dipartimento di Matematica Università di Bari 24 Aprile 2006 Francesca Mazzia (Univ. Bari) Analisi e

Dettagli

Derivazione numerica. Introduzione al calcolo numerico. Derivazione numerica (II) Derivazione numerica (III)

Derivazione numerica. Introduzione al calcolo numerico. Derivazione numerica (II) Derivazione numerica (III) Derivazione numerica Introduzione al calcolo numerico Il calcolo della derivata di una funzione in un punto implica un processo al limite che può solo essere approssimato da un calcolatore. Supponiamo

Dettagli

Statistica Applicata all edilizia: Stime e stimatori

Statistica Applicata all edilizia: Stime e stimatori Statistica Applicata all edilizia E-mail: orietta.nicolis@unibg.it 15 marzo 2011 Statistica Applicata all edilizia: Indice 1 2 Statistica Applicata all edilizia: Uno dei problemi principali della statistica

Dettagli

Esercizi di Ricapitolazione

Esercizi di Ricapitolazione Esercizio 1. Sono dati 150 g di una soluzione S 1 concentrata al 12%. (a) Determinare quanti grammi di soluto occorre aggiungere a S 1 per ottenere una nuova soluzione S 2 concentrata al 20%. (b) Determinare

Dettagli

3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI

3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI 3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI ESISTENZA DI UN PUNTO DI OTTIMO VINCOLATO Il problema di ottimizzazione vincolata introdotto nel paragrafo precedente può essere formulato nel modo seguente:

Dettagli

Stima dei Parametri. Capitolo 8

Stima dei Parametri. Capitolo 8 Capitolo 8 Stima dei Parametri Lo scopo dello studio dei fenomeni fisici è quello di scoprire le leggi che legano le grandezze oggetto di indagine e di misurare il valore delle costanti che compaiono della

Dettagli

Clustering. Introduzione Definizioni Criteri Algoritmi. Clustering Gerarchico

Clustering. Introduzione Definizioni Criteri Algoritmi. Clustering Gerarchico Introduzione Definizioni Criteri Algoritmi Gerarchico Centroid-based K-means Fuzzy K-means Expectation Maximization (Gaussian Mixture) 1 Definizioni Con il termine (in italiano «raggruppamento») si denota

Dettagli

APPLICAZIONE DELLA DEVIATA GAUSSIANA STANDARD

APPLICAZIONE DELLA DEVIATA GAUSSIANA STANDARD APPLICAZIONE DELLA DEVIATA GAUSSIANA STANDARD In una popolazione di ragazze di età inclusa tra i 18 e i 25 anni, la concentrazione di emoglobina nel sangue (x) approssima la distribuzione gaussiana con

Dettagli

Nel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0.

Nel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0. Regressione [] el modello di regressione lineare si assume una relazione di tipo lineare tra il valore medio della variabile dipendente Y e quello della variabile indipendente X per cui Il modello si scrive

Dettagli

La likelihood. , x 2. } sia prodotto a partire dal particolare valore di a: ; a... f x N. La probabilità che l'i ma misura sia compresa tra x i

La likelihood. , x 2. } sia prodotto a partire dal particolare valore di a: ; a... f x N. La probabilità che l'i ma misura sia compresa tra x i La likelihood E' dato un set di misure {x 1, x 2, x 3,...x N } (ciascuna delle quali puo' essere multidimensionale) Supponiamo che la pdf (f) dipenda da un parametro a (anch'esso eventualmente multidimensionale)

Dettagli

ARGOMENTI TRATTATI NEL CORSO DI ANALISI II

ARGOMENTI TRATTATI NEL CORSO DI ANALISI II ARGOMENTI TRATTATI NEL CORSO DI ANALISI II ANALISI Limiti Curve Convergenza di una successione di punti Definizione di limite Condizione necessaria e condizione sufficiente all esistenza del limite in

Dettagli

Video Analysis (cenni) Annalisa Franco

Video Analysis (cenni) Annalisa Franco 1 Video Analysis (cenni) Annalisa Franco annalisa.franco@unibo.it http://bias.csr.unibo.it/vr/ 2 Visual motion Un video è una sequenza di frame catturati nel corso del tempo Il valori dell immagine sono

Dettagli

Metodo dei Minimi Quadrati. Dott. Claudio Verona

Metodo dei Minimi Quadrati. Dott. Claudio Verona Metodo dei Minimi Quadrati Dott. Claudio Verona E in generale interessante studiare l andamento di una variabile in funzione di un altra e capire se c è una funzione matematica che le lega. Viceversa è

Dettagli

Il metodo delle osservazioni indirette

Il metodo delle osservazioni indirette Il metodo delle osservazioni indirette Teoria della stima ai minimi quadrati Il criterio di massima verosimiglianza Sia data una grandezza η e si abbiano n osservazioni indipendenti l i (i=1,...,n) di

Dettagli

1) Applicando la definizione di derivata, calcolare la derivata in x = 0 delle funzioni: c) x + 1 d)x sin x.

1) Applicando la definizione di derivata, calcolare la derivata in x = 0 delle funzioni: c) x + 1 d)x sin x. Funzioni derivabili Esercizi svolti 1) Applicando la definizione di derivata, calcolare la derivata in x = 0 delle funzioni: a)2x 5 b) x 3 x 4 c) x + 1 d)x sin x. 2) Scrivere l equazione della retta tangente

Dettagli

Esercitazioni di Matematica

Esercitazioni di Matematica Università degli Studi di Udine Anno Accademico 009/00 Facoltà di Agraria Corsi di Laurea in VIT e STAL Esercitazioni di Matematica novembre 009 Trovare le soluzioni della seguente disequazione: x + +

Dettagli

Valutazione incertezza di categoria B

Valutazione incertezza di categoria B Valutazione incertezza di categoria B La valutazione consiste nell assegnare alla grandezza x uno scarto tipo σ in base alle informazioni disponibili Le informazioni riguardano: ) Gli estremi dell intervallo

Dettagli

Appunti sul corso di Complementi di Matematica mod. Analisi prof. B.Bacchelli - a.a. 2010/2011.

Appunti sul corso di Complementi di Matematica mod. Analisi prof. B.Bacchelli - a.a. 2010/2011. Appunti sul corso di Complementi di Matematica mod. Analisi prof. B.Baccelli - a.a. 2010/2011. 06 - Derivate, differenziabilità, piano tangente, derivate di ordine superiore. Riferimenti: R.Adams, Calcolo

Dettagli

Lezione 13 Corso di Statistica. Domenico Cucina

Lezione 13 Corso di Statistica. Domenico Cucina Lezione 13 Corso di Statistica Domenico Cucina Università Roma Tre D. Cucina (domenico.cucina@uniroma3.it) 1 / 20 obiettivi della lezione comprendere il concetto di variabile aleatoria continua familiarizzare

Dettagli

Esercitazioni di Statistica

Esercitazioni di Statistica Esercitazioni di Statistica Stima Puntuale Prof. Livia De Giovanni statistica@dis.uniroma.it Esercizio In ciascuno dei casi seguenti determinare quale tra i due stimatori S e T per il parametro θ è distorto

Dettagli

Polinomio di Taylor del secondo ordine per funzioni di due variabili

Polinomio di Taylor del secondo ordine per funzioni di due variabili Esercitazioni del 15 aprile 2013 Polinomio di Taylor del secondo ordine per funzioni di due variabili Sia f : A R 2 R una funzione di classe C 2. Fissato un p unto (x 0, y 0 A consideriamo il seguente

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Metodi Bayesiani - Naive Bayes Fabio Aiolli 13 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 13 Dicembre 2017 1 / 18 Classificatore Naive Bayes Una delle tecniche più semplici

Dettagli

Generazione di variabili aleatorie con distribuzione non uniforme. Daniela Picin

Generazione di variabili aleatorie con distribuzione non uniforme. Daniela Picin Generazione di variabili aleatorie con distribuzione non uniforme Daniela Picin A partire da una sequenza di numeri random u k ~ U(0,1) opportunamente generati, alcuni dei metodi per la generazione di

Dettagli

Lezione 7 Metodo dei Minimi Quadra1

Lezione 7 Metodo dei Minimi Quadra1 Lezione 7 Metodo dei Minimi Quadra1 S1matori di Minimi Quadra1 q Supponiamo di misurare due variabili casuali X e Y: ad ogni valore di X misuro il valore di Y. Per esempio negli istan1 x 1, x 2,, x n misuro

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 2 Teoria della decisione Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr

Dettagli

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una

Dettagli

Teoria delle Decisioni Bayesiana

Teoria delle Decisioni Bayesiana Laurea Magistrale in Informatica Nicola Fanizzi Dipartimento di Informatica Università degli Studi di Bari 14 gennaio 2009 Sommario Introduzione Teoria delle decisioni Bayesiana - nel continuo Classificazione

Dettagli

Laboratorio di Calcolo Numerico

Laboratorio di Calcolo Numerico Laboratorio di Calcolo Numerico M.R. Russo Università degli Studi di Padova Dipartimento di Matematica Pura ed Applicata A.A. 2009/2010 Equazioni non lineari Data una funzione consideriamo il problema

Dettagli

Matematica II prof. C.Mascia

Matematica II prof. C.Mascia Corso di laurea in CHIMICA INDUSTRIALE Sapienza, Università di Roma Matematica II prof CMascia alcuni esercizi, parte, 7 marzo 25 Indice Testi degli esercizi 2 Svolgimento degli esercizi 4 Testi degli

Dettagli

Esercitazione del

Esercitazione del Esercizi sulla regressione lineare. Esercitazione del 21.05.2013 Esercizio dal tema d esame del 13.06.2011. Si consideri il seguente campione di n = 9 osservazioni relative ai caratteri ed Y: 7 17 8 36

Dettagli

Complementi di Matematica A.A Laboratorio 10

Complementi di Matematica A.A Laboratorio 10 Complementi di Matematica A.A. 2016-2017 Laboratorio 10 Equazioni non lineari (fzero) Sia f : R R una funzione che ammette una radice α, ovvero t.c. f(α) = 0. Possiamo utilizzare la funzione predefinita

Dettagli

Cenni sui metodi iterativi per sistemi lineari. Analisi Numerica Prof. M. Lucia Sampoli a.a. 2014/2015

Cenni sui metodi iterativi per sistemi lineari. Analisi Numerica Prof. M. Lucia Sampoli a.a. 2014/2015 Cenni sui metodi iterativi per sistemi lineari Analisi Numerica Prof. M. Lucia Sampoli a.a. 2014/2015 Metodi numerici per sistemi lineari Nei metodi diretti la presenza di eventuali elementi nulli nella

Dettagli

Esame di Calcolo Numerico per Informatica A.A. 2010/11 Proff. S. De Marchi e M. R. Russo 20 giugno 2011

Esame di Calcolo Numerico per Informatica A.A. 2010/11 Proff. S. De Marchi e M. R. Russo 20 giugno 2011 Esame di Calcolo Numerico per Informatica A.A. 2010/11 Proff. S. De Marchi e M. R. Russo 20 giugno 2011 L esame consiste di 4 domande aperte e 10 esercizi a risposta multipla. Per gli esercizi ci sono

Dettagli

Le condizioni di Karush-Kuhn-Tucker

Le condizioni di Karush-Kuhn-Tucker Capitolo 9 Le condizioni di Karush-Kuhn-Tucker 9. Introduzione In questo capitolo deriveremo le condizioni necessarie di Karush-Kuhn-Tucker (KKT) per problemi vincolati in cui S è descritto da vincoli

Dettagli

lezione n. 6 (a cura di Gaia Montanucci) Verosimiglianza: L = = =. Parte dipendente da β 0 e β 1

lezione n. 6 (a cura di Gaia Montanucci) Verosimiglianza: L = = =. Parte dipendente da β 0 e β 1 lezione n. 6 (a cura di Gaia Montanucci) METODO MASSIMA VEROSIMIGLIANZA PER STIMARE β 0 E β 1 Distribuzione sui termini di errore ε i ε i ~ N (0, σ 2 ) ne consegue : ogni y i ha ancora distribuzione normale,

Dettagli

Elementi di Probabilità e Statistica - 052AA - A.A

Elementi di Probabilità e Statistica - 052AA - A.A Elementi di Probabilità e Statistica - 05AA - A.A. 014-015 Prima prova di verifica intermedia - 9 aprile 015 Problema 1. Dati due eventi A, B, su uno spazio probabilizzato (Ω, F, P), diciamo che A è in

Dettagli

Complementi di Matematica e Calcolo Numerico A.A Laboratorio 3-24/3/2014

Complementi di Matematica e Calcolo Numerico A.A Laboratorio 3-24/3/2014 Complementi di Matematica e Calcolo Numerico A.A. 2012-2013 Laboratorio 3-24/3/2014 Equazioni non lineari (fzero) Sia f : R R una funzione che ammette una radice α, ovvero t.c. f(α) = 0. Possiamo utilizzare

Dettagli

Capitolo 3: Ottimizzazione non vincolata parte II. E. Amaldi DEI, Politecnico di Milano

Capitolo 3: Ottimizzazione non vincolata parte II. E. Amaldi DEI, Politecnico di Milano Capitolo 3: Ottimizzazione non vincolata parte II E. Amaldi DEI, Politecnico di Milano 3.3 Metodi basati su direzioni di ricerca Problema di ottimizzazione non vincolata: min x R n f(x) con f : R n R di

Dettagli

Distribuzione di densità

Distribuzione di densità Distribuzione di densità Distribuzione di densità in presenza di forze conservative. A F dx A La forza conservativa esterna agisce su ciascuno degli N componenti del gas all interno del volume Adx. La

Dettagli

Economia, Corso di Laurea Magistrale in Ing. Elettrotecnica, A.A Prof. R. Sestini SCHEMA DELLE LEZIONI DELLA QUINTA E SESTA SETTIMANA

Economia, Corso di Laurea Magistrale in Ing. Elettrotecnica, A.A Prof. R. Sestini SCHEMA DELLE LEZIONI DELLA QUINTA E SESTA SETTIMANA Economia, Corso di Laurea Magistrale in Ing. Elettrotecnica, A.A. 2013-2014. Prof. R. Sestini SCHEMA DELLE LEZIONI DELLA QUINTA E SESTA SETTIMANA In sintesi, una tecnologia costituisce un insieme di piani

Dettagli

Capitolo 6. La distribuzione normale

Capitolo 6. La distribuzione normale Levine, Krehbiel, Berenson Statistica II ed. 2006 Apogeo Capitolo 6 La distribuzione normale Insegnamento: Statistica Corso di Laurea Triennale in Ingegneria Gestionale Facoltà di Ingegneria, Università

Dettagli

Analisi Matematica II Corso di Ingegneria Gestionale Compito del f(x, y) = log 1 + (x y 2 ) x 2.

Analisi Matematica II Corso di Ingegneria Gestionale Compito del f(x, y) = log 1 + (x y 2 ) x 2. Analisi Matematica II Corso di Ingegneria Gestionale Compito del 7-7-6 - È obbligatorio consegnare tutti i fogli, anche la brutta. - Le risposte senza giustificazione sono considerate nulle. Esercizio.

Dettagli

Presentazione dell edizione italiana

Presentazione dell edizione italiana 1 Indice generale Presentazione dell edizione italiana Prefazione xi xiii Capitolo 1 Una introduzione alla statistica 1 1.1 Raccolta dei dati e statistica descrittiva... 1 1.2 Inferenza statistica e modelli

Dettagli

A.A Prof. R. Morandi

A.A Prof. R. Morandi Svolgimento di alcuni esercizi del corso di Calcolo Numerico A.A. - Prof. R. Morandi Versione in aggiornamento ( gennaio ): ogni segnalazione di imprecisioni è gradita Aritmetica Finita Esercizio : Assegnati

Dettagli

Esercizi di Ricapitolazione

Esercizi di Ricapitolazione Esercizio 1. Sono dati 150g di una soluzione S 1 concentrata al 12%. (a) Determinare quanti grammi di soluto occorre aggiungere a S 1 per ottenere una nuova soluzione S 2 concentrata al 20%. (b) Determinare

Dettagli

TECNICHE DI SIMULAZIONE

TECNICHE DI SIMULAZIONE TECNICHE DI SIMULAZIONE Analisi e scelta dei dati di input Francesca Mazzia Dipartimento di Matematica Università di Bari a.a. 2004/2005 TECNICHE DI SIMULAZIONE p. 1 Dati di input Per l esecuzione di una

Dettagli

La Decisione Statistica Campione aleatorio: risultato dell osservazione di un fenomeno soggetto a fluttuazioni casuali.

La Decisione Statistica Campione aleatorio: risultato dell osservazione di un fenomeno soggetto a fluttuazioni casuali. La Decisione Statistica Campione aleatorio: risultato dell osservazione di un fenomeno soggetto a fluttuazioni casuali. Analisi del campione: - descrizione sintetica (statistica descrittiva) - deduzione

Dettagli

Capitolo 6 La distribuzione normale

Capitolo 6 La distribuzione normale Levine, Krehbiel, Berenson Statistica Casa editrice: Pearson Capitolo 6 La distribuzione normale Insegnamento: Statistica Corso di Laurea Triennale in Economia Dipartimento di Economia e Management, Università

Dettagli

Regressione Lineare Semplice e Correlazione

Regressione Lineare Semplice e Correlazione Regressione Lineare Semplice e Correlazione 1 Introduzione La Regressione è una tecnica di analisi della relazione tra due variabili quantitative Questa tecnica è utilizzata per calcolare il valore (y)

Dettagli

Corso di Analisi Matematica. Polinomi e serie di Taylor

Corso di Analisi Matematica. Polinomi e serie di Taylor a.a. 2011/12 Laurea triennale in Informatica Corso di Analisi Matematica Polinomi e serie di Taylor Avvertenza Questi sono appunti informali delle lezioni, che vengono resi disponibili per comodità degli

Dettagli

25 - Funzioni di più Variabili Introduzione

25 - Funzioni di più Variabili Introduzione Università degli Studi di Palermo Facoltà di Economia CdS Statistica per l Analisi dei Dati Appunti del corso di Matematica 25 - Funzioni di più Variabili Introduzione Anno Accademico 2013/2014 M. Tumminello

Dettagli

Esercizi geometria analitica nello spazio. Corso di Laurea in Informatica. Docente: Andrea Loi. Correzione

Esercizi geometria analitica nello spazio. Corso di Laurea in Informatica. Docente: Andrea Loi. Correzione Esercizi geometria analitica nello spazio Corso di Laurea in Informatica Docente: Andrea Loi Correzione 1. Denotiamo con P 1, P 13, P 3, P 1, P, P 3, P i simmetrici di un punto P rispetto ai piani coordinati

Dettagli

Le derivate parziali

Le derivate parziali Sia f(x, y) una funzione definita in un insieme aperto A R 2 e sia P 0 = x 0, y 0 un punto di A. Essendo A un aperto, esiste un intorno I(P 0, δ) A. Preso un punto P(x, y) I(P 0, δ), P P 0, possiamo definire

Dettagli

Metodi computazionali per i Minimi Quadrati

Metodi computazionali per i Minimi Quadrati Metodi computazionali per i Minimi Quadrati Come introdotto in precedenza si considera la matrice. A causa di mal condizionamenti ed errori di inversione, si possono avere casi in cui il e quindi S sarebbe

Dettagli

Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri

Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano

Dettagli

Risoluzione di sistemi lineari sparsi e di grandi dimensioni

Risoluzione di sistemi lineari sparsi e di grandi dimensioni Risoluzione di sistemi lineari sparsi e di grandi dimensioni Un sistema lineare Ax = b con A R n n, b R n, è sparso quando il numero di elementi della matrice A diversi da zero è αn, con n α. Una caratteristica

Dettagli

Diario delle lezioni di Calcolo e Biostatistica (O-Z) - a.a. 2013/14 A. Teta

Diario delle lezioni di Calcolo e Biostatistica (O-Z) - a.a. 2013/14 A. Teta Diario delle lezioni di Calcolo e Biostatistica (O-Z) - a.a. 2013/14 A. Teta 1. (1/10 Lu.) Generalità sugli insiemi, operazioni di unione, intersezione e prodotto cartesiano. Insiemi numerici: naturali,

Dettagli

Sistemi Intelligenti I sistemi lineari. Sommario

Sistemi Intelligenti I sistemi lineari. Sommario Sistemi Intelligenti I sistemi lineari Alberto Borghese Università degli Studi di Milano Laboratorio di Sistemi Intelligenti Applicati (AIS-Lab) Dipartimento di Scienze dell Informazione borghese@dsiunimiit

Dettagli

Istituto d Istruzione Superiore A. Tilgher Ercolano (Na)

Istituto d Istruzione Superiore A. Tilgher Ercolano (Na) Premessa Istituto d Istruzione Superiore A. Tilgher Ercolano (Na) Questa breve trattazione non vuole costituire una guida completa ed esauriente sull argomento, ma vuole fornire solamente i concetti fondamentali

Dettagli

Corso Integrato di Statistica Informatica e Analisi dei Dati Sperimentali. Esercitazione E

Corso Integrato di Statistica Informatica e Analisi dei Dati Sperimentali. Esercitazione E Corso Integrato di Statistica Informatica e Analisi dei Dati Sperimentali A.A 2009-2010 Esercitazione E Scopo dell esercitazione Applicazioni del teorema del limite centrale. Rappresentazione delle incertezze

Dettagli

Soluzione. Il dominio E consiste nella parte di spazio contenuta nella sfera ma esterna al cono rappresentata in Figura 1. Infatti

Soluzione. Il dominio E consiste nella parte di spazio contenuta nella sfera ma esterna al cono rappresentata in Figura 1. Infatti Esercizio 1 (G. Ziglio). (6 punti) Calcolare il volume della porzione di spazio E interna alla sfera di equazione x 2 + y 2 + z 2 = 1 ed esterna al cono di equazione z 2 = x 2 + y 2 E = (x, y, z) R x 2

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Teoria della decisione di Bayes Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario

Dettagli

METODI NUMERICI. Metodo delle differenze finite

METODI NUMERICI. Metodo delle differenze finite METOI NUMERICI Lo sviluppo dei moderni calcolatori ha consentito di mettere a disposizione della scienza e della tecnica formidabili strumenti che hanno permesso di risolvere numerosi problemi la cui soluzione

Dettagli

CALCOLO NUMERICO Laurea di base in Ingegneria Elettronica, delle Comunicazioni

CALCOLO NUMERICO Laurea di base in Ingegneria Elettronica, delle Comunicazioni CALCOLO NUMERICO Laurea di base in Ingegneria Elettronica, delle Comunicazioni Prof.ssa Laura Pezza (A.A. 2017-2018) V Lezione del 15.03.2018 http://www.dmmm.uniroma1.it/ laura.pezza 1 Metodo di Newton:

Dettagli

Esercizi di ricapitolazione

Esercizi di ricapitolazione Esercizio 1. Sono dati 150 g di una soluzione S 1 concentrata al 12%. (a) Determinare quanti grammi di soluto occorre aggiungere a S 1 per ottenere una nuova soluzione S 2 concentrata al 20%. (b) Determinare

Dettagli

Stima puntuale di parametri

Stima puntuale di parametri Probabilità e Statistica Esercitazioni a.a. 2009/2010 C.d.L.: Ingegneria Elettronica e delle Telecomunicazioni, Ingegneria Informatica Stima puntuale di parametri Ines Campa Probabilità e Statistica -

Dettagli

Il metodo di Gauss-Newton per le regressioni non-lineari

Il metodo di Gauss-Newton per le regressioni non-lineari Il metodo di Gauss-Newton per le regressioni non-lineari Andrea Onofri Dipartimento di Scienze Agrarie ed Ambientali Università degli Studi di Perugia Versione on-line: http://www.unipg.it/ onofri/rtutorial/index.html

Dettagli

INDICE. XIII Prefazione

INDICE. XIII Prefazione INDICE XIII Prefazione Capitolo zero Prerequisiti 3 Unità uno Statistica descrittiva 5 Capitolo uno Statistica descrittiva di base 5 1.1 Tipi di dati in biologia 6 1.2 Sintesi della statistica descrittiva

Dettagli

Istituzioni di Analisi 2 (programma, domande ed esercizi)

Istituzioni di Analisi 2 (programma, domande ed esercizi) Istituzioni di Analisi programma, domande ed esercizi) nona settimana Argomenti trattati Dal libro di testo: 3. punti critici vincolati), 3.3. estremi assoluti), 0.3. e 0.3. solo la definizione di compatto

Dettagli

Esperimentazioni di Fisica 1. Prova d esame del 20 febbraio 2018 SOLUZIONI

Esperimentazioni di Fisica 1. Prova d esame del 20 febbraio 2018 SOLUZIONI Esperimentazioni di Fisica 1 Prova d esame del 20 febbraio 2018 SOLUZIONI Esp-1-Soluzioni - - Page 2 of 6 01/02/2018 1. (12 Punti) Quesito. In un esperimento è stata misurata la grandezza Y in funzione

Dettagli

Distribuzione Normale. Dott. Claudio Verona

Distribuzione Normale. Dott. Claudio Verona Distribuzione Normale Dott. Claudio Verona Rappresentazione di valori ottenuti da misure ripetute Il primo problema che si riscontra nelle misure ripetute più volte è trovare un metodo conveniente per

Dettagli