Expectation Maximization

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Expectation Maximization"

Transcript

1 Expectation Maximization I. Frosio A.A /54

2 Overview Stima di due rette (riassunto) Minimizzazione: metodi di ordine zero (simplesso, ) Minimizzazione: metodi di primo ordine (gradiente, ) Minimizzazione: metodi di secondo ordine (Newton, ) EM, conoscenze preliminari: disuguaglianza di Jensen, EM, conoscenze preliminari: teorema di Bayes EM: derivazione EM: applicazione al problema di stima delle due rette A.A /54

3 Stima di due rette (riassunto) Si vogliono stimare i coefficienti angolari di due rette passanti per l origine. I dati misurati yi possono provenire dall una o dall altra retta con la stessa probabilità. Sui dati misurati è presente rumore gaussiano con varianza s. A.A /54

4 Stima di due rette (riassunto) Scriviamo la funzione di verosimiglianza: p yi P1 G m1 xi, s P G m xi, s G, s 1 e s 1 x s In pratica un punto yi può provenire dalla retta 1 con probabilità P1 o dalla retta con probabilità P. In ciascuno dei due casi il punto misurato ha una distribuzione gaussiana centrata sulla retta stessa. A.A /54

5 Stima di due rette (riassunto) Calcolo il logaritmo negativo della verosimiglianza: f m1, m ln pyi p j N i1 ln xi, s P1 p i1 1 N N ln P1 Gm1 xi, s P Gm xi, s xi, s P p xi, s 1 e s 1 xm jxi s i1 Non può essere minimizzato analiticamente ponendo le derivate uguali a zero è necessario usare un algoritmo di minimizzazione iterativo. A.A /54

6 Minimizzazione: metodi di ordine 0 Strategia di base: Sia f(x) la funzione da minimizzare, x 0 la soluzione di partenza; La soluzione viene perturbata (x k+1 =x k +Dx) in modo più o meno furbo, testando diverse perturbazioni Dx. Per ogni perturbazione Dx si calcola la f(x k +Dx). Si sceglie la Dx tale per cui la f(x k +Dx) è minima e si aggiorna la soluzione (x k+1 =x k +Dx). Esempi: metodo del simplesso, simulated annealing, algoritmi genetici Se si utilizza un metodo di ordine 0 è necessario calcolare la sola f(x). Facile da implementare, bassa velocità di convergenza. A.A /54

7 Minimizzazione: metodi di ordine 0 f(x) Soluzioni perturbate f(x 0 ) x x 0 A.A /54

8 Minimizzazione: metodi di ordine 0 f(x) Soluzione scelta al passo 0 f(x 0 ) f(x 1 ) x x 0 x 1 A.A /54

9 Minimizzazione: metodi di ordine 1 Strategia di base: Sia f(x) la funzione da minimizzare, x 0 la soluzione di partenza; Si calcoli il gradiente della f in x k, J(x k ). La soluzione viene aggiornata utilizzando l informazione del gradiente. Nell ipotesi più semplice (metodo del gradiente), muovendosi nella direzione opposta rispetto al gradiente (x k+1 =x k -a J(x k ).) Esempi: metodo del gradiente, gradiente coniugato, Se si utilizza un metodo di ordine 1 è necessario calcolare la f(x) e J(x). Abbastanza facile da implementare, velocità di convergenza media (dipende dalla strategia adottata). Il parametro scalare a (learning rate) determina la velocità di convergenza e la stabilità del metodo => Se ad ogni passo a viene in qualche modo ottimizzato, si parla di LINE SEARCH (determinazione della lunghezza ottimale del passo). A.A /54

10 Minimizzazione: metodi di ordine 1 f(x) Gradiente, J(x 0 ) f(x 0 ) x x 0 A.A /54

11 Minimizzazione: metodi di ordine 1 f(x) Gradiente, J(x 0 ) f(x 0 ) aj(x 0 ) f(x 1 ) x x 0 x 1 A.A /54

12 Minimizzazione: metodi di ordine 1 Nel caso del problema delle due rette abbiamo già calcolato le derivate (si veda la lezione precedente). Utilizzando il metodo del gradiente, la soluzione può essere aggiornata come: mj k1 k f m1, m mj a mj mj k a N i1 Pj p xi p j x m xi j xi s xi (Esercizio implementazione Matlab del metodo del gradiente confronto con EM per vari valori di 0<a<1) A.A /54

13 Minimizzazione: metodi di ordine Strategia di base: Sia f(x) la funzione da minimizzare, x 0 la soluzione di partenza; L espansione in serie di Taylor arrestata al ordine di f(x) è la seguente: f(x k +Dx)=f(x k )+J(x k )(Dx)+1/(Dx) T H(x k )(Dx), dove H(x k ) è l Hessiano di f. L espansione in serie di Taylor dà un approssimazione locale della f(x). E possibile minimizzare analiticamente tale approssimazione; il minimo si ottiene derivando e ponendo la derivata uguale a zero (metodo di Newton): J(x k )+H(x k )(Dx)=0 Dx = -H(x k ) -1 J(x k ) E oneroso calcolare l hessiano, velocità di convergenza alta. A.A /54

14 Minimizzazione: metodi di ordine f(x) f(x 0 ) x x 0 A.A /54

15 Minimizzazione: metodi di ordine f(x) f(x 0 ) f(x 1 ) x x 0 x 1 A.A /54

16 Minimizzazione metodi iterativi (riassunto) Quando la funzione da minimizzare è fortemente non lineare, è necessario ricorrere ad un metodo iterativo. Si fanno delle ipotesi sull andamento locale della f(x) e si aggiorna la soluzione x in modo da garantire che la f(x) decresca, fino al raggiungimento di un minimo locale. I metodi di ordine 0 utilizzano il calcolo della sola f(x) per studiarne l andamento locale e scegliere l aggiornamento della soluzione facili da implementare, lenti nella convergenza. I metodi di ordine 1 utilizzano anche il gradiente per studiare l andamento locale della soluzione discretamente complessi, velocità di convergenza media. I metodi di ordine utilizzano anche l hessiano per descrivere con maggior cura l andamento locale della soluzione (funzione surrogato ) e minimizzano ad ogni iterazione la funzione surrogato invece della f(x) il calcolo dell hessiano è complesso, velocità di convergenza alta. A.A /54

17 Expectation Maximization (EM) Una procedura iterativa ed efficiente per il calcolo della stima alla massima verosimiglianza, nel caso di dati mancanti / nascosti. Paragonabile come complessità computazionale ad un metodo di ordine 1, utilizza però una funzione surrogato (Expectation) per la massimizzazione della verosimiglianza ad ogni iterazione. Ad ogni iterazione: -> stima dei dati mancanti sulla base dei dati osservati e della stima attuale dei parametri; costruzione della funzione surrogato (Expectation); -> massimizzazione della funzione surrogato (e quindi della verosimiglianza) sotto l ipotesi che i dati mancanti siano noti. A.A /54

18 Prima di derivare EM... (Jensen) Per la derivazione di EM abbiamo bisogno di richiamare la e di dimostrare la ; Convessità: una funzione f(x) si dice convessa nell intervallo [a,b] se, x 1, x in [a,b], l[0,1]: f(lx 1 +(1- l)x ) lf(x 1 )+(1-l)f( x ); f (x)<0 -> f(x) è concava. d [ln(x)]/dx = -1/x < 0 -> ln(x) è concava, -ln(x) è convessa. lf(x 1 )+(1-l)f( x ) f(lx 1 +(1-l)x ) a x 1 lx 1 +(1-l)x x b A.A /54

19 Prima di derivare EM... (Jensen) Estendendo la nozione di convessità a più di due punti, si dimostra la disuguaglianza di Jensen; Sia f una funzione convessa definita nell intervallo [a,b]; siano x 1, x,..., x N [a,b]; siano l 1, l,..., l N 0 tali che i=1..n l i = 1; allora: f( i=1..n l i x i ) i=1..n l i f(x i ); Dimostrazione per induzione della disuguaglianza di Jensen: 1) dimostriamo che è vera per N=1; ) dimostriamo che, se è vera per N, allora è vera per N+1. A.A /54

20 Prima di derivare EM... (Jensen) Sia f una funzione convessa definita nell intervallo [a,b]; siano x 1, x,..., x N [a,b]; siano l 1, l,..., l N 0 tali che i=1..n l i = 1; allora: f( i=1..n l i x i ) i=1..n l i f(x i ); Per N=1, l 1 =1, f(1 x i ) 1 f(x i ); Per N=, f(lx 1 +(1-l)x ) lf(x 1 )+(1- l)f(x ) (direttamente dalla nozione di convessità). A.A /54

21 Prima di derivare EM... (Jensen) Sia f una funzione convessa definita nell intervallo [a,b]; siano x 1, x,..., x N [a,b]; siano l 1, l,..., l N 0 tali che i=1..n l i = 1; allora: f( i=1..n l i x i ) i=1..n l i f(x i ); Assumiamo che la disuguaglianza sia valida per un certo N, allora: f( i=1..n+1 l i x i ) = f(l N+1 x N+1 + i=1..n l i x i ) = f(l N+1 x N+1 + (1-l N+1 )/(1-l N+1 ) i=1..n l i x i ) l N+1 f(x N+1 ) + (1-l N+1 ) f[1/(1-l N+1 ) i=1..n l i x i ] f convessa l N+1 +(1-l N+1 )=1 A.A /54

22 Prima di derivare EM... (Jensen) Sia f una funzione convessa definita nell intervallo [a,b]; siano x 1, x,..., x N [a,b]; siano l 1, l,..., l N 0 tali che i=1..n l i = 1; allora: f( i=1..n l i x i ) i=1..n l i f(x i ); f( i=1..n+1 l i x i ) Disug. vera per N i=1..n l i /(1-l N+1 ) =1 l N+1 f(x N+1 ) + (1-l N+1 ) f[1/(1-l N+1 ) i=1..n l i x i ] = l N+1 f(x N+1 ) + (1-l N+1 ) f[ i=1..n l i /(1-l N+1 ) x i ] l N+1 f(x N+1 ) + (1-l N+1 ) i=1..n l i /(1-l N+1 ) f(x i ) = l N+1 f(x N+1 ) + i=1..n l i f(x i ) = i=1..n+1 l i f(x i ) QED A.A /54

23 Prima di derivare EM... (Jensen) Possiamo applicare la disugaglianza di Jensen al caso della funzione logaritmica, quindi: ln( i=1..n l i x i ) i=1..n l i ln(x i ); Possiamo quindi costruire un minorante per il logaritmo di una somma (att.ne, ln(x) è concavo => -ln(x) è convesso...) L espressione a destra è sempre minore dell espressione a sinistra massimizzare a destra implicare massimizzare a sinistra (tale proprietà verrà utilizzata in EM). A.A /54

24 Prima di derivare EM... (Bayes) Abbiamo due scatole, una blu e una arancione; Le scatole contengono triangoli verdi e cerchi rossi, come mostrato in figura; Sappiamo che è stato estratto un cerchio rosso, senza sapere da quale scatola; Siano P(A)=0.3 e P(B)=0.7 le probabilità (date a priori) di scegliere rispettivamente la scatola arancione o la scatola blu; Quale è la probabilità che il cerchio rosso estratto provenga dalla scatola arancione? A.A /54

25 Prima di derivare EM... (Bayes) R -> Cerchio rosso V -> Triangolo verde P(B)=0.7 P(A)=0.3 Quale è la probabilità che il cerchio rosso estratto provenga dalla scatola arancione, P(A R)? Scriviamo la probabilità totale di estrarre un cerchio rosso: P(R) = P(R B)*P(B)+P(R A)*P(A) (1) Nella (1) non compare P(A R), quindi non riusciamo a risolvere il problema... A.A /54

26 Prima di derivare EM... (Bayes) Probabilità congiunta (i due eventi si verificano insieme) Teorema di Bayes Consideriamo due eventi A e B con probabilità P(A) e P(B); abbiamo: P(A,B) = P(A B)*P(B) P(A,B) = P(B A)*P(A) A B Quindi: A P(A B)*P(B) = P(B A)*P(A) => P(A B) = P(B A)*P(A) / P(B) [Bayes] B A.A /54

27 Prima di derivare EM... (Bayes) R -> Cerchio rosso V -> Triangolo verde P(B)=0.7 P(A)=0.3 P(A R)=? P(R) = P(R B)*P(B)+P(R A)*P(A) (1) P(A R) = P(R A)*P(A) / P(R)[Bayes] Dalla (1) + [Bayes] abbiamo: P(A R) = 0.5*0.3 / (0.66* *0.3) A.A /54

28 Prima di derivare EM... (Bayes) Il teorema si estende al caso continuo (densità di probabilità invece che eventi...): Analogia con il caso discreto... Probabilità congiunta di x e y [fx,y(x,y) = fx(x Y=y)*f(Y=y) = fy(y X=x)*f(X=x)] Probabilità a posteriori di x dato y Densità marginali per x e y, con fx(x) detta anche a priori A.A /54

29 Derivazione di EM X -> vettore di variabili casuali; p(x q n ) = i p(x i q n )-> probabilità di X dati i parametri q n (all n-esima iterazione ); f (q n ) = ln[l(x q n )] -> logaritmo della verosimiglianza; Vogliamo trovare una regola di aggiornamento dei parametri tale per cui: f(q n+1 ) > f(q n ) => => ln[p(x q n+1 )] - ln[p(x q n )] > 0 A.A /54

30 Derivazione di EM In alcuni problemi, esistono alcune variabili nascoste (non osservate) EM fornisce un framework naturale per la loro incusione; In altri casi, l introduzione di alcune variabili nascoste arbitrarie permette di semplificare la formulazione matematica del problema. Consideriamo quindi un vettore di variabili nascoste Z e riscriviamo la probabilità di misurare i dati X considerando le variabili nascoste Z: p(x q n ) = z [p(x z,q n ) p(z q n )] * * Per calcolare la probabilità di un dato x, devo considerare tutti i possibili valori che può assumere z... A.A /54

31 Derivazione di EM Utilizzando le variabili nascoste, vogliamo trovare una funzione H(q n+1,q n ) t.c. f(q n+1 ) f(q n ) + H(q n+1,q n ) e H(q n,q n ) = 0. All iterazione n-esima, q n è fissato, mentre q n+1 è incognito. Massimizzando H(q n+1,q n ), si massimizza la f(q n+1 )! A.A /54

32 f(q n+1 ) f(q n+1 )+H(q n+1,q n ) f(q n ) Derivazione di EM (e convergenza) Massimizzando H(q n+1,q n ) rispetto a q n+1, otteniamo un nuovo lower bound per f(q n+1 ) più alto del precedente! f(q) f(q)+h(q, q n ) H(q, q n ) q n q n+1 q A.A /54

33 Derivazione di EM Ad ogni iterazione la f deve crescere [f(q n+1 )>f(q n )]... f(q n+1 ) - f(q n ) = ln{ z [p(x z,q n+1 ) p(z q n+1 )]} ln[p(x q n )] = ln{ z [p(x z,q n+1 ) p(z q n+1 ) p(z X,q n )/p(z X,q n )]} ln[p(x q n )] = ln{ z [p(z X,q n ) p(x z,q n+1 ) p(z q n+1 ) /p(z X,q n )]} ln[p(x q n )]... [ con Jensen, l z = p(z X,q n ), z l z = 1, x z = p(x z,q n+1 ) p(z q n+1 ) /p(z X,q n ) ]... z {p(z X,q n ) ln[p(x z,q n+1 ) p(z q n+1 ) /p(z X,q n )]} ln[p(x q n )] = z {p(z X,q n ) ln[p(x z,q n+1 ) p(z q n+1 )]}- z {p(z X,q n ) ln[p(z X,q n )]}-ln[p(x q n )] f(q n+1 ) - f(q n ) z {p(z X,q n ) ln[p(x z,q n+1 ) p(z q n+1 )]}- z {p(z X,q n ) ln[p(z X,q n )]}-ln[p(x q n )] A.A /54

34 Derivazione di EM Abbiamo quindi trovato: H(q n, q n+1 )= z {p(z X,q n ) ln[p(x z,q n+1 ) p(z q n+1 )]}- z {p(z X,q n ) ln[p(z X,q n )]}-ln[p(x q n )] Verifichiamo che H(q n, q n ) = 0... H(q n,q n )= z {p(z X,q n ) ln[p(x z,q n ) p(z q n )]}- z {p(z X,q n ) ln[p(z X,q n )]}-ln[p(x q n )] =1 ln[p(x q n )] = z [p(z X,q n )] ln[p(x q n )] = z {p(z X,q n ) ln[p(x q n )]} H(q n, q n )= z (p(z X,q n ) ln[p(x z,q n ) p(z q n )/[p(z X,q n ) p(x q n )]}) =... [ ricordando che p(x,z q n )=p(x z,q n ) p(z q n )=p(z X,q n ) p(x q n ) ]... = z {p(z X,q n ) ln[p(x,z q n )/p(x,z q n )]} = z {p(z X,q n ) ln(1)} = 0 QED A.A /54

35 Derivazione di EM Per derivare il passo di aggiornamento dei parametri, dobbiamo dunque massimizzare H(q n+1,q n ) rispetto a q n+1. q n+1 = argmax q H(q,q n ). Nella massimizzazione, possiamo evitare di considerare i termini di H(q,q n ) non dipendenti da q [Q = H + cost]. H(q n, q n+1 )= Q(q,q n ) + cost = z {p(z X,q n ) ln[p(x z,q n+1 ) p(z q n+1 )]}- z {p(z X,q n ) ln[p(z X,q n )]}-ln[p(x q n )]= q n+1 = argmax q z {p(z X,q n ) ln[p(x z,q n+1 ) p(z q n+1 )]} => q n+1 = argmax q z {p(z X,q n ) ln[p(x,z,q n+1 )]} A.A /54

36 Derivazione di EM Passo di aggiornamento: q n+1 = argmax q z {p(z X,q n ) ln[p(x,z,q n+1 )]} 1) Calcola il valore atteso (Expectation) di ln[p(x,z,q n+1 ), utilizzando le probabilità delle veriabili nascoste calcolate al passo precedente [p(z X,q n )]. ) Massimizza il valore atteso rispetto ai nuovi parametri q n+1 (Maximization). A.A /54

37 Cosa abbiamo guadagnato? Dalla problema di massimizzazione di f(q) siamo passati al problema di massimizzazione di Q(q). che non compaiono in f(q). Se scelte opportunamente, rispetto alla massimizzazione di f(q). EM permette inoltre di stimare il valore delle variabili nascoste. A.A /54

38 EM per la stima di due rette Tale problema ha una formulazione complessa, ma Se vengono inserite alcune variabili nascoste nel modello, la formulazione matematica del problema può essere semplificata. Nel caso della stima delle due rette Cosa succederebbe se ci fosse data l appartenenza di una misura yi all una o all altra retta? In tal caso il problema si ridurrebbe a due semplici problemi di stima di retta ai minimi quadrati. Per formulare EM, introduciamo delle variabili nascoste Z che descrivono l appartenenza di una misura yi alla retta 1 o alla retta. A.A /54

39 EM per la stima di due rette: funzione Q Dobbiamo massimizzare la media su Z del logaritmo della funzione di verosimiglianza, condizionata a Z: q Q old arg max Q q q q, old old p Z Y py Z q, q, q ln, q new Z Expectation Maximization A.A /54

40 EM per la stima di due rette: funzione Q Assumendo come variabile nascosta Z il fatto che cascun punto yi sia generato dall una o dall altra retta, otteniamo : Q old old q, q p Z Y, q lnpy, Z q old old p Z Y, m1, m lnpy, Z m1, m Z Z Costante [K(yi,j)] da calcolare nella fase di Expectation A.A /54

41 EM per la stima di due rette: Expectation Dal momento che le variabili nascoste non sono note, devono essere stimate a partire dai dati. Utilizzando il teorema di Bayes, e considerando un vettore di parametri stimato q old, possiamo stimare le probabilità delle Z, p(z Y, q old ). A.A /54

42 EM per la stima di due rette: Expectation Stimiamo le variabili nascoste utilizzando il teorema di Bayes: Probabilità che sia stata la retta J- esima a generare il dato y p J y Probabilità del dato y quando generato dalla componente J py J pj py Probabilità della componente J Probabilità del dato y A.A /54

43 EM per la stima di due rette: Expectation Specificando per nostro caso: p J yi P1 p p j yi Pj yi P p yi 1 La p(j yi) descrive il grado di appartenenza del dato yi alla retta j. All iterazione k-esima, può essere calcolato con i parametri m1, m dell iterazione stessa. A.A /54

44 EM per la stima di due rette: Maximization Ciò consente di costruire la funzione di Expectation, che verrà massimizzata ad ogni passo si richiede di massimizzare la media su Z del logaritmo della funzione di verosimiglianza: q Q old arg max Q q q q, old old p Z Y py Z q, q, q ln, q new Z Expectation Maximization A.A /54

45 EM per la stima di due rette: Maximization Q N i1 N i1 N i1 j1 j1 j1 k k k yi, jln p yi kyi, j i1 yi, jln kyi, j j 1 s N N i1 1 1 s s j1 j1 yi, jln kyi, jyi mj xi N i1 j1 ln 1 1 e s 1 yimjxi s yi mj xi s A.A /54

46 EM per la stima di due rette: Maximization Cerchiamo allora il massimo di Q (Maximization) per avere l aggiornamento della soluzione: N Q mj mj i1 1 0 s mj 1 s 1 s 1 s N i1 mj k N i1 k N i1 j1 N i1 k k yi, jln kyi, jyi mj xi j1 k yi, jyi mj xi yi, jyi mj xi yi, jyi mj xi xi yi, jyi mj xixi 1 1 s s N i1 j1 A.A /54

47 EM per la stima di due rette: Maximization Ponendo la derivata di Q uguale a zero Q mj N i1 N i1 k k mj 1 s yi, jyi mj xixi yi, jyi mj xixi N yi, jyi xi mjkyi, jxi N i1 N k i1 N i1 yi, jyi xi k k yi, jxi i Otteniamo le equazioni di aggiornamento per i parametri del modello secondo EM. A.A /54

48 EM per la stima di due rette: Maximization Analizzando la funzione di aggiornamento per EM mj N i1 N k i1 yi, jyi xi k yi, j xi I parametri vengono aggiornati secondo uno schema ai minimi quadrati pesati dai fattori k(yi,j) che descrivono l appartenenza di un dato alla retta 1 o alla retta. Vedere anche codice Matlab A.A /54

49 EM per la stima di due rette: interpretazione Discorso al limite per interpretare EM Si assegna un punto alla retta 1 o alla retta sulla base della distanza dalle due rette (expectation); Si risolvono i due problemi di stima ai minimi quadrati (facili! - maximization); Si itera fino a convergenza Ricorda qualcosa??? Nell EM reale l assegnazione è soft invece che hard. Vedere anche codice Matlab A.A /54

50 EM per la stima di due rette: esempio A.A /54

51 EM per la stima di due rette: esempio A.A /54

52 EM per la stima di due rette: esempio A.A /54

53 EM - riassunto La funzione di verosimiglianza può portare ad una minimizzazione complessa; Introducendo delle variabili nascoste Z nel modello la formulazione può essere semplificata; Il valore delle variabili nascoste Z viene ad esempio calcolato con il teorema di Bayes nella fase di costruzione della funzione di Expectation; Nel passo di Maximization, si massimizza la media su Z del logaritmo della verosimiglianza. A.A /54

54 Riferimenti Derivazione di EM per lo più ispirata a: (disponibile free in rete). Riferimento alternativo o per approfondimenti: Cristopher M. Bishop, Pattern Recognition and Machine Learning, Capitolo 9.4. A.A /54

A.A /49 frosio\

A.A /49   frosio\ Expectation Maximization I. Frosio A.A. 009-00 /49 http:\\homes.dsi.unimi.it\ frosio\ Overview Stima di due rette (riassunto) Minimizzazione: metodi di ordine zero (simplesso, ) Minimizzazione: i i i metodi

Dettagli

Algoritmi di minimizzazione EM Mixture models

Algoritmi di minimizzazione EM Mixture models Algoritmi di minimizzazione E ixture models I. Frosio AIS Lab. frosio@dsi.unimi.it /58 Overview Stima di due rette (riassunto) inimizzazione: metodi di ordine zero (simplesso, ) inimizzazione: metodi di

Dettagli

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Metodi per l Analisi dei Dati Sperimentali AA009/010 IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Sommario Massima Verosimiglianza Introduzione La Massima Verosimiglianza Esempio 1: una sola misura sperimentale

Dettagli

Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità)

Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Derivazione numerica. Introduzione al calcolo numerico. Derivazione numerica (II) Derivazione numerica (III)

Derivazione numerica. Introduzione al calcolo numerico. Derivazione numerica (II) Derivazione numerica (III) Derivazione numerica Introduzione al calcolo numerico Il calcolo della derivata di una funzione in un punto implica un processo al limite che può solo essere approssimato da un calcolatore. Supponiamo

Dettagli

Metodo dei Minimi Quadrati. Dott. Claudio Verona

Metodo dei Minimi Quadrati. Dott. Claudio Verona Metodo dei Minimi Quadrati Dott. Claudio Verona E in generale interessante studiare l andamento di una variabile in funzione di un altra e capire se c è una funzione matematica che le lega. Viceversa è

Dettagli

8 Derivati dell entropia

8 Derivati dell entropia (F1X) Teoria dell Informazione e della Trasmissione 8 Derivati dell entropia Docente: Nicolò Cesa-Bianchi versione 23 marzo 2016 Siano X e Y due variabili casuali con valori in insiemi finiti X e Y. Detta

Dettagli

Metodi di Iterazione Funzionale

Metodi di Iterazione Funzionale Appunti di Matematica Computazionale Lezione Metodi di Iterazione Funzionale Il problema di calcolare il valore per cui F() = si può sempre trasformare in quello di trovare il punto fisso di una funzione

Dettagli

Appunti sul corso di Complementi di Matematica mod. Analisi prof. B.Bacchelli - a.a. 2010/2011.

Appunti sul corso di Complementi di Matematica mod. Analisi prof. B.Bacchelli - a.a. 2010/2011. Appunti sul corso di Complementi di Matematica mod. Analisi prof. B.Baccelli - a.a. 2010/2011. 06 - Derivate, differenziabilità, piano tangente, derivate di ordine superiore. Riferimenti: R.Adams, Calcolo

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2018.html

Dettagli

Prima prova in Itinere Ist. Mat. 1, Prima parte, Tema ALFA COGNOME: NOME: MATR.:

Prima prova in Itinere Ist. Mat. 1, Prima parte, Tema ALFA COGNOME: NOME: MATR.: Prima prova in Itinere Ist. Mat. 1, Prima parte, Tema ALFA 1) L applicazione lineare f : R 3 R 2 data da f(x, y, z) = (3x + 2y + z, kx + 2y + kz) è suriettiva A: sempre; B: mai; C: per k 1 D: per k 2;

Dettagli

Cenni di apprendimento in Reti Bayesiane

Cenni di apprendimento in Reti Bayesiane Sistemi Intelligenti 216 Cenni di apprendimento in Reti Bayesiane Esistono diverse varianti di compiti di apprendimento La struttura della rete può essere nota o sconosciuta Esempi di apprendimento possono

Dettagli

PreCorso di Matematica - PCM CANALE M-Z settembre 2019

PreCorso di Matematica - PCM CANALE M-Z settembre 2019 PreCorso di Matematica - PCM CANALE M-Z settembre 2019 DOCENTE: M. Auteri LE DERIVATE La pendenza di un tratto di strada rettilineo è misurata dal coefficiente angolare della retta LE DERIVATE La pendenza

Dettagli

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A Università di Siena Teoria della Stima Lucidi del corso di A.A. 2002-2003 Università di Siena 1 Indice Approcci al problema della stima Stima parametrica Stima bayesiana Proprietà degli stimatori Stime

Dettagli

Stima dei Parametri. Capitolo 8

Stima dei Parametri. Capitolo 8 Capitolo 8 Stima dei Parametri Lo scopo dello studio dei fenomeni fisici è quello di scoprire le leggi che legano le grandezze oggetto di indagine e di misurare il valore delle costanti che compaiono della

Dettagli

Elementi di Probabilità e Statistica - 052AA - A.A

Elementi di Probabilità e Statistica - 052AA - A.A Elementi di Probabilità e Statistica - 05AA - A.A. 014-015 Prima prova di verifica intermedia - 9 aprile 015 Problema 1. Dati due eventi A, B, su uno spazio probabilizzato (Ω, F, P), diciamo che A è in

Dettagli

9.3 Il metodo dei minimi quadrati in formalismo matriciale

9.3 Il metodo dei minimi quadrati in formalismo matriciale 9.3. IL METODO DEI MINIMI QUADRATI IN FORMALISMO MATRICIALE 121 9.3 Il metodo dei minimi quadrati in formalismo matriciale Per applicare il MMQ a funzioni polinomiali, ovvero a dipendenze di una grandezza

Dettagli

Esercitazione del 29 aprile 2014

Esercitazione del 29 aprile 2014 Esercitazione del 9 aprile 014 Esercizio 10.13 pg. 94 Complemento: Calcolare la probabilità che un negozio apra tra le sette e venti e le nove e quaranta del mattino. Soluzione: Siccome non è nota la distribuzione

Dettagli

Corso di Matematica per la Chimica

Corso di Matematica per la Chimica Dott.ssa Maria Carmela De Bonis a.a. 2013-14 Risoluzione di Equazioni Algebriche Le equazioni algebriche sono equazioni del tipo P(x) = 0 dove P è un polinomio di grado n cioé P(x) = a 1 x n + a 2 x n

Dettagli

1 Fit di dati sperimentali: il χ 2. Il metodo dei minimi quadrati.

1 Fit di dati sperimentali: il χ 2. Il metodo dei minimi quadrati. 1 Fit di dati sperimentali: il χ 2. Il metodo dei minimi quadrati. Per comprendere dei fenomeni fisici, non basta raccogliere buoni dati sperimentali, occorre anche interpretarli. Molto spesso lo scopo

Dettagli

Regressione Lineare e Regressione Logistica

Regressione Lineare e Regressione Logistica Regressione Lineare e Regressione Logistica Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: stefano.gualandi@unipv.it @famo2spaghi http://stegua.github.com 1 Introduzione

Dettagli

Minimi quadrati e massima verosimiglianza

Minimi quadrati e massima verosimiglianza Minimi quadrati e massima verosimiglianza 1 Introduzione Nella scorsa lezione abbiamo assunto che la forma delle probilità sottostanti al problema fosse nota e abbiamo usato gli esempi per stimare i parametri

Dettagli

Università degli Studi di Roma La Sapienza

Università degli Studi di Roma La Sapienza Università degli Studi di Roma La Sapienza Dipartimento di Informatica e Sistemistica A. Ruberti Proff. Gianni Di Pillo and Laura Palagi Note per il corso di OTTIMIZZAZIONE (a.a. 2007-08) Dipartimento

Dettagli

Lezione 6 Richiami di Geometria Analitica

Lezione 6 Richiami di Geometria Analitica 1 Piano cartesiano Lezione 6 Richiami di Geometria Analitica Consideriamo nel piano due rette perpendicolari che si intersecano in un punto O Consideriamo ciascuna di queste rette come retta orientata

Dettagli

26 - Funzioni di più Variabili Limiti e Derivate

26 - Funzioni di più Variabili Limiti e Derivate Università degli Studi di Palermo Facoltà di Economia CdS Statistica per l Analisi dei Dati Appunti del corso di Matematica 26 - Funzioni di più Variabili Limiti e Derivate Anno Accademico 2013/2014 M.

Dettagli

LA STRUTTURA DEI PROBLEMI DI OTTIMIZZAZIONE. L'ipotesi di razionalità implica che un decisore cerchi di

LA STRUTTURA DEI PROBLEMI DI OTTIMIZZAZIONE. L'ipotesi di razionalità implica che un decisore cerchi di LA STRUTTURA DEI PROBLEMI DI OTTIMIZZAZIONE L'ipotesi di razionalità implica che un decisore cerchi di individuare la migliore tra tutte le alternative a sua disposizione. Problemi di ottimizzazione =

Dettagli

Computazione per l interazione naturale: clustering e riduzione di dimensionalità

Computazione per l interazione naturale: clustering e riduzione di dimensionalità Computazione per l interazione naturale: clustering e riduzione di dimensionalità Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Esercitazioni di Matematica

Esercitazioni di Matematica Università degli Studi di Udine Anno Accademico 009/00 Facoltà di Agraria Corsi di Laurea in VIT e STAL Esercitazioni di Matematica novembre 009 Trovare le soluzioni della seguente disequazione: x + +

Dettagli

Risoluzione di sistemi lineari sparsi e di grandi dimensioni

Risoluzione di sistemi lineari sparsi e di grandi dimensioni Risoluzione di sistemi lineari sparsi e di grandi dimensioni Un sistema lineare Ax = b con A R n n, b R n, è sparso quando il numero di elementi della matrice A diversi da zero è αn, con n α. Una caratteristica

Dettagli

Corso di Calcolo Numerico

Corso di Calcolo Numerico Corso di Calcolo Numerico Dott.ssa M.C. De Bonis Università degli Studi della Basilicata, Potenza Facoltà di Ingegneria Corso di Laurea in Ingegneria Meccanica Risoluzione di Equazioni Algebriche Le equazioni

Dettagli

9. Test del χ 2 e test di Smirnov-Kolmogorov. 9.1 Stimatori di massima verosimiglianza per distribuzioni con densità finita

9. Test del χ 2 e test di Smirnov-Kolmogorov. 9.1 Stimatori di massima verosimiglianza per distribuzioni con densità finita 9. Test del χ 2 e test di Smirnov-Kolmogorov 9. Stimatori di massima verosimiglianza per distribuzioni con densità finita Supponiamo di avere un campione statistico X,..., X n e di sapere che esso è relativo

Dettagli

Claudio Estatico Equazioni non-lineari

Claudio Estatico Equazioni non-lineari Claudio Estatico (claudio.estatico@uninsubria.it) Equazioni non-lineari 1 Equazioni non-lineari 1) Equazioni non-lineari e metodi iterativi. 2) Metodo di bisezione, metodo regula-falsi. 3) Metodo di Newton.

Dettagli

Secondo parziale di Matematica per l Economia lettere E-Z, a.a , compito A prof. Gianluca Amato

Secondo parziale di Matematica per l Economia lettere E-Z, a.a , compito A prof. Gianluca Amato Corso di Laurea in Economia e Management Secondo parziale di Matematica per l Economia lettere E-Z, a.a. 216 217, compito A prof. Gianluca Amato Regole generali Si svolga il primo esercizio e, a scelta

Dettagli

Rischio statistico e sua analisi

Rischio statistico e sua analisi F94 Metodi statistici per l apprendimento Rischio statistico e sua analisi Docente: Nicolò Cesa-Bianchi versione 7 aprile 018 Per analizzare un algoritmo di apprendimento dobbiamo costruire un modello

Dettagli

Equazioni differenziali Problema di Cauchy

Equazioni differenziali Problema di Cauchy Equazioni differenziali Problema di Cauch Primo esempio - Risolvere l equazione '( ) = g( ) con g( ) :[ a, b] R continua Teor. fondamentale del calcolo integrale ( ) = + g ( t )dt Primo esempio - Osserviamo

Dettagli

Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2017/2018. Giovanni Lafratta

Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2017/2018. Giovanni Lafratta Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2017/2018 Giovanni Lafratta ii Indice 1 Spazi, Disegni e Strategie Campionarie 1 2 Campionamento casuale

Dettagli

Le condizioni di Karush-Kuhn-Tucker

Le condizioni di Karush-Kuhn-Tucker Capitolo 9 Le condizioni di Karush-Kuhn-Tucker 9. Introduzione In questo capitolo deriveremo le condizioni necessarie di Karush-Kuhn-Tucker (KKT) per problemi vincolati in cui S è descritto da vincoli

Dettagli

Corso di Analisi Numerica

Corso di Analisi Numerica Corso di Laurea in Ingegneria Informatica Corso di 5 - INTEGRAZIONE NUMERICA Lucio Demeio Dipartimento di Scienze Matematiche 1 Integrazione numerica: formule di Newton-Cotes semplici 2 3 Introduzione

Dettagli

Sistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese

Sistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese Sistemi Intelligenti Relazione tra ottimizzazione e statistica - IV Alberto Borghese Università degli Studi di Milano Laboratory of Applied Intelligent Systems (AIS-Lab) Dipartimento di Informatica borghese@di.unimi.it

Dettagli

Università di Pavia Econometria. Richiami di Statistica. Eduardo Rossi

Università di Pavia Econometria. Richiami di Statistica. Eduardo Rossi Università di Pavia Econometria Richiami di Statistica Eduardo Rossi Università di Pavia Campione casuale Siano (Y 1, Y 2,..., Y N ) variabili casuali tali che le y i siano realizzazioni mutuamente indipendenti

Dettagli

Statistica ARGOMENTI. Calcolo combinatorio

Statistica ARGOMENTI. Calcolo combinatorio Statistica ARGOMENTI Calcolo combinatorio Probabilità Disposizioni semplici Disposizioni con ripetizione Permutazioni semplici Permutazioni con ripetizioni Combinazioni semplici Assiomi di probabilità

Dettagli

7.9 Il caso vincolato: vincoli di disuguaglianza

7.9 Il caso vincolato: vincoli di disuguaglianza 7.9 Il caso vincolato: vincoli di disuguaglianza Il problema con vincoli di disuguaglianza: g i (x) 0, i = 1,..., p, (51) o, in forma vettoriale: g(x) 0, può essere trattato basandosi largamente su quanto

Dettagli

4.11 Massimi e minimi relativi per funzioni di più variabili

4.11 Massimi e minimi relativi per funzioni di più variabili 5. Determinare, al variare del parametro a R, la natura delle seguenti forme quadratiche: (i) Φ(x, y, z) = x 2 + 2axy + y 2 + 2axz + z 2, (ii) Φ(x, y, z, t) = 2x 2 + ay 2 z 2 t 2 + 2xz + 4yt + 2azt. 4.11

Dettagli

Richiami di matematica

Richiami di matematica corso di Economia Politica I (sede di San Benedetto del Tronto) Nota Lo scopo di queste pagine è sostanzialmente quello di richiamare l attenzione degli studenti su alcuni strumenti analitici utili per

Dettagli

Università di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti

Università di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Università di Siena Corso di STATISTICA Parte seconda: Teoria della stima Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Master E 2 C Centro per lo Studio dei Sistemi Complessi Università di

Dettagli

Analisi Matematica A e B Soluzioni prova scritta parziale n. 4

Analisi Matematica A e B Soluzioni prova scritta parziale n. 4 Analisi Matematica A e B Soluzioni prova scritta parziale n. Corso di laurea in Fisica, 08-09 7 aprile 09. Determinare le soluzioni u(x) dell equazione differenziale u + u u = sin x + ex + e x. Soluzione.

Dettagli

CALCOLO INTEGRALE: L INTEGRALE DEFINITO

CALCOLO INTEGRALE: L INTEGRALE DEFINITO ISTITUZIONI DI MATEMATICHE E FONDAMENTI DI BIOSTATISTICA CALCOLO INTEGRALE: L INTEGRALE DEFINITO A. A. 2013-2014 1 IL PROBLEMA DELL AREA Determinare l area della regione S di piano compresa tra il grafico

Dettagli

Metodi Numerici con elementi di Programmazione (A.A )

Metodi Numerici con elementi di Programmazione (A.A ) Metodi Numerici con elementi di Programmazione (A.A. 2013-2014) Metodi Numerici Appunti delle lezioni: Approssimazione di dati e funzioni Approssimazione ai minimi quadrati Docente Vittoria Bruni Email:

Dettagli

Corso di Matematica per la Chimica. Dott.ssa Maria Carmela De Bonis a.a

Corso di Matematica per la Chimica. Dott.ssa Maria Carmela De Bonis a.a Dott.ssa Maria Carmela De Bonis a.a. 2013-14 Risoluzione di Equazioni non lineari Sia F C 0 ([a, b]), cioé F è una funzione continua in un intervallo [a, b] R, tale che F(a)F(b) < 0 1.5 1 F(b) 0.5 0 a

Dettagli

Statistica 2. Esercitazioni. Dott. Luigi Augugliaro 1. Università di Palermo

Statistica 2. Esercitazioni. Dott. Luigi Augugliaro 1. Università di Palermo Statistica 2 Esercitazioni Dott. L 1 1 Dipartimento di Scienze Statistiche e Matematiche S. Vianelli, Università di Palermo ricevimento: lunedì ore 15-17 mercoledì ore 15-17 e-mail: luigi.augugliaro@unipa.it

Dettagli

Soluzioni. Foglio 1. Rette e piani. n x + c = 0. (1)

Soluzioni. Foglio 1. Rette e piani. n x + c = 0. (1) Soluzioni Foglio 1. Rette e piani. Esercizio 1. Se n è la normale al piano, sia c = n x 0. Dimostriamo prima che se x π, allora x soddisfa Si ha Sostituendo dentro (1) si ottiene n x + c = 0. (1) x = x

Dettagli

Corso di Calcolo Numerico

Corso di Calcolo Numerico Corso di Calcolo Numerico Dott.ssa M.C. De Bonis Università degli Studi della Basilicata, Potenza Facoltà di Ingegneria Corso di Laurea in Ingegneria Meccanica Risoluzione di Equazioni non lineari Sia

Dettagli

Matematica II prof. C.Mascia

Matematica II prof. C.Mascia Corso di laurea in CHIMICA INDUSTRIALE Sapienza, Università di Roma Matematica II prof CMascia alcuni esercizi, parte, 7 marzo 25 Indice Testi degli esercizi 2 Svolgimento degli esercizi 4 Testi degli

Dettagli

Soluzione di Equazioni non lineari

Soluzione di Equazioni non lineari Soluzione di Equazioni non lineari Corso di Calcolo Numerico 20 Marzo 2018 Function in MATLAB Lo scopo di una funzione è quello di prendere in input un certo numero di valori, fare alcune operazioni con

Dettagli

3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI

3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI 3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI ESISTENZA DI UN PUNTO DI OTTIMO VINCOLATO Il problema di ottimizzazione vincolata introdotto nel paragrafo precedente può essere formulato nel modo seguente:

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Metodi Bayesiani Fabio Aiolli 11 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 11 Dicembre 2017 1 / 19 Metodi Bayesiani I metodi Bayesiani forniscono tecniche computazionali

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2017.html

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Metodi Bayesiani - Naive Bayes Fabio Aiolli 13 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 13 Dicembre 2017 1 / 18 Classificatore Naive Bayes Una delle tecniche più semplici

Dettagli

Matematica. 11. Applicazioni delle derivate, problemi di ottimo e studio di funzione. Giuseppe Vittucci Marzetti 1

Matematica. 11. Applicazioni delle derivate, problemi di ottimo e studio di funzione. Giuseppe Vittucci Marzetti 1 Matematica 11. Applicazioni delle derivate, problemi di ottimo e studio di funzione Giuseppe Vittucci Marzetti 1 Corso di laurea in Scienze dell Organizzazione Dipartimento di Sociologia e Ricerca Sociale

Dettagli

3. CALCOLO DIFFERENZIALE PER FUNZIONI DI UNA VARIABILE REALE.

3. CALCOLO DIFFERENZIALE PER FUNZIONI DI UNA VARIABILE REALE. 3. CALCOLO DIFFERENZIALE PER FUNZIONI DI UNA VARIABILE REALE. Molto spesso y = f(x) rappresenta l evoluzione di un fenomeno al passare del tempo x.se siamo interessati a sapere con che rapidità il fenomeno

Dettagli

Analisi Numerica. Francesca Mazzia. a.a. 2006/2007. Integrazione. Dipartimento di Matematica. Università di Bari

Analisi Numerica. Francesca Mazzia. a.a. 2006/2007. Integrazione. Dipartimento di Matematica. Università di Bari Analisi Numerica Francesca Mazzia Dipartimento di Matematica Università di Bari a.a. 2006/2007 Integrazione 1 Integrazione Problema: approssimare integrali definiti del tipo: a f(x)dx, Scegliamo n + 1

Dettagli

Esercitazioni di Matematica Generale A.A. 2016/2017 Pietro Pastore Lezione del 12 Dicembre Calcolo di Derivate

Esercitazioni di Matematica Generale A.A. 2016/2017 Pietro Pastore Lezione del 12 Dicembre Calcolo di Derivate Esercitazioni di Matematica Generale A.A. 206/207 Pietro Pastore Lezione del 2 Dicembre 206 Calcolo di Derivate Nella seguente tabella elenchiamo le derivate delle funzioni elementari f() f () k 0 n e

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici (2)

Computazione per l interazione naturale: fondamenti probabilistici (2) Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Esercitazione n 5. 1 Limiti e continuità di funzioni in più variabili. Esercizio 1: Si verifichi che la funzione f definita per ogni (x, y) R 2 da

Esercitazione n 5. 1 Limiti e continuità di funzioni in più variabili. Esercizio 1: Si verifichi che la funzione f definita per ogni (x, y) R 2 da Esercitazione n 5 1 Limiti e continuità di funzioni in più variabili Esercizio 1: Si verifici ce la funzione f definita per ogni (, y) R 2 da { 4 y 4 se (, y) (0, 0) f(, y) = 2 +y 2 0 se (, y) = (0, 0)

Dettagli

Integrali inde niti. F 2 (x) = x5 3x 2

Integrali inde niti. F 2 (x) = x5 3x 2 Integrali inde niti Abbiamo sinora studiato come ottenere la funzione derivata di una data funzione. Vogliamo ora chiederci, data una funzione f, come ottenerne una funzione, che derivata dia f. Esempio

Dettagli

Manuale di Matematica per le applicazioni economiche Algebra lineare Funzioni di due variabili

Manuale di Matematica per le applicazioni economiche Algebra lineare Funzioni di due variabili Manuale di Matematica per le applicazioni economiche Algebra lineare Funzioni di due variabili Juan Gabriel Brida Nicoletta Colletti School of Economics and Manangement Free University of Bozen - Bolzano

Dettagli

Economia, Corso di Laurea Magistrale in Ing. Elettrotecnica, A.A Prof. R. Sestini SCHEMA DELLE LEZIONI DELLA QUINTA E SESTA SETTIMANA

Economia, Corso di Laurea Magistrale in Ing. Elettrotecnica, A.A Prof. R. Sestini SCHEMA DELLE LEZIONI DELLA QUINTA E SESTA SETTIMANA Economia, Corso di Laurea Magistrale in Ing. Elettrotecnica, A.A. 2013-2014. Prof. R. Sestini SCHEMA DELLE LEZIONI DELLA QUINTA E SESTA SETTIMANA In sintesi, una tecnologia costituisce un insieme di piani

Dettagli

Correzione Esercitazione 2

Correzione Esercitazione 2 Correzione Esercitazione Esercizio. Per contare correttamente i casi favorevoli all uscita del 9 e all uscita del bisogna considerare i modi in cui si possono ottenere le loro scomposizioni: in particolare,

Dettagli

Funzioni implicite - Esercizi svolti

Funzioni implicite - Esercizi svolti Funzioni implicite - Esercizi svolti Esercizio. È data la funzione di due variabili F (x, y) = y(e y + x) log x. Verificare che esiste un intorno I in R del punto di ascissa x 0 = sul quale è definita

Dettagli

Raffaele D. Facendola

Raffaele D. Facendola Analisi 2 Argomenti Curve in Parametrizzazione e sostegno Parametrizzazioni equivalenti Lunghezza di una curva Parametro arco Campi vettoriali Definizione Linea di flusso Gradiente Operatore di Laplace

Dettagli

Matematica per le Applicazioni Economiche I (M-P)

Matematica per le Applicazioni Economiche I (M-P) Matematica per le Applicazioni Economiche I (M-P) Corsi di Laurea in Economia Aziendale, Economia e Commercio, a.a. 06-7 Esercizi su Calcolo Differenziale. Per la seguente funzione, dato 0, si utilizzi

Dettagli

Stabilire se il punto di coordinate (1,1) appartiene alla circonferenza centrata nell origine e di raggio 1.

Stabilire se il punto di coordinate (1,1) appartiene alla circonferenza centrata nell origine e di raggio 1. Definizione di circonferenza e cerchio. Equazione della circonferenza centrata in O e di raggio R. Esercizi. La circonferenza e il cerchio Definizioni: dato un punto C nel piano cartesiano e dato un numero

Dettagli

Metodi computazionali per i Minimi Quadrati

Metodi computazionali per i Minimi Quadrati Metodi computazionali per i Minimi Quadrati Come introdotto in precedenza si considera la matrice. A causa di mal condizionamenti ed errori di inversione, si possono avere casi in cui il e quindi S sarebbe

Dettagli

Variabili aleatorie scalari

Variabili aleatorie scalari Metodi di Analisi dei Dati Sperimentali AA /2010 Pier Luca Maffettone Variabili aleatorie scalari Sommario della Introduzione CDF e PDF: definizione CDF e PDF: proprietà Distribuzioni uniforme e Gaussiana

Dettagli

Stima dei parametri. La v.c. multipla (X 1, X 2,.., X n ) ha probabilità (o densità): Le f( ) sono uguali per tutte le v.c.

Stima dei parametri. La v.c. multipla (X 1, X 2,.., X n ) ha probabilità (o densità): Le f( ) sono uguali per tutte le v.c. Stima dei parametri Sia il carattere X rappresentato da una variabile casuale (v.c.) che si distribuisce secondo la funzione di probabilità f(x). Per investigare su tale carattere si estrae un campione

Dettagli

Metodi Numerici per l Approssimazione degli Zeri di una Funzione

Metodi Numerici per l Approssimazione degli Zeri di una Funzione Metodi Numerici per l Approssimazione degli Zeri di una Funzione Luca Gemignani luca.gemignani@unipi.it 29 marzo 2018 Indice Lezione 1: Il Metodo di Bisezione. 1 Lezione 2: Metodi di Iterazione Funzionale.

Dettagli

10 - Massimi, minimi e flessi

10 - Massimi, minimi e flessi Università degli Studi di Palermo Facoltà di Economia Dipartimento di Scienze Economiche, Aziendali e Statistiche Appunti del corso di Matematica 10 - Massimi, minimi e flessi Anno Accademico 2015/2016

Dettagli

5. Analisi dei dati di input

5. Analisi dei dati di input Anno accademico 2007/08 Analisi e scelta dei dati di input Per l esecuzione di una simulazione è necessario disporre di dati di input che siano una adeguata rappresentazione di ciò che accadrà in realtà

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici (2)

Computazione per l interazione naturale: fondamenti probabilistici (2) Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it

Dettagli

Analisi Matematica 3/Analisi 4 - SOLUZIONI (20/01/2016)

Analisi Matematica 3/Analisi 4 - SOLUZIONI (20/01/2016) Corso di Laurea in Matematica Docente: Claudia Anedda Analisi Matematica 3/Analisi 4 - SOLUZIONI (//6) ) i) Dopo averla classificata, risolvere l equazione differenziale tẋ x = t cos(t), t >. ii) Scrivere

Dettagli

y + P(x) y + Q(x) y = 0 y(x) = c 1y 1(x) + c 2 y 2(x).

y + P(x) y + Q(x) y = 0 y(x) = c 1y 1(x) + c 2 y 2(x). Proposizione 4. Se y 1(x) e y (x) sono soluzioni linearmente indipendenti di y + P(x) y + Q(x) y = 0 ogni altra soluzione della stessa equazione si scrive nella forma per una scelta opportuna delle costanti

Dettagli

Argomento 6 Derivate

Argomento 6 Derivate Argomento 6 Derivate Derivata in un punto Definizione 6. Data una funzione f definita su un intervallo I e 0 incrementale di f in 0 di incremento h = 0 = il rapporto I, si chiama rapporto per = 0 + h =

Dettagli

Un pilinomio di grado n può essere scritto nella forma:

Un pilinomio di grado n può essere scritto nella forma: ESAME DI MATURITA 2010 - QUESITI DELLA SECONDA PROVA DI MATEMATICA - LICEO SCIENTIFICO TRADIZIONALE A cura di Alberto Bellato Soluzioni a cura di Studentville.it e Votailprof.it Attenzione: il contenuto

Dettagli

Quale delle seguenti rappresentazioni del numero reale è in virgola mobile normalizzata?

Quale delle seguenti rappresentazioni del numero reale è in virgola mobile normalizzata? Quale delle seguenti istruzioni MATLAB esegue il calcolo del raggio spettrale di una matrice quadrata A? a. max(eig(abs(a))) b. max(abs(eig(a))) c. abs(max(eig(a))) d. max(abs(eig(a *A))) Il raggio spettrale

Dettagli

Università degli studi di Udine - Sede di Pordenone

Università degli studi di Udine - Sede di Pordenone Università degli studi di Udine - Sede di Pordenone Facoltà di Scienze della Formazione - Corso di Corso di Matematica e Statistica Tema d esame AA2009/2010-27 gennaio 2010 Esercizio 1a Esplicitare la

Dettagli

Complementi di Matematica e Calcolo Numerico A.A Laboratorio 4 - Metodi di Newton e Punto fisso

Complementi di Matematica e Calcolo Numerico A.A Laboratorio 4 - Metodi di Newton e Punto fisso Complementi di Matematica e Calcolo Numerico A.A. 2011-2012 Laboratorio 4 - Metodi di Newton e Punto fisso [1] Metodo di Newton Costruire una MATLAB FUNCTION che, dati dall utente: una funzione f una funzione

Dettagli

La lunghezza dei vettori e legata alle operazioni sui vettori nel modo seguente: Consideriamo due vettori v, w e il vettore v + w loro somma.

La lunghezza dei vettori e legata alle operazioni sui vettori nel modo seguente: Consideriamo due vettori v, w e il vettore v + w loro somma. Matematica II, 20.2.. Lunghezza di un vettore nel piano Consideriamo il piano vettoriale geometrico P O. Scelto un segmento come unita, possiamo parlare di lunghezza di un vettore v P O rispetto a tale

Dettagli

Stima puntuale di parametri

Stima puntuale di parametri Probabilità e Statistica Esercitazioni a.a. 2009/2010 C.d.L.: Ingegneria Elettronica e delle Telecomunicazioni, Ingegneria Informatica Stima puntuale di parametri Ines Campa Probabilità e Statistica -

Dettagli

Ricevimento del 2 Febbraio 2011

Ricevimento del 2 Febbraio 2011 Ricevimento del 2 Febbraio 20 Davide Boscaini Queste sono le note del ricevimento del 2 Febbraio. Ho scelto di scrivere queste poche pagine per una maggior chiarezza e per chi non fosse stato presente

Dettagli

Programmazione Matematica / A.A Soluzioni di alcuni esercizi

Programmazione Matematica / A.A Soluzioni di alcuni esercizi Programmazione Matematica / A.A. 8-9 Soluzioni di alcuni esercizi Esercizi - I 3. Aggiungiamo al problema una variabile v, e richiediamo che v soddisfi v n a ij x j b i. j= Fissato x, il minimo v che soddisfa

Dettagli

19 Marzo Equazioni differenziali.

19 Marzo Equazioni differenziali. 19 Marzo 2019 Equazioni differenziali. Definizione 1. Si chiama equazione differenziale una relazione che coinvolge una o più derivate di una funzione incognita y(x), la funzione stessa, funzioni di x

Dettagli

Analisi II, a.a Soluzioni 3

Analisi II, a.a Soluzioni 3 Analisi II, a.a. 2017-2018 Soluzioni 3 1) Consideriamo la funzione F : R 2 R 2 definita come F (x, y) = (x 2 + y 2, x 2 y 2 ). (i) Calcolare la matrice Jacobiana DF e determinare in quali punti F è localmente

Dettagli

Soluzioni dei quesiti della maturità scientifica A.S. 2009/2010

Soluzioni dei quesiti della maturità scientifica A.S. 2009/2010 Soluzioni dei quesiti della maturità scientifica AS 009/010 Nicola Gigli Sun-Ra Mosconi giugno 010 Quesito 1 Un generico polinomio di grado n si può scrivere nella forma p(x) a 0 + a 1 x + + a n x n dove

Dettagli

10 Proprietà di Equipartizione Asintotica

10 Proprietà di Equipartizione Asintotica FX Teoria dell Informazione e della Trasmissione 0 Proprietà di Equipartizione Asintotica Docente: Nicolò Cesa-Bianchi versione 6 aprile 206 Come nel caso della codifica sorgente, anche nel caso della

Dettagli