5.6 Metodo di penalità e metodo basato sulle funzioni lagrangiane aumentate. min f(x) s.v. c i (x) 0 i I c i (x) = 0 i E (1) x R n

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "5.6 Metodo di penalità e metodo basato sulle funzioni lagrangiane aumentate. min f(x) s.v. c i (x) 0 i I c i (x) = 0 i E (1) x R n"

Transcript

1 5.6 Metodo di penalità e metodo basato sulle funzioni lagrangiane aumentate Consideriamo il generico problema di PNL min f(x) s.v. c i (x) 0 i I c i (x) = 0 i E (1) x R n dove f e le c i sono di classe C 1 o C 2, e I e E sono gli insiemi di indici dei vincoli di disuguaglianza e uguaglianza. Notazione, esempi, dimostrazioni: capitolo 17 di J. Nocedal, S. Wright, Numerical Optimization, Springer, 1999, p e

2 5.6.1 Metodo di penalità Idea: Introdurre i vincoli nella funzione obiettivo mediante un moltiplicatore che ne penalizzi la violazione e risolvere una sequenza di tali problemi non vincolati. Descriviamo il metodo con funzioni di penalità quadratica per problemi con solo vincoli di uguaglianza: min f(x) s.v. c i (x) = 0 i E = {1,..., m} (2) x R n Definizione: Problema di penalità quadratica associato al problema (2) 1 min Q(x, µ) = f(x) + c 2 x Rn i (x) (3) 2µ i E dove µ > 0 è il parametro di penalità. Si considera {µ k } k 1 con lim k µ k = 0 e, per ogni k, si determina un minimo approssimato x k di Q(x, µ k ) mediante un metodo di ottimizzazione non vincolata. 2

3 Esempio: min x 1 + x 2 s.v. x x = 0 con soluzione ottima ( 1, 1) t e problema di penalità quadratica min Q(x, µ) = x x R x µ (x2 1 + x 2 2 2) 2. Per µ = 1 minimo di Q vicino a ( 1.1, 1.1) t, per µ = 0.1 minimo di Q molto più vicino a ( 1, 1) t. 3

4 Schema 0) Scegliere µ 0, succesione di tolleranze {τ k } k 0 con τ k > 0 e lim k τ k = 0 Scegliere un punto di partenza x s 0 e porre k := 0 1) Determinare minimo approssimato x k di Q(x, µ k ) partendo da x s k e terminando quando Q(x, µ k) τ k 2) If condizione di arresto finale è soddisfatta (e.g, f(x k 1 ) f(x k ) < ε) then Stop else scegliere µ k+1 (0, µ k ), scegliere soluzione iniziale x s k+1, porre k := k + 1 e goto 1) Scelte: Per i risultati di convergenza basta che la successione {τ k } k 0 soddisfi lim k τ k = 0. Successione {µ k } k 0 generata in modo adattativo partendo da µ 0 : se minimizzazione di Q(x, µ k ) difficile porre µ k+1 = 0.7µ k, altrimenti porre µ k+1 = 0.1µ k. Punto di partenza ragionevole per l ottimizzazione non vicolata ad ogni iterazione: ad esempio x s k+1 := x k. 4

5 Convergenza Teorema 1: Supponiamo che x k sia un minimo globale di Q(x, µ k ) e che lim k µ k = 0, allora ogni punto limite della successione {x k } k 0 generata secondo lo schema precedente (con τ k = 0 per ogni k 0) è un minimo globale del problema (2). Dimostrazione Poiché in genere i problemi non vincolati vengono risolti in modo approssimato, il seguente risultato è più rilevante dal punto di vista pratico. Teorema 2: Se nello schema precedente le tolleranze τ k soddisfano lim k τ k = 0 i parametri di penalità soddisfano lim k µ k = 0, allora ogni punto limite x della successione {x k } k 0 in cui i gradienti dei vincoli c i (x ) sono linearmente indipendenti è un punto di KKT del problema (2). Per tali punti, la sottosuccessione definita da K con lim k K x k = x soddisfa lim c i(x k ) = u i i E, (4) k K µ k dove u è il vettore di moltiplicatori che soddisfa con x le condizioni di KKT del problema (2). 5

6 Osservazione: (4) implica che i) il minimo approssimato x k di Q(x, µ k ) non soddisfa esattamente c i (x) = 0, i E, ma approssimativamente c i (x k ) = µ k u i, i E, quindi µ k va ridotto a 0 per ottenere una soluzione ammissibile; ii) in certe circostanze c i(x k ) µ k forniscono una stima dei moltiplicatori di Lagrange u i. Ricordiamo che la funzione di Lagrange associata al problema (2) è m L(x, u) = f(x) u i c i (x) (5) e che le condizioni di KKT richiedono, oltre a c i (x) = 0 per ogni i E, che x L(x, u) = f(x) Confrontando il gradiente della funzione di penalità quadratica (3) m u i c i (x) = 0. (6) x Q(x, µ) = f(x) + 1 c i (x) c i (x) (7) µ e della funzione Lagrangiana (5), ossia (6), appare che c i(x) µ è stato sostituito da u i. i E Si può dimostrare che se τ k 0 allora x k x e c i(x k ) µ k u i i = 1, 2,..., m. 6

7 Approccio semplice ma purtroppo Osservazione: Quando µ k tende a 0 il problema di penalità quadratica (3) diventa mal condizionato. 2 xxq(x, µ k ) = 2 f(x) + 1 µ k A t (x) A(x) + 1 µ k m c i (x) 2 c i (x) (8) dove A t (x) = [ c 1 (x),..., c m (x)] e A è m n e di rango pieno m n, con in genere m < n. Quando x vicino al minimo di Q(., µ k ) e le ipotesi del Teorema 2 sono soddisfatte, (4) implica 2 xxq(x, µ k ) 2 xxl(x, u ) + 1 µ k A t (x) A(x). (9) Poiché 2 xxl(x, u ) non dipende da µ k e 1 µ k A t (x) A(x) ha n m autovalori di valore 0 e m autovalori di valore O(1/µ k ), vi possono essere problemi numerici quando µ k 0. 7

8 Per problemi con sia vincoli di uguaglianza che di disuguaglianza si considera il problema di penalità quadratica dove [y] denota max( y, 0). 1 min Q(x, µ) = f(x) + c 2 x Rn i (x) + 1 2µ 2µ i E ([c i (x)] ) 2 (10) Non è detto che Q sia C 2 anche se f e le c i lo sono (e.g., se x i 0 min(x 2, 0) non è C 2 ). i I 8

9 5.6.2 Metodo basato sulle funzioni lagrangiane aumentate Idea: Cercare di ridurre la possibilità di mal condizionamento dei sottoproblemi non vincolati nel metodo di penalità introducendo delle stime esplicite dei moltiplicatori di Lagrange. Consideriamo problemi con solo vincoli di uguaglianza: min f(x) s.v. c i (x) = 0 i E = {1,..., m} (11) x R n Definizione: La funzione di Lagrange aumentata associata al problema (11) L A (x, u, µ) = f(x) m u i c i (x) + 1 2µ m c 2 i (x) = L(x, u) + 1 2µ m c 2 i (x) (12) dove u è il vettore di moltiplicatori e µ il parametro di penalità. N.B.: Combinazione della lagrangiana L(x, u) e della funzione di penalità quadratica Q(x, µ). Poiché le condizioni di KKT di (11) richiedono che x L(x, u ) = 0 e c i (x ) = 0 per ogni i E, all ottimo L A coincide con la lagrangiana L, e µ non deve quindi tendere a 0. 9

10 Approccio simile: ad ogni iterazione si determina un minimo approssimato x k di L A (x, u k, µ k ) mediante un metodo di ottimizzazione non vincolata, dove u k è una stima aggiornata. Differenziando rispetto a x, si ottiene x L A (x, u, µ) = f(x) m (u i c i(x) µ ) c i(x) Argomenti simili a quelli usati per dimostrare il Teorema 2 permettono di stabilire Schema u i u k i c i(x k ) µ k i E. (13) 0) Scegliere µ 0 > 0, succesione di tolleranze {τ k } k 0 con τ k > 0, x s 0 e u 0 iniziali, porre k := 0 1) Determinare minimo approssimato x k di L A (x, u k, µ k ) partendo da x s k e terminando quando x L A (x, u k, µ k ) τ k 2) If condizione di arresto finale è soddisfatta (e.g, f(x k 1 ) f(x k ) < ε) then Stop else porre scegliere µ k+1 (0, µ k ) e soluzione iniziale x s k+1 porre k := k + 1 e goto 1) u k+1 i = u k i c i(x k ) µ k per i E (14) 10

11 L aggiunta di un termine relativo ai moltiplicatori di Lagrange in L A porta a notevoli miglioramenti rispetto al metodo di penalità quadratica. Esempio: min x 1 + x 2 s.v. x x = 0 con soluzione ottima ( 1, 1) t, moltiplicatore di Lagrange ottimo u = 0.5 e sottoproblema non vincolato associato min L A(x, u, µ) = x 1 + x 2 u(x 2 x R x 2 2 2) + 1 2µ (x2 1 + x 2 2 2) 2. Supponiamo che µ k = 1 e stima corrente del moltiplicatore u k = 0.4. La rappresentazione delle curve di livello di L A (x, 0.4, 1) sono simili a quelle di Q(x, 1) ma il minimo x k ( 1.02, 1.02) t di L A (x, 0.4, 1) è molto più vicino ad ( 1, 1) t del minimo di Q(x, 1) che è ( 1.1, 1.1) t. cf. J. Nocedal, S. Wright, Numerical Optimization, Springer, 1999,

12 Teorema 3: Sia x un minimo locale di (11) nel quale i gradienti dei vincoli c i (x ) sono linearmente indipendenti e le condizioni sufficienti del secondo ordine sono soddisfatte per u = u. Allora esiste un valore µ > 0 tale che per ogni µ (0, µ], x è un minimo locale stretto di L A (x, u, µ). Il seguente risultato riguarda il caso più realistico in cui u u. Fornisce condizioni sotto le quali esiste un minimo di L A vicino a x e dei limiti sull errore di x k e di u k+1. Teorema 4: Supponiamo che le ipotesi del Teorema 3 siano soddisfatte in x e u, e sia µ > 0 la relativa soglia. Allora esistono degli scalari δ > 0, ε > 0, e M tali che i) Per ogni u k e µ k che soddisfano u k u δ/µ k, µ k µ, (15) il problema min L A(x, u k, µ k ) x R n : x x ε ha una unica soluzione x k. Inoltre x k x Mµ k u k u. 12

13 ii) Per ogni u k e µ k che soddisfano (15), abbiamo dove u k+1 dato dalla formula (14). u k+1 u Mµ k u k u, iii) Per ogni u k e µ k che soddisfano (15), la matrice 2 xxl A (x k, u k, µ k ) è definita positiva e i gradienti dei vincoli c i (x k ), i E, sono linearmente indipendenti. Problemi con anche vincoli di disuguaglianza: Si possono introdurre variabili di scarto e sostituire c i (x) 0, i I, con c i (x) s i = 0, s i 0, i I, oppure eliminare le variabili di scarto s i, i I, direttamente dalla procedura di ottimizzazione. Codice LANCELOT tratta esplicitamente i limiti sulle variabili ( bounds ) nel sottoproblema min l inf x l sup L A (x, u k, µ k ) 13

5.6 Metodo di penalità e metodo basato sulle funzioni lagrangiane aumentate

5.6 Metodo di penalità e metodo basato sulle funzioni lagrangiane aumentate 5.6 Metodo di penalità e metodo basato sulle funzioni lagrangiane aumentate Consideriamo il generico problema di PNL min f (x) s.v. c i (x) 0 i I c i (x) = 0 i E (1) x R n dove f e le c i sono di classe

Dettagli

5.5 Programmazione quadratica (PQ)

5.5 Programmazione quadratica (PQ) 5.5 Programmazione quadratica (PQ Minimizzare una funzione quadratica soggetta a vincoli lineari: 1 min x t Qx + c t x 2 s.v. a t i x b i i D (P a t i x = b i i U x R n dove Q matrice n n, D e U sono gli

Dettagli

4.4 Programmazione quadratica

4.4 Programmazione quadratica 4.4 Programmazione quadratica Minimizzare una funzione quadratica soggetta a vincoli lineari: min 1 2 xt Qx + c t x s.v. a t i x b i i D (P) a t i x = b i i U x R n dove Q matrice n n, D e U sono gli insiemi

Dettagli

Capitolo 3: Ottimizzazione non vincolata parte III. E. Amaldi DEI, Politecnico di Milano

Capitolo 3: Ottimizzazione non vincolata parte III. E. Amaldi DEI, Politecnico di Milano Capitolo 3: Ottimizzazione non vincolata parte III E. Amaldi DEI, Politecnico di Milano 3.4 Metodi di ricerca unidimensionale In genere si cerca una soluzione approssimata α k di min g(α) = f(x k +αd k

Dettagli

Le condizioni di Karush-Kuhn-Tucker

Le condizioni di Karush-Kuhn-Tucker Capitolo 9 Le condizioni di Karush-Kuhn-Tucker 9. Introduzione In questo capitolo deriveremo le condizioni necessarie di Karush-Kuhn-Tucker (KKT) per problemi vincolati in cui S è descritto da vincoli

Dettagli

Condizioni di Karush-Kuhn-Tucker e Programmazione Lineare

Condizioni di Karush-Kuhn-Tucker e Programmazione Lineare Condizioni di Karush-Kuhn-Tucker e Programmazione Lineare A. Agnetis 1 Richiami su condizioni di Karush-Kuhn-Tucker e convessità Si consideri il problema di ottimizzazione vincolata: min f(x) (1) x X R

Dettagli

Capitolo 3: Ottimizzazione non vincolata parte II. E. Amaldi DEI, Politecnico di Milano

Capitolo 3: Ottimizzazione non vincolata parte II. E. Amaldi DEI, Politecnico di Milano Capitolo 3: Ottimizzazione non vincolata parte II E. Amaldi DEI, Politecnico di Milano 3.3 Metodi basati su direzioni di ricerca Problema di ottimizzazione non vincolata: min x R n f(x) con f : R n R di

Dettagli

LAGRANGIANE AUMENTATE

LAGRANGIANE AUMENTATE LAGRANGIANE AUMENTATE Le condizioni di minimo vincolato per min f o (x) g i (x) = 0, i I sono legate sia alla funzione P(x,k) = f o (x) +(k/2) g i (x) 2 a al suo minimo x k che alla funzione lagrangiana

Dettagli

Progr. Non Lineare: algoritmi

Progr. Non Lineare: algoritmi Progr. Non Lineare: algoritmi Fabio Schoen schoen@ing.unifi.it http://globopt.dsi.unifi.it/users/schoen A.A. 22-23 Programmazione Non Lineare: Cenni sugli algoritmi di ottimizzazione locale Schema generale

Dettagli

Parte V: Rilassamento Lagrangiano

Parte V: Rilassamento Lagrangiano Parte V: Rilassamento Lagrangiano Tecnica Lagrangiana Consideriamo il seguente problema di Programmazione Lineare Intera: P 1 min c T x L I Ax > b Cx > d x > 0, intera in cui A = matrice m x n C = matrice

Dettagli

Soluzione. 8.1 Campagna pubblicitaria. Exercise session 8 Optimization Prof. E. Amaldi. Insiemi. I = {1,...,m}: insieme delle radio

Soluzione. 8.1 Campagna pubblicitaria. Exercise session 8 Optimization Prof. E. Amaldi. Insiemi. I = {1,...,m}: insieme delle radio Soluzione 8.1 Campagna pubblicitaria Insiemi I = {1,...,m}: insieme delle radio J = {1,...,n}: insieme dei giornali Variabili r i r 1 i : minuti sulla stazione radiofonica i I (sotto i 25) : minuti sulla

Dettagli

Esercizi su ottimizzazione vincolata

Esercizi su ottimizzazione vincolata Esercizi su ottimizzazione vincolata 1. Rispondere alle seguenti domande (a) Quando un vincolo di disuguaglianza è detto attivo? (b) Cosa è l insieme delle soluzioni ammissibili? Gli algoritmi di ricerca

Dettagli

NLP KKT 1. Le condizioni necessarie di ottimo per il problema min f o (x) con vincoli g i (x) 0 i I h j (x) = 0 j J

NLP KKT 1. Le condizioni necessarie di ottimo per il problema min f o (x) con vincoli g i (x) 0 i I h j (x) = 0 j J NLP KKT 1 Le condizioni necessarie di ottimo per il problema min f o (x) g i (x) 0 i I h j (x) = 0 j J sono, riferite ad un punto ammissibile x*, μ 0 f o (x*) + i I μ i g i (x*) + j J λ j h j (x*) = 0

Dettagli

7.5 Il caso vincolato: preliminari

7.5 Il caso vincolato: preliminari 7.5 Il caso vincolato: preliari Consideriamo ora il problema vincolato 3, che qui riscriviamo: fx gx 0 hx = 0, 13 con g : IR n IR p e h : IR n IR m, m n. Ricordiamo che F = {x IR n : gx 0, hx = 0}, denota

Dettagli

3.6 Rilassamento Lagrangiano

3.6 Rilassamento Lagrangiano 3.6 Rilassamento Lagrangiano Consideriamo un generico problema di Programmazione Lineare Intera min {c t x : Ax b, Dx d, x Z n } con tutti i coefficienti interi, dei vincoli Ax b facili e altri Dx d difficili.

Dettagli

3.4 Metodo di Branch and Bound

3.4 Metodo di Branch and Bound 3.4 Metodo di Branch and Bound Consideriamo un generico problema di Ottimizzazione Discreta dove X è la regione ammissibile. (P ) z = max{c(x) : x X} Metodologia generale di enumerazione implicita (Land

Dettagli

3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI

3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI 3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI ESISTENZA DI UN PUNTO DI OTTIMO VINCOLATO Il problema di ottimizzazione vincolata introdotto nel paragrafo precedente può essere formulato nel modo seguente:

Dettagli

9.1 Ottimizzazione di portafoglio: selezione di titoli in presenza di rischio

9.1 Ottimizzazione di portafoglio: selezione di titoli in presenza di rischio 9.1 Ottimizzazione di portafoglio: selezione di titoli in presenza di rischio Consideriamo il problema di costituire un portafoglio di titoli, sfruttando un budget B. Il mercato offre n titoli, con un

Dettagli

Programmazione Non Lineare

Programmazione Non Lineare Capitolo 1 Programmazione Non Lineare 1.1 Introduzione Un problema di ottimizzazione viene definito come la minimizzazione o la massimizzazione di una funzione a valori reali su un insieme specificato.

Dettagli

3.6 Metodi basati sui piani di taglio

3.6 Metodi basati sui piani di taglio 3.6 Metodi basati sui piani di taglio Problema generale di Programmazione Lineare Intera (PLI) con A matrice m n e b vettore n 1 razionali min{ c t x : x X = {x Z n + : Ax b} } Sappiamo che esiste una

Dettagli

Esercizi di ottimizzazione vincolata

Esercizi di ottimizzazione vincolata Esercizi di ottimizzazione vincolata A. Agnetis, P. Detti Esercizi svolti 1 Dato il seguente problema di ottimizzazione vincolata max x 1 + x 2 x 1 4x 2 3 x 1 + x 2 2 0 x 1 0 studiare l esistenza di punti

Dettagli

Esercizi di Programmazione Lineare

Esercizi di Programmazione Lineare Esercizi di Programmazione Lineare 1 grafica Si consideri il seguente problema di programmazione lineare: max 3x 1 + 2x 2 s.t. + 2x 1 + x 2 4 2x 1 + x 2 2 + x 1 x 2 1 x 1, x 2 0 a) Risolvere il problema

Dettagli

Appunti delle esercitazioni di Ricerca Operativa

Appunti delle esercitazioni di Ricerca Operativa Appunti delle esercitazioni di Ricerca Operativa a cura di P. Detti 1 Esercizi sulle condizioni di ottimalitµa per problemi di ottimizzazione vincolata Esempio 1 Determinare il punto di intersezione dei

Dettagli

8 Metodi iterativi per la risoluzione di sistemi lineari

8 Metodi iterativi per la risoluzione di sistemi lineari 8 Metodi iterativi per la risoluzione di sistemi lineari È dato il sistema lineare Ax = b con A R n n e x, b R n, con deta 0 Si vogliono individuare dei metodi per determinarne su calcolatore la soluzione,

Dettagli

SQP (Sequential Quadratic Programming ) La soluzione del problema min f o (x) g i (x) = 0, i I

SQP (Sequential Quadratic Programming ) La soluzione del problema min f o (x) g i (x) = 0, i I SQP (Sequential Quadratic Programming ) La soluzione del problema min f o (x) g i (x) = 0, i I e caratterizzata dalle condizioni f o (x) + i I μ i g i (x) = 0 e dall ammissibilita ( g i (x) = 0, i I )

Dettagli

LA STRUTTURA DEI PROBLEMI DI OTTIMIZZAZIONE. L'ipotesi di razionalità implica che un decisore cerchi di

LA STRUTTURA DEI PROBLEMI DI OTTIMIZZAZIONE. L'ipotesi di razionalità implica che un decisore cerchi di LA STRUTTURA DEI PROBLEMI DI OTTIMIZZAZIONE L'ipotesi di razionalità implica che un decisore cerchi di individuare la migliore tra tutte le alternative a sua disposizione. Problemi di ottimizzazione =

Dettagli

Programmazione Matematica / A.A Soluzioni di alcuni esercizi

Programmazione Matematica / A.A Soluzioni di alcuni esercizi Programmazione Matematica / A.A. 8-9 Soluzioni di alcuni esercizi Esercizi - I 3. Aggiungiamo al problema una variabile v, e richiediamo che v soddisfi v n a ij x j b i. j= Fissato x, il minimo v che soddisfa

Dettagli

3.7 Metodi quasi-newton

3.7 Metodi quasi-newton 3.7 Metodi quasi-newton Varianti del metodo di Newton in cui invece di usare/invertire la matrice Hessiana di f si estraggono informazioni relative alle derivate seconde dalle variazioni di f. Si genera

Dettagli

Geometria della programmazione lineare

Geometria della programmazione lineare Geometria della programmazione lineare poliedri punti estremi, vertici, soluzioni di base esistenza di punti estremi rif. Fi 3.1; BT 2.1, 2.2, 2.5 Iperpiani, semispazi Definizione Sia a un vettore non

Dettagli

Rilassamento Lagrangiano

Rilassamento Lagrangiano RILASSAMENTO LAGRANGIANO 1 Rilassamento Lagrangiano Tecnica più usata e conosciuta in ottimizzazione combinatoria per il calcolo di lower/upper bounds (Held and Karp (1970)). Si consideri il seguente problema

Dettagli

Geometria della programmazione lineare

Geometria della programmazione lineare Geometria della programmazione lineare poliedri punti estremi, vertici, soluzioni di base esistenza di punti estremi rif. Fi 3.1; BT 2.1, 2.2, 2.5 Iperpiani, semispazi, poliedri Sia a un vettore non nullo

Dettagli

Macchine parallele M 1 M 2 M 3 J 1 J 2 LAVORI J 3 J 4

Macchine parallele M 1 M 2 M 3 J 1 J 2 LAVORI J 3 J 4 Macchine parallele M 1 J 1 J 2 LAVORI M 2 J 3 J 4 M 3 Macchine parallele Scheduling su macchine parallele scorrelate R C max Descrizione del problema n lavori devono essere processati da m macchine diverse

Dettagli

LEZIONE ICO

LEZIONE ICO LEZIONE ICO 9-10-2009 Argomento. Rassegna dei metodi numerici utilizzabili per la soluzione di problemi di ottimizzazione statica. Metodi del gradiente e di Newton e loro derivati. Metodi di penalita e

Dettagli

Matematica Finanziaria 29 novembre 2000

Matematica Finanziaria 29 novembre 2000 Matematica Finanziaria 29 novembre 2000 Ottimizzazione. Cognome Nome FILA A ESERCIZIO 1: Gestione del rischio a) Ricavare l espressione del vettore dei coe cienti nella tecnica dei minimi quadrati. b)

Dettagli

5.5.6 Convergenza del metodo del simplesso

5.5.6 Convergenza del metodo del simplesso 5.5.6 Convergenza del metodo del simplesso Per concludere l analisi del metodo del simplesso, vogliamo ora mostrare che, sotto opportune ipotesi, il numero di iterazioni è finito, ovvero che, in un numero

Dettagli

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A Università di Siena Teoria della Stima Lucidi del corso di A.A. 2002-2003 Università di Siena 1 Indice Approcci al problema della stima Stima parametrica Stima bayesiana Proprietà degli stimatori Stime

Dettagli

Geometria della programmazione lineare

Geometria della programmazione lineare Geometria della programmazione lineare poliedri punti estremi, vertici, soluzioni di base esistenza di punti estremi rif. Fi 3.1; BT 2.1, 2.2, 2.5 Iperpiani, semispazi Definizione Sia a un vettore non

Dettagli

Dualità Lagrangiana. Laura Galli Dipartimento di Informatica Largo B. Pontecorvo 3, Pisa

Dualità Lagrangiana. Laura Galli Dipartimento di Informatica Largo B. Pontecorvo 3, Pisa Dualità Lagrangiana Laura Galli Dipartimento di Informatica Largo B. Pontecorvo 3, 56127 Pisa laura.galli@unipi.it http://www.di.unipi.it/~galli 3 Novembre 2015 Ricerca Operativa 2 Laurea Magistrale in

Dettagli

ESAME di OTTIMIZZAZIONE Corso di Laurea Magistrale in Ingegneria Gestionale 1 o anno

ESAME di OTTIMIZZAZIONE Corso di Laurea Magistrale in Ingegneria Gestionale 1 o anno SIMULAZIONE ESAME di OTTIMIZZAZIONE 27 Gennaio 21 ESAME di OTTIMIZZAZIONE Corso di Laurea Magistrale in Ingegneria Gestionale 1 o anno Cognome : Nome : Esercizio 1. Si consideri il seguente problema: min

Dettagli

Scuola di Dottorato in Ingegneria L. da Vinci. Problemi di estremo vincolato ed applicazioni. Introduzione ai problemi di estremo

Scuola di Dottorato in Ingegneria L. da Vinci. Problemi di estremo vincolato ed applicazioni. Introduzione ai problemi di estremo Scuola di Dottorato in Ingegneria L. da Vinci Problemi di estremo vincolato ed applicazioni Pisa, 28-29 Maggio, 2009 Introduzione ai problemi di estremo G. Mastroeni Ricercatore, Dipartimento di Matematica

Dettagli

Rilassamento Lagrangiano

Rilassamento Lagrangiano Rilassamento Lagrangiano AA 2009/10 1 Rilassamento Lagrangiano Tecnica più usata e conosciuta in ottimizzazione combinatoria per il calcolo di lower/upper bounds (Held and Karp (1970)). Si consideri il

Dettagli

Algoritmi esatti. La teoria ci dice che per problemi difficili (come il

Algoritmi esatti. La teoria ci dice che per problemi difficili (come il p. 1/4 Algoritmi esatti La teoria ci dice che per problemi difficili (come il KNAPSACK o, ancora di più, il TSP ) i tempi di risoluzione delle istanze, calcolati tramite analisi worst-case, tendono a crescere

Dettagli

Insiemi di livello. 9 6 marzo Schema lezioni. December 18, Dataf : S R n R ec R, l insieme di livellocdi f è.

Insiemi di livello. 9 6 marzo Schema lezioni. December 18, Dataf : S R n R ec R, l insieme di livellocdi f è. Schema lezioni. December 18, 2010 10 Insiemi di livello. Dataf : S R n R ec R, l insieme di livellocdi f è x S : f(x) = c} Esempio 8.4 Analisi degli insiemi di livello delle funzioni f(x,y) = x + y, f(x,y)

Dettagli

Sviluppando ancora per colonna sulla prima colonna della prima matrice e sulla seconda della seconda matrice si ottiene:

Sviluppando ancora per colonna sulla prima colonna della prima matrice e sulla seconda della seconda matrice si ottiene: M. CARAMIA, S. GIORDANI, F. GUERRIERO, R. MUSMANNO, D. PACCIARELLI RICERCA OPERATIVA Isedi Esercizi proposti nel Cap. 5 - Soluzioni Esercizio 5. - La norma Euclidea di è 9 6 5 - Il versore corrispondente

Dettagli

Programmazione lineare: basi e soluzioni di base

Programmazione lineare: basi e soluzioni di base Programmazione lineare:basi e soluzioni di base p. 1/33 Programmazione lineare: basi e soluzioni di base Mariantonia Cotronei Facoltà di Ingegneria Università degli Studi Mediterranea di Reggio Calabria

Dettagli

3.3 Problemi di PLI facili

3.3 Problemi di PLI facili 3.3 Problemi di PLI facili Consideriamo un generico problema di PLI espresso in forma standard min{c t x : Ax = b, x Z n +} (1) dove A Z m n con n m, e b Z m. Supponiamo che A sia di rango pieno. Sia P

Dettagli

Soluzione dei Problemi di Programmazione Lineare

Soluzione dei Problemi di Programmazione Lineare Soluzione dei Problemi di Programmazione Lineare Consideriamo un problema di Programmazione Lineare (PL) con m vincoli ed n variabili in Forma Standard dove: ma 0 c A b ( ) 0 ( 2) R è il vettore n delle

Dettagli

Introduzione al Metodo del Simplesso. 1 Soluzioni di base e problemi in forma standard

Introduzione al Metodo del Simplesso. 1 Soluzioni di base e problemi in forma standard Introduzione al Metodo del Simplesso Giacomo Zambelli 1 Soluzioni di base e problemi in forma standard Consideriamo il seguente problema di programmazione lineare (PL), relativo all esempio di produzione

Dettagli

Note sulle funzioni convesse/concave

Note sulle funzioni convesse/concave Note sulle funzioni convesse/concave 4th December 2008 1 Definizioni e proprietà delle funzioni convesse/concave. Definizione 1.1 Un insieme A IR n è detto convesso se per ogni x 1 e x 2 punti di A, il

Dettagli

Cenni di ottimizzazione dinamica

Cenni di ottimizzazione dinamica Cenni di ottimizzazione dinamica Testi di riferimento: K. Dixit Optimization in Economic Theory. Second Edition, 1990, Oxford: Oxford University Press. A. C. Chiang Elements of Dynamic Optimization, 1992,

Dettagli

4.5 Metodo del simplesso

4.5 Metodo del simplesso 4.5 Metodo del simplesso min z = c T x s.v. Ax = b x PL in forma standard Esamina una sequenza di soluzioni di base ammissibili con valori non crescenti della funzione obiettivo fino a raggiungerne una

Dettagli

Appunti sul corso di Complementi di Matematica mod. Analisi prof. B.Bacchelli - a.a. 2010/2011.

Appunti sul corso di Complementi di Matematica mod. Analisi prof. B.Bacchelli - a.a. 2010/2011. Appunti sul corso di Complementi di Matematica mod. Analisi prof. B.Baccelli - a.a. 2010/2011. 06 - Derivate, differenziabilità, piano tangente, derivate di ordine superiore. Riferimenti: R.Adams, Calcolo

Dettagli

Metodi e Modelli per l Ottimizzazione Combinatoria Cover inequalities

Metodi e Modelli per l Ottimizzazione Combinatoria Cover inequalities Metodi e Modelli per l Ottimizzazione Combinatoria Cover inequalities L. De Giovanni M. Di Summa In questa lezione introdurremo una classe di disuguaglianze, dette cover inequalities, che permettono di

Dettagli

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da NOTE INTEGRATIVE PER IL CORSO DI ANALISI MATEMATICA 2 ANNO ACCADEMICO 2012/13 NOTE SULLA CONTINUITÀ UNIFORME D.BARTOLUCCI, D.GUIDO Sia f(x) = x 3, x [ 1, 1]. Si ha 1. La continuità uniforme x 3 y 3 = x

Dettagli

1) Data la seguente istanza di TSP (grafo completo con 5 nodi): c 12 = 52; c 13 = 51; c 14 = 40; c 15 = 53; c 23 = 44;

1) Data la seguente istanza di TSP (grafo completo con 5 nodi): c 12 = 52; c 13 = 51; c 14 = 40; c 15 = 53; c 23 = 44; 1) Data la seguente istanza di TSP (grafo completo con 5 nodi): c 12 = 52; c 13 = 51; c 14 = 40; c 15 = 53; c 23 = 44; c 24 = 15; c 25 = 12; c 34 = 32; c 35 = 55; c 45 = 24 Si calcoli l ottimo duale (formulazione

Dettagli

Macchine parallele M 1 M 2 M 3 J 1 J 2 LAVORI J 3 J 4

Macchine parallele M 1 M 2 M 3 J 1 J 2 LAVORI J 3 J 4 Macchine parallele M 1 J 1 J 2 LAVORI M 2 J 3 J 4 M 3 Macchine parallele Scheduling su macchine parallele scorrelate R C max Descrizione del problema n lavori devono essere processati da m macchine diverse

Dettagli

FUNZIONI DI DUE VARIABILI REALI. f(x, y) = ax + by + c. f(x, y) = x 2 + y 2

FUNZIONI DI DUE VARIABILI REALI. f(x, y) = ax + by + c. f(x, y) = x 2 + y 2 0.1 FUNZIONI DI DUE VARIABILI REALI Sia A R 2. Una applicazione f : A R si chiama funzione reale di due variabili reali ESEMPI: 1. La funzione affine di due variabili reali: 2. f(x, y) = ax + by + c f(x,

Dettagli

Programmazione Matematica: VII La scomposizione di Dantzig Wolfe

Programmazione Matematica: VII La scomposizione di Dantzig Wolfe Programmazione Matematica: VII La scomposizione di Dantzig Wolfe Daniele Vigo D.E.I.S. Università di Bologna dvigo@deis.unibo.it rev..0 Maggio 2004 Scomposizione di problemi Accade spesso che un problema

Dettagli

Metodi per la Soluzione di Problemi di Programmazione Nonlineare

Metodi per la Soluzione di Problemi di Programmazione Nonlineare Metodi per la Soluzione di Problemi di Programmazione Nonlineare Gianni Di Pillo Dipartimento di Informatica e Sistemistica Università di Roma La Sapienza Via Eudossiana 18-00184 Roma 1 Definizione del

Dettagli

Equazioni e sistemi non lineari

Equazioni e sistemi non lineari Equazioni e sistemi non lineari Lucia Gastaldi DICATAM - Sezione di Matematica, http://lucia-gastaldi.unibs.it Indice 1 Ricerca degli zeri di una funzione Problema e definizioni Metodo di Newton-Raphson

Dettagli

Cenni di ottimizzazione dinamica

Cenni di ottimizzazione dinamica Cenni di ottimizzazione dinamica Testi di riferimento: K. Dixit Optimization in Economic Theory. Second Edition, 1990, Oxford: Oxford University Press. A. C. Chiang Elements of Dynamic Optimization, 1992,

Dettagli

Massimi e minimi vincolati

Massimi e minimi vincolati Massimi e minimi vincolati Vedremo tra breve un metodo per studiare il problema di trovare il minimo e il massimo di una funzione su di un sottoinsieme dello spazio ambiente che non sia un aperto. Abbiamo

Dettagli

Matematica Finanziaria 13 settembre 2001

Matematica Finanziaria 13 settembre 2001 Matematica Finanziaria 3 settembre 00 Prova Generale. ESERCIZIO : Algebra Lineare ² Dire se le seguenti applicazioni sono lineari e in caso a ermativo indicarne la matrice associata A: a)f : R >R : b)f

Dettagli

ESAME di OTTIMIZZAZIONE - Compito A Corso di Laurea in Ingegneria Gestionale 2 o anno

ESAME di OTTIMIZZAZIONE - Compito A Corso di Laurea in Ingegneria Gestionale 2 o anno ESAME di OTTIMIZZAZIONE 12 gennaio pomeriggio 2005 ESAME di OTTIMIZZAZIONE - Compito A Corso di Laurea in Ingegneria Gestionale 2 o anno Cognome : Nome : VALUTAZIONE Per gli esercizi 1,2,3,4 le risposte

Dettagli

Geometria iperbolica - Primo foglio Andrea Petracci

Geometria iperbolica - Primo foglio Andrea Petracci Geometria iperbolica - Primo foglio Andrea Petracci Esercizio 1. Teorema (Hopf-Rinow). Se M è una varietà riemanniana connessa, allora le seguenti affermazioni sono equivalenti: (1) M è completa con la

Dettagli

5.3 Metodo dei piani di taglio

5.3 Metodo dei piani di taglio 5.3 Metodo dei piani di taglio (PLI) min s.v. c T x Ax b x interi X Ipotesi: a ij, c j e b i interi Osservazione: La regione ammissibile di un PLI può essere descritta mediante dei vincoli più o meno stringenti

Dettagli

MIGLIOR APPROSSIMAZIONE IN SPAZI EUCLIDEI

MIGLIOR APPROSSIMAZIONE IN SPAZI EUCLIDEI MIGLIOR APPROSSIMAZIONE IN SPAZI EUCLIDEI A. SOMMARIVA Conoscenze richieste. Spazio vettoriale. Spazio normato. Vettori linearmente indipendenti. Sistemi lineari. Operatore delta di Kronecker. Conoscenze

Dettagli

Laurea in Informatica e Tecnologie per la Produzione del Software Corso di Analisi Matematica Successioni e loro limiti

Laurea in Informatica e Tecnologie per la Produzione del Software Corso di Analisi Matematica Successioni e loro limiti Laurea in Informatica e Tecnologie per la Produzione del Software Corso di Analisi Matematica Successioni e loro limiti Docente: Anna Valeria Germinario Università di Bari A.V.Germinario (Università di

Dettagli

4. METODI DUALI DEL SIMPLESSO

4. METODI DUALI DEL SIMPLESSO 4. MEODI DUALI DEL SIMPLESSO R. adei 1 Una piccola introduzione R. adei 2 MEODI DUALI DEL SIMPLESSO L obiettivo del capitolo è illustrare e giustificare i metodi duali del simplesso. Entrambi i metodi

Dettagli

Se x* e punto di minimo (locale) per la funzione nell insieme Ω, Ω = { x / g i (x) 0 i I, h j (x)= 0 j J } lo e anche per F(x) = f o (x) + c x x 2

Se x* e punto di minimo (locale) per la funzione nell insieme Ω, Ω = { x / g i (x) 0 i I, h j (x)= 0 j J } lo e anche per F(x) = f o (x) + c x x 2 NLP -OPT 1 CONDIZION DI OTTIMO [ Come ricavare le condizioni di ottimo. ] Si suppone x* sia punto di ottimo (minimo) per il problema min f o (x) con vincoli g i (x) 0 i I h j (x) = 0 j J la condizione

Dettagli

Richiami di algebra delle matrici a valori reali

Richiami di algebra delle matrici a valori reali Richiami di algebra delle matrici a valori reali Vettore v n = v 1 v 2. v n Vettore trasposto v n = (v 1, v 2,..., v n ) v n = (v 1, v 2,..., v n ) A. Pollice - Statistica Multivariata Vettore nullo o

Dettagli

Ottimizzazione dei Sistemi Complessi

Ottimizzazione dei Sistemi Complessi 1 Giovedì 11 Aprile 2017 1 Istituto di Analisi dei Sistemi ed Informatica IASI - CNR Definizione di ottimalità secondo Pareto Dato il problema multiobiettivo min f 1 (x),..., f k (x) s.t. x F. Un punto

Dettagli

Alcuni Teoremi sulle funzioni continue e uniforme continuità

Alcuni Teoremi sulle funzioni continue e uniforme continuità Alcuni Teoremi sulle funzioni continue e uniforme continuità Teorema 0. Una funzione f(x) è continua in x 0 se e solo se per ogni sucessione {x n } dom(f) con x n x 0 dom(f), risulta f(x n ) f(x 0 ). (Non

Dettagli

Geometria della programmazione lineare

Geometria della programmazione lineare Geometria della programmazione lineare p. 1/39 Geometria della programmazione lineare Mariantonia Cotronei Facoltà di Ingegneria Università degli Studi Mediterranea di Reggio Calabria Geometria della programmazione

Dettagli

Geometria della Programmazione Lineare

Geometria della Programmazione Lineare Capitolo 2 Geometria della Programmazione Lineare In questo capitolo verranno introdotte alcune nozioni della teoria dei poliedri che permetteranno di cogliere gli aspetti geometrici della Programmazione

Dettagli

Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò

Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò Kernel Methods Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 14/05/2018 Kernel Methods Definizione di Kernel Costruzione di Kernel Support Vector Machines Problema primale e duale

Dettagli

Metodi Numerici per l Approssimazione degli Zeri di una Funzione

Metodi Numerici per l Approssimazione degli Zeri di una Funzione Metodi Numerici per l Approssimazione degli Zeri di una Funzione Luca Gemignani luca.gemignani@unipi.it 29 marzo 2018 Indice Lezione 1: Il Metodo di Bisezione. 1 Lezione 2: Metodi di Iterazione Funzionale.

Dettagli

Il teorema di Ascoli-Arzelà

Il teorema di Ascoli-Arzelà Il teorema di Ascoli-Arzelà Alcuni risultati sugli spazi metrici Spazi metrici (e topologici) compatti Richiamiamo le definizioni di compattezza negli spazi metrici. Sia (X, d) una spazio metrico e sia

Dettagli

Parte I Identificazione di modelli dinamici. 6: Teoria della stima e caratteristiche degli stimatori. Parte I 6, 1

Parte I Identificazione di modelli dinamici. 6: Teoria della stima e caratteristiche degli stimatori. Parte I 6, 1 Parte I 6, 1 Parte I Identificazione di modelli dinamici 6: Teoria della stima e caratteristiche degli stimatori Generalita` Parte I 6, 2 In generale abbiamo: dove sono i dati osservati e` la quantita`

Dettagli

2. Fra tutti i rettangoli inscritti in una circonferenza, determinare quello di area massima.

2. Fra tutti i rettangoli inscritti in una circonferenza, determinare quello di area massima. 2. Fra tutti i rettangoli inscritti in una circonferenza, determinare quello di area massima. 3. Fra tutti i cilindri a base rotonda inscritti in una sfera, determinare quello di volume massimo. 4. Dimostrare

Dettagli

Equazioni e sistemi non lineari

Equazioni e sistemi non lineari Equazioni e sistemi non lineari Lucia Gastaldi DICATAM - Sezione di Matematica, http://lucia-gastaldi.unibs.it Indice 1 Ricerca degli zeri di una funzione Problema e definizioni Metodo di Newton-Raphson

Dettagli

ESTREMI VINCOLATI E CONDIZIONI KKT ANNA CHIARA LAI E PAOLA LORETI

ESTREMI VINCOLATI E CONDIZIONI KKT ANNA CHIARA LAI E PAOLA LORETI ESTREMI VINCOLATI E CONDIZIONI KKT ANNA CHIARA LAI E PAOLA LORETI 1 2 italian Estremi vincolati e condizioni KKT 1 1. Introduzione Questa breve nota è dedicata allo studio di massimi e minimi di funzioni

Dettagli

Teoria della Programmazione Lineare Intera

Teoria della Programmazione Lineare Intera Teoria della Programmazione Lineare Intera Laura Galli Dipartimento di Informatica Largo B. Pontecorvo, 567 Pisa laura.galli@unipi.it http://www.di.unipi.it/~galli 7 Ottobre 0 Ricerca Operativa Laurea

Dettagli

Programmazione Lineare Intera

Programmazione Lineare Intera Programmazione Lineare Intera Andrea Scozzari a.a. 2012-2013 May 10, 2013 Andrea Scozzari (a.a. 2012-2013) Programmazione Lineare Intera May 10, 2013 1 / 16 Programmazione Lineare Intera: Metodo dei Piani

Dettagli

Trasformazione di Problemi Non Lineari

Trasformazione di Problemi Non Lineari Capitolo 2 Trasformazione di Problemi Non Lineari 2.1 Trasformazione in problema di PL In questa sezione, verranno presentati tre classi di problemi di programmazione non lineare che, attraverso l uso

Dettagli

Metodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte I)

Metodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte I) Metodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte I) Luigi De Giovanni Giacomo Zambelli 1 Problemi di programmazione lineare Un problema

Dettagli

Miglior approssimazione in spazi euclidei

Miglior approssimazione in spazi euclidei Miglior approssimazione in spazi euclidei 15 gennaio 2009 1 Introduzione astratta Sia E uno spazio vettoriale dotato di un prodotto interno (, ) (talvolta un tale spazio è detto euclideo, cf. [7, p.148]),

Dettagli

CORSO DI LAUREA IN INFORMATICA CALCOLO NUMERICO Secondo esonero - 07 Giugno x y =2.

CORSO DI LAUREA IN INFORMATICA CALCOLO NUMERICO Secondo esonero - 07 Giugno x y =2. ORSO DI LAUREA IN INFORMATIA ALOLO NUMERIO Secondo esonero - 7 Giugno - Traccia. [Punti:.a: ;.b: ;.c:] Sia dato il sistema x + y + z =, x y =. (.a) Determinarne l insieme delle soluzioni. (.b) Indicare

Dettagli

La ricerca di punti di estremo assoluto

La ricerca di punti di estremo assoluto La ricerca di punti di estremo assoluto Riccarda Rossi Università di Brescia Analisi Matematica B Riccarda Rossi (Università di Brescia) Estremi assoluti (I) Analisi Matematica B 1 / 29 Richiami di teoria

Dettagli

La notazione usata è quella usuale nel caso scalare, ed è estesa al caso generale. Consideriamo una forma quadratica:

La notazione usata è quella usuale nel caso scalare, ed è estesa al caso generale. Consideriamo una forma quadratica: . SU ALCUNI OPERAORI DI DERIVAZIONE Alcune operazioni tipiche dell analisi matematica hanno un diretto riscontro in termini matriciali. Consideriamo ad esempio una forma lineare: f() l l + l +..l n n ;

Dettagli

Il metodo del simplesso

Il metodo del simplesso Capitolo 5 Il metodo del simplesso 5. La forma standard Esercizio 5.. Porre il problema di Programmazione Lineare: in forma standard. min x +x + x + x x +x 5 x 4 x, x Si trasformano i vincoli di disuguaglianza

Dettagli

Risoluzione di sistemi lineari sparsi e di grandi dimensioni

Risoluzione di sistemi lineari sparsi e di grandi dimensioni Risoluzione di sistemi lineari sparsi e di grandi dimensioni Un sistema lineare Ax = b con A R n n, b R n, è sparso quando il numero di elementi della matrice A diversi da zero è αn, con n α. Una caratteristica

Dettagli

Il metodo dei minimi quadrati

Il metodo dei minimi quadrati Il metodo dei minimi quadrati 1 Posizione del problema Introduciamo la problematica con un semplice esempio pratico. Supponiamo di avere a disposizione una certa quantità x di oggetti tutti uguali tra

Dettagli

Ottimizzazione dei Sistemi Complessi

Ottimizzazione dei Sistemi Complessi 1 Giovedì 2 Marzo 2017 1 Istituto di Analisi dei Sistemi ed Informatica IASI - CNR Pseudo-code del metodo Fermi-Metropolis Input: x 0, 0, min, maxit k 0, x x 0, 0 while k maxit and min do k k + 1, x x

Dettagli

3.2 Rilassamenti lineari/combinatori e bounds

3.2 Rilassamenti lineari/combinatori e bounds 3.2 Rilassamenti lineari/combinatori e bounds Consideriamo un problema di Ottimizzazione Discreta min{f(x) : x X} e sia z il valore di una soluzione ottima x X. Metodi di risoluzione spesso generano una

Dettagli

Successioni numeriche (II)

Successioni numeriche (II) Successioni numeriche (II) Hynek Kovarik Università di Brescia Analisi A Hynek Kovarik (Università di Brescia) Successioni (II) Analisi A 1 / 52 Forme indeterminate associate a funzioni razionali fratte:

Dettagli