5.6 Metodo di penalità e metodo basato sulle funzioni lagrangiane aumentate. min f(x) s.v. c i (x) 0 i I c i (x) = 0 i E (1) x R n
|
|
- Giada Renzi
- 5 anni fa
- Visualizzazioni
Transcript
1 5.6 Metodo di penalità e metodo basato sulle funzioni lagrangiane aumentate Consideriamo il generico problema di PNL min f(x) s.v. c i (x) 0 i I c i (x) = 0 i E (1) x R n dove f e le c i sono di classe C 1 o C 2, e I e E sono gli insiemi di indici dei vincoli di disuguaglianza e uguaglianza. Notazione, esempi, dimostrazioni: capitolo 17 di J. Nocedal, S. Wright, Numerical Optimization, Springer, 1999, p e
2 5.6.1 Metodo di penalità Idea: Introdurre i vincoli nella funzione obiettivo mediante un moltiplicatore che ne penalizzi la violazione e risolvere una sequenza di tali problemi non vincolati. Descriviamo il metodo con funzioni di penalità quadratica per problemi con solo vincoli di uguaglianza: min f(x) s.v. c i (x) = 0 i E = {1,..., m} (2) x R n Definizione: Problema di penalità quadratica associato al problema (2) 1 min Q(x, µ) = f(x) + c 2 x Rn i (x) (3) 2µ i E dove µ > 0 è il parametro di penalità. Si considera {µ k } k 1 con lim k µ k = 0 e, per ogni k, si determina un minimo approssimato x k di Q(x, µ k ) mediante un metodo di ottimizzazione non vincolata. 2
3 Esempio: min x 1 + x 2 s.v. x x = 0 con soluzione ottima ( 1, 1) t e problema di penalità quadratica min Q(x, µ) = x x R x µ (x2 1 + x 2 2 2) 2. Per µ = 1 minimo di Q vicino a ( 1.1, 1.1) t, per µ = 0.1 minimo di Q molto più vicino a ( 1, 1) t. 3
4 Schema 0) Scegliere µ 0, succesione di tolleranze {τ k } k 0 con τ k > 0 e lim k τ k = 0 Scegliere un punto di partenza x s 0 e porre k := 0 1) Determinare minimo approssimato x k di Q(x, µ k ) partendo da x s k e terminando quando Q(x, µ k) τ k 2) If condizione di arresto finale è soddisfatta (e.g, f(x k 1 ) f(x k ) < ε) then Stop else scegliere µ k+1 (0, µ k ), scegliere soluzione iniziale x s k+1, porre k := k + 1 e goto 1) Scelte: Per i risultati di convergenza basta che la successione {τ k } k 0 soddisfi lim k τ k = 0. Successione {µ k } k 0 generata in modo adattativo partendo da µ 0 : se minimizzazione di Q(x, µ k ) difficile porre µ k+1 = 0.7µ k, altrimenti porre µ k+1 = 0.1µ k. Punto di partenza ragionevole per l ottimizzazione non vicolata ad ogni iterazione: ad esempio x s k+1 := x k. 4
5 Convergenza Teorema 1: Supponiamo che x k sia un minimo globale di Q(x, µ k ) e che lim k µ k = 0, allora ogni punto limite della successione {x k } k 0 generata secondo lo schema precedente (con τ k = 0 per ogni k 0) è un minimo globale del problema (2). Dimostrazione Poiché in genere i problemi non vincolati vengono risolti in modo approssimato, il seguente risultato è più rilevante dal punto di vista pratico. Teorema 2: Se nello schema precedente le tolleranze τ k soddisfano lim k τ k = 0 i parametri di penalità soddisfano lim k µ k = 0, allora ogni punto limite x della successione {x k } k 0 in cui i gradienti dei vincoli c i (x ) sono linearmente indipendenti è un punto di KKT del problema (2). Per tali punti, la sottosuccessione definita da K con lim k K x k = x soddisfa lim c i(x k ) = u i i E, (4) k K µ k dove u è il vettore di moltiplicatori che soddisfa con x le condizioni di KKT del problema (2). 5
6 Osservazione: (4) implica che i) il minimo approssimato x k di Q(x, µ k ) non soddisfa esattamente c i (x) = 0, i E, ma approssimativamente c i (x k ) = µ k u i, i E, quindi µ k va ridotto a 0 per ottenere una soluzione ammissibile; ii) in certe circostanze c i(x k ) µ k forniscono una stima dei moltiplicatori di Lagrange u i. Ricordiamo che la funzione di Lagrange associata al problema (2) è m L(x, u) = f(x) u i c i (x) (5) e che le condizioni di KKT richiedono, oltre a c i (x) = 0 per ogni i E, che x L(x, u) = f(x) Confrontando il gradiente della funzione di penalità quadratica (3) m u i c i (x) = 0. (6) x Q(x, µ) = f(x) + 1 c i (x) c i (x) (7) µ e della funzione Lagrangiana (5), ossia (6), appare che c i(x) µ è stato sostituito da u i. i E Si può dimostrare che se τ k 0 allora x k x e c i(x k ) µ k u i i = 1, 2,..., m. 6
7 Approccio semplice ma purtroppo Osservazione: Quando µ k tende a 0 il problema di penalità quadratica (3) diventa mal condizionato. 2 xxq(x, µ k ) = 2 f(x) + 1 µ k A t (x) A(x) + 1 µ k m c i (x) 2 c i (x) (8) dove A t (x) = [ c 1 (x),..., c m (x)] e A è m n e di rango pieno m n, con in genere m < n. Quando x vicino al minimo di Q(., µ k ) e le ipotesi del Teorema 2 sono soddisfatte, (4) implica 2 xxq(x, µ k ) 2 xxl(x, u ) + 1 µ k A t (x) A(x). (9) Poiché 2 xxl(x, u ) non dipende da µ k e 1 µ k A t (x) A(x) ha n m autovalori di valore 0 e m autovalori di valore O(1/µ k ), vi possono essere problemi numerici quando µ k 0. 7
8 Per problemi con sia vincoli di uguaglianza che di disuguaglianza si considera il problema di penalità quadratica dove [y] denota max( y, 0). 1 min Q(x, µ) = f(x) + c 2 x Rn i (x) + 1 2µ 2µ i E ([c i (x)] ) 2 (10) Non è detto che Q sia C 2 anche se f e le c i lo sono (e.g., se x i 0 min(x 2, 0) non è C 2 ). i I 8
9 5.6.2 Metodo basato sulle funzioni lagrangiane aumentate Idea: Cercare di ridurre la possibilità di mal condizionamento dei sottoproblemi non vincolati nel metodo di penalità introducendo delle stime esplicite dei moltiplicatori di Lagrange. Consideriamo problemi con solo vincoli di uguaglianza: min f(x) s.v. c i (x) = 0 i E = {1,..., m} (11) x R n Definizione: La funzione di Lagrange aumentata associata al problema (11) L A (x, u, µ) = f(x) m u i c i (x) + 1 2µ m c 2 i (x) = L(x, u) + 1 2µ m c 2 i (x) (12) dove u è il vettore di moltiplicatori e µ il parametro di penalità. N.B.: Combinazione della lagrangiana L(x, u) e della funzione di penalità quadratica Q(x, µ). Poiché le condizioni di KKT di (11) richiedono che x L(x, u ) = 0 e c i (x ) = 0 per ogni i E, all ottimo L A coincide con la lagrangiana L, e µ non deve quindi tendere a 0. 9
10 Approccio simile: ad ogni iterazione si determina un minimo approssimato x k di L A (x, u k, µ k ) mediante un metodo di ottimizzazione non vincolata, dove u k è una stima aggiornata. Differenziando rispetto a x, si ottiene x L A (x, u, µ) = f(x) m (u i c i(x) µ ) c i(x) Argomenti simili a quelli usati per dimostrare il Teorema 2 permettono di stabilire Schema u i u k i c i(x k ) µ k i E. (13) 0) Scegliere µ 0 > 0, succesione di tolleranze {τ k } k 0 con τ k > 0, x s 0 e u 0 iniziali, porre k := 0 1) Determinare minimo approssimato x k di L A (x, u k, µ k ) partendo da x s k e terminando quando x L A (x, u k, µ k ) τ k 2) If condizione di arresto finale è soddisfatta (e.g, f(x k 1 ) f(x k ) < ε) then Stop else porre scegliere µ k+1 (0, µ k ) e soluzione iniziale x s k+1 porre k := k + 1 e goto 1) u k+1 i = u k i c i(x k ) µ k per i E (14) 10
11 L aggiunta di un termine relativo ai moltiplicatori di Lagrange in L A porta a notevoli miglioramenti rispetto al metodo di penalità quadratica. Esempio: min x 1 + x 2 s.v. x x = 0 con soluzione ottima ( 1, 1) t, moltiplicatore di Lagrange ottimo u = 0.5 e sottoproblema non vincolato associato min L A(x, u, µ) = x 1 + x 2 u(x 2 x R x 2 2 2) + 1 2µ (x2 1 + x 2 2 2) 2. Supponiamo che µ k = 1 e stima corrente del moltiplicatore u k = 0.4. La rappresentazione delle curve di livello di L A (x, 0.4, 1) sono simili a quelle di Q(x, 1) ma il minimo x k ( 1.02, 1.02) t di L A (x, 0.4, 1) è molto più vicino ad ( 1, 1) t del minimo di Q(x, 1) che è ( 1.1, 1.1) t. cf. J. Nocedal, S. Wright, Numerical Optimization, Springer, 1999,
12 Teorema 3: Sia x un minimo locale di (11) nel quale i gradienti dei vincoli c i (x ) sono linearmente indipendenti e le condizioni sufficienti del secondo ordine sono soddisfatte per u = u. Allora esiste un valore µ > 0 tale che per ogni µ (0, µ], x è un minimo locale stretto di L A (x, u, µ). Il seguente risultato riguarda il caso più realistico in cui u u. Fornisce condizioni sotto le quali esiste un minimo di L A vicino a x e dei limiti sull errore di x k e di u k+1. Teorema 4: Supponiamo che le ipotesi del Teorema 3 siano soddisfatte in x e u, e sia µ > 0 la relativa soglia. Allora esistono degli scalari δ > 0, ε > 0, e M tali che i) Per ogni u k e µ k che soddisfano u k u δ/µ k, µ k µ, (15) il problema min L A(x, u k, µ k ) x R n : x x ε ha una unica soluzione x k. Inoltre x k x Mµ k u k u. 12
13 ii) Per ogni u k e µ k che soddisfano (15), abbiamo dove u k+1 dato dalla formula (14). u k+1 u Mµ k u k u, iii) Per ogni u k e µ k che soddisfano (15), la matrice 2 xxl A (x k, u k, µ k ) è definita positiva e i gradienti dei vincoli c i (x k ), i E, sono linearmente indipendenti. Problemi con anche vincoli di disuguaglianza: Si possono introdurre variabili di scarto e sostituire c i (x) 0, i I, con c i (x) s i = 0, s i 0, i I, oppure eliminare le variabili di scarto s i, i I, direttamente dalla procedura di ottimizzazione. Codice LANCELOT tratta esplicitamente i limiti sulle variabili ( bounds ) nel sottoproblema min l inf x l sup L A (x, u k, µ k ) 13
5.6 Metodo di penalità e metodo basato sulle funzioni lagrangiane aumentate
5.6 Metodo di penalità e metodo basato sulle funzioni lagrangiane aumentate Consideriamo il generico problema di PNL min f (x) s.v. c i (x) 0 i I c i (x) = 0 i E (1) x R n dove f e le c i sono di classe
Dettagli5.5 Programmazione quadratica (PQ)
5.5 Programmazione quadratica (PQ Minimizzare una funzione quadratica soggetta a vincoli lineari: 1 min x t Qx + c t x 2 s.v. a t i x b i i D (P a t i x = b i i U x R n dove Q matrice n n, D e U sono gli
Dettagli4.4 Programmazione quadratica
4.4 Programmazione quadratica Minimizzare una funzione quadratica soggetta a vincoli lineari: min 1 2 xt Qx + c t x s.v. a t i x b i i D (P) a t i x = b i i U x R n dove Q matrice n n, D e U sono gli insiemi
DettagliCapitolo 3: Ottimizzazione non vincolata parte III. E. Amaldi DEI, Politecnico di Milano
Capitolo 3: Ottimizzazione non vincolata parte III E. Amaldi DEI, Politecnico di Milano 3.4 Metodi di ricerca unidimensionale In genere si cerca una soluzione approssimata α k di min g(α) = f(x k +αd k
DettagliLe condizioni di Karush-Kuhn-Tucker
Capitolo 9 Le condizioni di Karush-Kuhn-Tucker 9. Introduzione In questo capitolo deriveremo le condizioni necessarie di Karush-Kuhn-Tucker (KKT) per problemi vincolati in cui S è descritto da vincoli
DettagliCondizioni di Karush-Kuhn-Tucker e Programmazione Lineare
Condizioni di Karush-Kuhn-Tucker e Programmazione Lineare A. Agnetis 1 Richiami su condizioni di Karush-Kuhn-Tucker e convessità Si consideri il problema di ottimizzazione vincolata: min f(x) (1) x X R
DettagliCapitolo 3: Ottimizzazione non vincolata parte II. E. Amaldi DEI, Politecnico di Milano
Capitolo 3: Ottimizzazione non vincolata parte II E. Amaldi DEI, Politecnico di Milano 3.3 Metodi basati su direzioni di ricerca Problema di ottimizzazione non vincolata: min x R n f(x) con f : R n R di
DettagliLAGRANGIANE AUMENTATE
LAGRANGIANE AUMENTATE Le condizioni di minimo vincolato per min f o (x) g i (x) = 0, i I sono legate sia alla funzione P(x,k) = f o (x) +(k/2) g i (x) 2 a al suo minimo x k che alla funzione lagrangiana
DettagliProgr. Non Lineare: algoritmi
Progr. Non Lineare: algoritmi Fabio Schoen schoen@ing.unifi.it http://globopt.dsi.unifi.it/users/schoen A.A. 22-23 Programmazione Non Lineare: Cenni sugli algoritmi di ottimizzazione locale Schema generale
DettagliParte V: Rilassamento Lagrangiano
Parte V: Rilassamento Lagrangiano Tecnica Lagrangiana Consideriamo il seguente problema di Programmazione Lineare Intera: P 1 min c T x L I Ax > b Cx > d x > 0, intera in cui A = matrice m x n C = matrice
DettagliSoluzione. 8.1 Campagna pubblicitaria. Exercise session 8 Optimization Prof. E. Amaldi. Insiemi. I = {1,...,m}: insieme delle radio
Soluzione 8.1 Campagna pubblicitaria Insiemi I = {1,...,m}: insieme delle radio J = {1,...,n}: insieme dei giornali Variabili r i r 1 i : minuti sulla stazione radiofonica i I (sotto i 25) : minuti sulla
DettagliEsercizi su ottimizzazione vincolata
Esercizi su ottimizzazione vincolata 1. Rispondere alle seguenti domande (a) Quando un vincolo di disuguaglianza è detto attivo? (b) Cosa è l insieme delle soluzioni ammissibili? Gli algoritmi di ricerca
DettagliNLP KKT 1. Le condizioni necessarie di ottimo per il problema min f o (x) con vincoli g i (x) 0 i I h j (x) = 0 j J
NLP KKT 1 Le condizioni necessarie di ottimo per il problema min f o (x) g i (x) 0 i I h j (x) = 0 j J sono, riferite ad un punto ammissibile x*, μ 0 f o (x*) + i I μ i g i (x*) + j J λ j h j (x*) = 0
Dettagli7.5 Il caso vincolato: preliminari
7.5 Il caso vincolato: preliari Consideriamo ora il problema vincolato 3, che qui riscriviamo: fx gx 0 hx = 0, 13 con g : IR n IR p e h : IR n IR m, m n. Ricordiamo che F = {x IR n : gx 0, hx = 0}, denota
Dettagli3.6 Rilassamento Lagrangiano
3.6 Rilassamento Lagrangiano Consideriamo un generico problema di Programmazione Lineare Intera min {c t x : Ax b, Dx d, x Z n } con tutti i coefficienti interi, dei vincoli Ax b facili e altri Dx d difficili.
Dettagli3.4 Metodo di Branch and Bound
3.4 Metodo di Branch and Bound Consideriamo un generico problema di Ottimizzazione Discreta dove X è la regione ammissibile. (P ) z = max{c(x) : x X} Metodologia generale di enumerazione implicita (Land
Dettagli3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI
3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI ESISTENZA DI UN PUNTO DI OTTIMO VINCOLATO Il problema di ottimizzazione vincolata introdotto nel paragrafo precedente può essere formulato nel modo seguente:
Dettagli9.1 Ottimizzazione di portafoglio: selezione di titoli in presenza di rischio
9.1 Ottimizzazione di portafoglio: selezione di titoli in presenza di rischio Consideriamo il problema di costituire un portafoglio di titoli, sfruttando un budget B. Il mercato offre n titoli, con un
DettagliProgrammazione Non Lineare
Capitolo 1 Programmazione Non Lineare 1.1 Introduzione Un problema di ottimizzazione viene definito come la minimizzazione o la massimizzazione di una funzione a valori reali su un insieme specificato.
Dettagli3.6 Metodi basati sui piani di taglio
3.6 Metodi basati sui piani di taglio Problema generale di Programmazione Lineare Intera (PLI) con A matrice m n e b vettore n 1 razionali min{ c t x : x X = {x Z n + : Ax b} } Sappiamo che esiste una
DettagliEsercizi di ottimizzazione vincolata
Esercizi di ottimizzazione vincolata A. Agnetis, P. Detti Esercizi svolti 1 Dato il seguente problema di ottimizzazione vincolata max x 1 + x 2 x 1 4x 2 3 x 1 + x 2 2 0 x 1 0 studiare l esistenza di punti
DettagliEsercizi di Programmazione Lineare
Esercizi di Programmazione Lineare 1 grafica Si consideri il seguente problema di programmazione lineare: max 3x 1 + 2x 2 s.t. + 2x 1 + x 2 4 2x 1 + x 2 2 + x 1 x 2 1 x 1, x 2 0 a) Risolvere il problema
DettagliAppunti delle esercitazioni di Ricerca Operativa
Appunti delle esercitazioni di Ricerca Operativa a cura di P. Detti 1 Esercizi sulle condizioni di ottimalitµa per problemi di ottimizzazione vincolata Esempio 1 Determinare il punto di intersezione dei
Dettagli8 Metodi iterativi per la risoluzione di sistemi lineari
8 Metodi iterativi per la risoluzione di sistemi lineari È dato il sistema lineare Ax = b con A R n n e x, b R n, con deta 0 Si vogliono individuare dei metodi per determinarne su calcolatore la soluzione,
DettagliSQP (Sequential Quadratic Programming ) La soluzione del problema min f o (x) g i (x) = 0, i I
SQP (Sequential Quadratic Programming ) La soluzione del problema min f o (x) g i (x) = 0, i I e caratterizzata dalle condizioni f o (x) + i I μ i g i (x) = 0 e dall ammissibilita ( g i (x) = 0, i I )
DettagliLA STRUTTURA DEI PROBLEMI DI OTTIMIZZAZIONE. L'ipotesi di razionalità implica che un decisore cerchi di
LA STRUTTURA DEI PROBLEMI DI OTTIMIZZAZIONE L'ipotesi di razionalità implica che un decisore cerchi di individuare la migliore tra tutte le alternative a sua disposizione. Problemi di ottimizzazione =
DettagliProgrammazione Matematica / A.A Soluzioni di alcuni esercizi
Programmazione Matematica / A.A. 8-9 Soluzioni di alcuni esercizi Esercizi - I 3. Aggiungiamo al problema una variabile v, e richiediamo che v soddisfi v n a ij x j b i. j= Fissato x, il minimo v che soddisfa
Dettagli3.7 Metodi quasi-newton
3.7 Metodi quasi-newton Varianti del metodo di Newton in cui invece di usare/invertire la matrice Hessiana di f si estraggono informazioni relative alle derivate seconde dalle variazioni di f. Si genera
DettagliGeometria della programmazione lineare
Geometria della programmazione lineare poliedri punti estremi, vertici, soluzioni di base esistenza di punti estremi rif. Fi 3.1; BT 2.1, 2.2, 2.5 Iperpiani, semispazi Definizione Sia a un vettore non
DettagliRilassamento Lagrangiano
RILASSAMENTO LAGRANGIANO 1 Rilassamento Lagrangiano Tecnica più usata e conosciuta in ottimizzazione combinatoria per il calcolo di lower/upper bounds (Held and Karp (1970)). Si consideri il seguente problema
DettagliGeometria della programmazione lineare
Geometria della programmazione lineare poliedri punti estremi, vertici, soluzioni di base esistenza di punti estremi rif. Fi 3.1; BT 2.1, 2.2, 2.5 Iperpiani, semispazi, poliedri Sia a un vettore non nullo
DettagliMacchine parallele M 1 M 2 M 3 J 1 J 2 LAVORI J 3 J 4
Macchine parallele M 1 J 1 J 2 LAVORI M 2 J 3 J 4 M 3 Macchine parallele Scheduling su macchine parallele scorrelate R C max Descrizione del problema n lavori devono essere processati da m macchine diverse
DettagliLEZIONE ICO
LEZIONE ICO 9-10-2009 Argomento. Rassegna dei metodi numerici utilizzabili per la soluzione di problemi di ottimizzazione statica. Metodi del gradiente e di Newton e loro derivati. Metodi di penalita e
DettagliMatematica Finanziaria 29 novembre 2000
Matematica Finanziaria 29 novembre 2000 Ottimizzazione. Cognome Nome FILA A ESERCIZIO 1: Gestione del rischio a) Ricavare l espressione del vettore dei coe cienti nella tecnica dei minimi quadrati. b)
Dettagli5.5.6 Convergenza del metodo del simplesso
5.5.6 Convergenza del metodo del simplesso Per concludere l analisi del metodo del simplesso, vogliamo ora mostrare che, sotto opportune ipotesi, il numero di iterazioni è finito, ovvero che, in un numero
DettagliUniversità di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A
Università di Siena Teoria della Stima Lucidi del corso di A.A. 2002-2003 Università di Siena 1 Indice Approcci al problema della stima Stima parametrica Stima bayesiana Proprietà degli stimatori Stime
DettagliGeometria della programmazione lineare
Geometria della programmazione lineare poliedri punti estremi, vertici, soluzioni di base esistenza di punti estremi rif. Fi 3.1; BT 2.1, 2.2, 2.5 Iperpiani, semispazi Definizione Sia a un vettore non
DettagliDualità Lagrangiana. Laura Galli Dipartimento di Informatica Largo B. Pontecorvo 3, Pisa
Dualità Lagrangiana Laura Galli Dipartimento di Informatica Largo B. Pontecorvo 3, 56127 Pisa laura.galli@unipi.it http://www.di.unipi.it/~galli 3 Novembre 2015 Ricerca Operativa 2 Laurea Magistrale in
DettagliESAME di OTTIMIZZAZIONE Corso di Laurea Magistrale in Ingegneria Gestionale 1 o anno
SIMULAZIONE ESAME di OTTIMIZZAZIONE 27 Gennaio 21 ESAME di OTTIMIZZAZIONE Corso di Laurea Magistrale in Ingegneria Gestionale 1 o anno Cognome : Nome : Esercizio 1. Si consideri il seguente problema: min
DettagliScuola di Dottorato in Ingegneria L. da Vinci. Problemi di estremo vincolato ed applicazioni. Introduzione ai problemi di estremo
Scuola di Dottorato in Ingegneria L. da Vinci Problemi di estremo vincolato ed applicazioni Pisa, 28-29 Maggio, 2009 Introduzione ai problemi di estremo G. Mastroeni Ricercatore, Dipartimento di Matematica
DettagliRilassamento Lagrangiano
Rilassamento Lagrangiano AA 2009/10 1 Rilassamento Lagrangiano Tecnica più usata e conosciuta in ottimizzazione combinatoria per il calcolo di lower/upper bounds (Held and Karp (1970)). Si consideri il
DettagliAlgoritmi esatti. La teoria ci dice che per problemi difficili (come il
p. 1/4 Algoritmi esatti La teoria ci dice che per problemi difficili (come il KNAPSACK o, ancora di più, il TSP ) i tempi di risoluzione delle istanze, calcolati tramite analisi worst-case, tendono a crescere
DettagliInsiemi di livello. 9 6 marzo Schema lezioni. December 18, Dataf : S R n R ec R, l insieme di livellocdi f è.
Schema lezioni. December 18, 2010 10 Insiemi di livello. Dataf : S R n R ec R, l insieme di livellocdi f è x S : f(x) = c} Esempio 8.4 Analisi degli insiemi di livello delle funzioni f(x,y) = x + y, f(x,y)
DettagliSviluppando ancora per colonna sulla prima colonna della prima matrice e sulla seconda della seconda matrice si ottiene:
M. CARAMIA, S. GIORDANI, F. GUERRIERO, R. MUSMANNO, D. PACCIARELLI RICERCA OPERATIVA Isedi Esercizi proposti nel Cap. 5 - Soluzioni Esercizio 5. - La norma Euclidea di è 9 6 5 - Il versore corrispondente
DettagliProgrammazione lineare: basi e soluzioni di base
Programmazione lineare:basi e soluzioni di base p. 1/33 Programmazione lineare: basi e soluzioni di base Mariantonia Cotronei Facoltà di Ingegneria Università degli Studi Mediterranea di Reggio Calabria
Dettagli3.3 Problemi di PLI facili
3.3 Problemi di PLI facili Consideriamo un generico problema di PLI espresso in forma standard min{c t x : Ax = b, x Z n +} (1) dove A Z m n con n m, e b Z m. Supponiamo che A sia di rango pieno. Sia P
DettagliSoluzione dei Problemi di Programmazione Lineare
Soluzione dei Problemi di Programmazione Lineare Consideriamo un problema di Programmazione Lineare (PL) con m vincoli ed n variabili in Forma Standard dove: ma 0 c A b ( ) 0 ( 2) R è il vettore n delle
DettagliIntroduzione al Metodo del Simplesso. 1 Soluzioni di base e problemi in forma standard
Introduzione al Metodo del Simplesso Giacomo Zambelli 1 Soluzioni di base e problemi in forma standard Consideriamo il seguente problema di programmazione lineare (PL), relativo all esempio di produzione
DettagliNote sulle funzioni convesse/concave
Note sulle funzioni convesse/concave 4th December 2008 1 Definizioni e proprietà delle funzioni convesse/concave. Definizione 1.1 Un insieme A IR n è detto convesso se per ogni x 1 e x 2 punti di A, il
DettagliCenni di ottimizzazione dinamica
Cenni di ottimizzazione dinamica Testi di riferimento: K. Dixit Optimization in Economic Theory. Second Edition, 1990, Oxford: Oxford University Press. A. C. Chiang Elements of Dynamic Optimization, 1992,
Dettagli4.5 Metodo del simplesso
4.5 Metodo del simplesso min z = c T x s.v. Ax = b x PL in forma standard Esamina una sequenza di soluzioni di base ammissibili con valori non crescenti della funzione obiettivo fino a raggiungerne una
DettagliAppunti sul corso di Complementi di Matematica mod. Analisi prof. B.Bacchelli - a.a. 2010/2011.
Appunti sul corso di Complementi di Matematica mod. Analisi prof. B.Baccelli - a.a. 2010/2011. 06 - Derivate, differenziabilità, piano tangente, derivate di ordine superiore. Riferimenti: R.Adams, Calcolo
DettagliMetodi e Modelli per l Ottimizzazione Combinatoria Cover inequalities
Metodi e Modelli per l Ottimizzazione Combinatoria Cover inequalities L. De Giovanni M. Di Summa In questa lezione introdurremo una classe di disuguaglianze, dette cover inequalities, che permettono di
Dettaglinon solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da
NOTE INTEGRATIVE PER IL CORSO DI ANALISI MATEMATICA 2 ANNO ACCADEMICO 2012/13 NOTE SULLA CONTINUITÀ UNIFORME D.BARTOLUCCI, D.GUIDO Sia f(x) = x 3, x [ 1, 1]. Si ha 1. La continuità uniforme x 3 y 3 = x
Dettagli1) Data la seguente istanza di TSP (grafo completo con 5 nodi): c 12 = 52; c 13 = 51; c 14 = 40; c 15 = 53; c 23 = 44;
1) Data la seguente istanza di TSP (grafo completo con 5 nodi): c 12 = 52; c 13 = 51; c 14 = 40; c 15 = 53; c 23 = 44; c 24 = 15; c 25 = 12; c 34 = 32; c 35 = 55; c 45 = 24 Si calcoli l ottimo duale (formulazione
DettagliMacchine parallele M 1 M 2 M 3 J 1 J 2 LAVORI J 3 J 4
Macchine parallele M 1 J 1 J 2 LAVORI M 2 J 3 J 4 M 3 Macchine parallele Scheduling su macchine parallele scorrelate R C max Descrizione del problema n lavori devono essere processati da m macchine diverse
DettagliFUNZIONI DI DUE VARIABILI REALI. f(x, y) = ax + by + c. f(x, y) = x 2 + y 2
0.1 FUNZIONI DI DUE VARIABILI REALI Sia A R 2. Una applicazione f : A R si chiama funzione reale di due variabili reali ESEMPI: 1. La funzione affine di due variabili reali: 2. f(x, y) = ax + by + c f(x,
DettagliProgrammazione Matematica: VII La scomposizione di Dantzig Wolfe
Programmazione Matematica: VII La scomposizione di Dantzig Wolfe Daniele Vigo D.E.I.S. Università di Bologna dvigo@deis.unibo.it rev..0 Maggio 2004 Scomposizione di problemi Accade spesso che un problema
DettagliMetodi per la Soluzione di Problemi di Programmazione Nonlineare
Metodi per la Soluzione di Problemi di Programmazione Nonlineare Gianni Di Pillo Dipartimento di Informatica e Sistemistica Università di Roma La Sapienza Via Eudossiana 18-00184 Roma 1 Definizione del
DettagliEquazioni e sistemi non lineari
Equazioni e sistemi non lineari Lucia Gastaldi DICATAM - Sezione di Matematica, http://lucia-gastaldi.unibs.it Indice 1 Ricerca degli zeri di una funzione Problema e definizioni Metodo di Newton-Raphson
DettagliCenni di ottimizzazione dinamica
Cenni di ottimizzazione dinamica Testi di riferimento: K. Dixit Optimization in Economic Theory. Second Edition, 1990, Oxford: Oxford University Press. A. C. Chiang Elements of Dynamic Optimization, 1992,
DettagliMassimi e minimi vincolati
Massimi e minimi vincolati Vedremo tra breve un metodo per studiare il problema di trovare il minimo e il massimo di una funzione su di un sottoinsieme dello spazio ambiente che non sia un aperto. Abbiamo
DettagliMatematica Finanziaria 13 settembre 2001
Matematica Finanziaria 3 settembre 00 Prova Generale. ESERCIZIO : Algebra Lineare ² Dire se le seguenti applicazioni sono lineari e in caso a ermativo indicarne la matrice associata A: a)f : R >R : b)f
DettagliESAME di OTTIMIZZAZIONE - Compito A Corso di Laurea in Ingegneria Gestionale 2 o anno
ESAME di OTTIMIZZAZIONE 12 gennaio pomeriggio 2005 ESAME di OTTIMIZZAZIONE - Compito A Corso di Laurea in Ingegneria Gestionale 2 o anno Cognome : Nome : VALUTAZIONE Per gli esercizi 1,2,3,4 le risposte
DettagliGeometria iperbolica - Primo foglio Andrea Petracci
Geometria iperbolica - Primo foglio Andrea Petracci Esercizio 1. Teorema (Hopf-Rinow). Se M è una varietà riemanniana connessa, allora le seguenti affermazioni sono equivalenti: (1) M è completa con la
Dettagli5.3 Metodo dei piani di taglio
5.3 Metodo dei piani di taglio (PLI) min s.v. c T x Ax b x interi X Ipotesi: a ij, c j e b i interi Osservazione: La regione ammissibile di un PLI può essere descritta mediante dei vincoli più o meno stringenti
DettagliMIGLIOR APPROSSIMAZIONE IN SPAZI EUCLIDEI
MIGLIOR APPROSSIMAZIONE IN SPAZI EUCLIDEI A. SOMMARIVA Conoscenze richieste. Spazio vettoriale. Spazio normato. Vettori linearmente indipendenti. Sistemi lineari. Operatore delta di Kronecker. Conoscenze
DettagliLaurea in Informatica e Tecnologie per la Produzione del Software Corso di Analisi Matematica Successioni e loro limiti
Laurea in Informatica e Tecnologie per la Produzione del Software Corso di Analisi Matematica Successioni e loro limiti Docente: Anna Valeria Germinario Università di Bari A.V.Germinario (Università di
Dettagli4. METODI DUALI DEL SIMPLESSO
4. MEODI DUALI DEL SIMPLESSO R. adei 1 Una piccola introduzione R. adei 2 MEODI DUALI DEL SIMPLESSO L obiettivo del capitolo è illustrare e giustificare i metodi duali del simplesso. Entrambi i metodi
DettagliSe x* e punto di minimo (locale) per la funzione nell insieme Ω, Ω = { x / g i (x) 0 i I, h j (x)= 0 j J } lo e anche per F(x) = f o (x) + c x x 2
NLP -OPT 1 CONDIZION DI OTTIMO [ Come ricavare le condizioni di ottimo. ] Si suppone x* sia punto di ottimo (minimo) per il problema min f o (x) con vincoli g i (x) 0 i I h j (x) = 0 j J la condizione
DettagliRichiami di algebra delle matrici a valori reali
Richiami di algebra delle matrici a valori reali Vettore v n = v 1 v 2. v n Vettore trasposto v n = (v 1, v 2,..., v n ) v n = (v 1, v 2,..., v n ) A. Pollice - Statistica Multivariata Vettore nullo o
DettagliOttimizzazione dei Sistemi Complessi
1 Giovedì 11 Aprile 2017 1 Istituto di Analisi dei Sistemi ed Informatica IASI - CNR Definizione di ottimalità secondo Pareto Dato il problema multiobiettivo min f 1 (x),..., f k (x) s.t. x F. Un punto
DettagliAlcuni Teoremi sulle funzioni continue e uniforme continuità
Alcuni Teoremi sulle funzioni continue e uniforme continuità Teorema 0. Una funzione f(x) è continua in x 0 se e solo se per ogni sucessione {x n } dom(f) con x n x 0 dom(f), risulta f(x n ) f(x 0 ). (Non
DettagliGeometria della programmazione lineare
Geometria della programmazione lineare p. 1/39 Geometria della programmazione lineare Mariantonia Cotronei Facoltà di Ingegneria Università degli Studi Mediterranea di Reggio Calabria Geometria della programmazione
DettagliGeometria della Programmazione Lineare
Capitolo 2 Geometria della Programmazione Lineare In questo capitolo verranno introdotte alcune nozioni della teoria dei poliedri che permetteranno di cogliere gli aspetti geometrici della Programmazione
DettagliKernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò
Kernel Methods Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 14/05/2018 Kernel Methods Definizione di Kernel Costruzione di Kernel Support Vector Machines Problema primale e duale
DettagliMetodi Numerici per l Approssimazione degli Zeri di una Funzione
Metodi Numerici per l Approssimazione degli Zeri di una Funzione Luca Gemignani luca.gemignani@unipi.it 29 marzo 2018 Indice Lezione 1: Il Metodo di Bisezione. 1 Lezione 2: Metodi di Iterazione Funzionale.
DettagliIl teorema di Ascoli-Arzelà
Il teorema di Ascoli-Arzelà Alcuni risultati sugli spazi metrici Spazi metrici (e topologici) compatti Richiamiamo le definizioni di compattezza negli spazi metrici. Sia (X, d) una spazio metrico e sia
DettagliParte I Identificazione di modelli dinamici. 6: Teoria della stima e caratteristiche degli stimatori. Parte I 6, 1
Parte I 6, 1 Parte I Identificazione di modelli dinamici 6: Teoria della stima e caratteristiche degli stimatori Generalita` Parte I 6, 2 In generale abbiamo: dove sono i dati osservati e` la quantita`
Dettagli2. Fra tutti i rettangoli inscritti in una circonferenza, determinare quello di area massima.
2. Fra tutti i rettangoli inscritti in una circonferenza, determinare quello di area massima. 3. Fra tutti i cilindri a base rotonda inscritti in una sfera, determinare quello di volume massimo. 4. Dimostrare
DettagliEquazioni e sistemi non lineari
Equazioni e sistemi non lineari Lucia Gastaldi DICATAM - Sezione di Matematica, http://lucia-gastaldi.unibs.it Indice 1 Ricerca degli zeri di una funzione Problema e definizioni Metodo di Newton-Raphson
DettagliESTREMI VINCOLATI E CONDIZIONI KKT ANNA CHIARA LAI E PAOLA LORETI
ESTREMI VINCOLATI E CONDIZIONI KKT ANNA CHIARA LAI E PAOLA LORETI 1 2 italian Estremi vincolati e condizioni KKT 1 1. Introduzione Questa breve nota è dedicata allo studio di massimi e minimi di funzioni
DettagliTeoria della Programmazione Lineare Intera
Teoria della Programmazione Lineare Intera Laura Galli Dipartimento di Informatica Largo B. Pontecorvo, 567 Pisa laura.galli@unipi.it http://www.di.unipi.it/~galli 7 Ottobre 0 Ricerca Operativa Laurea
DettagliProgrammazione Lineare Intera
Programmazione Lineare Intera Andrea Scozzari a.a. 2012-2013 May 10, 2013 Andrea Scozzari (a.a. 2012-2013) Programmazione Lineare Intera May 10, 2013 1 / 16 Programmazione Lineare Intera: Metodo dei Piani
DettagliTrasformazione di Problemi Non Lineari
Capitolo 2 Trasformazione di Problemi Non Lineari 2.1 Trasformazione in problema di PL In questa sezione, verranno presentati tre classi di problemi di programmazione non lineare che, attraverso l uso
DettagliMetodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte I)
Metodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte I) Luigi De Giovanni Giacomo Zambelli 1 Problemi di programmazione lineare Un problema
DettagliMiglior approssimazione in spazi euclidei
Miglior approssimazione in spazi euclidei 15 gennaio 2009 1 Introduzione astratta Sia E uno spazio vettoriale dotato di un prodotto interno (, ) (talvolta un tale spazio è detto euclideo, cf. [7, p.148]),
DettagliCORSO DI LAUREA IN INFORMATICA CALCOLO NUMERICO Secondo esonero - 07 Giugno x y =2.
ORSO DI LAUREA IN INFORMATIA ALOLO NUMERIO Secondo esonero - 7 Giugno - Traccia. [Punti:.a: ;.b: ;.c:] Sia dato il sistema x + y + z =, x y =. (.a) Determinarne l insieme delle soluzioni. (.b) Indicare
DettagliLa ricerca di punti di estremo assoluto
La ricerca di punti di estremo assoluto Riccarda Rossi Università di Brescia Analisi Matematica B Riccarda Rossi (Università di Brescia) Estremi assoluti (I) Analisi Matematica B 1 / 29 Richiami di teoria
DettagliLa notazione usata è quella usuale nel caso scalare, ed è estesa al caso generale. Consideriamo una forma quadratica:
. SU ALCUNI OPERAORI DI DERIVAZIONE Alcune operazioni tipiche dell analisi matematica hanno un diretto riscontro in termini matriciali. Consideriamo ad esempio una forma lineare: f() l l + l +..l n n ;
DettagliIl metodo del simplesso
Capitolo 5 Il metodo del simplesso 5. La forma standard Esercizio 5.. Porre il problema di Programmazione Lineare: in forma standard. min x +x + x + x x +x 5 x 4 x, x Si trasformano i vincoli di disuguaglianza
DettagliRisoluzione di sistemi lineari sparsi e di grandi dimensioni
Risoluzione di sistemi lineari sparsi e di grandi dimensioni Un sistema lineare Ax = b con A R n n, b R n, è sparso quando il numero di elementi della matrice A diversi da zero è αn, con n α. Una caratteristica
DettagliIl metodo dei minimi quadrati
Il metodo dei minimi quadrati 1 Posizione del problema Introduciamo la problematica con un semplice esempio pratico. Supponiamo di avere a disposizione una certa quantità x di oggetti tutti uguali tra
DettagliOttimizzazione dei Sistemi Complessi
1 Giovedì 2 Marzo 2017 1 Istituto di Analisi dei Sistemi ed Informatica IASI - CNR Pseudo-code del metodo Fermi-Metropolis Input: x 0, 0, min, maxit k 0, x x 0, 0 while k maxit and min do k k + 1, x x
Dettagli3.2 Rilassamenti lineari/combinatori e bounds
3.2 Rilassamenti lineari/combinatori e bounds Consideriamo un problema di Ottimizzazione Discreta min{f(x) : x X} e sia z il valore di una soluzione ottima x X. Metodi di risoluzione spesso generano una
DettagliSuccessioni numeriche (II)
Successioni numeriche (II) Hynek Kovarik Università di Brescia Analisi A Hynek Kovarik (Università di Brescia) Successioni (II) Analisi A 1 / 52 Forme indeterminate associate a funzioni razionali fratte:
Dettagli