Simplesso Revised. Domenico Salvagnin
|
|
- Arnaldo Giuseppe Pavone
- 5 anni fa
- Visualizzazioni
Transcript
1 Simplesso Revised Domenico Salvagnin Introduzione Consideriamo un problema di programmazione lineare in forma standard: min z = c T x (1.1) Ax = b (1.2) x 0 (1.3) dove A R m n è una matrice di rango pieno con m < n. Indichiamo con N = {1,..., n} l insieme di indici di tutte le variabili. Un vettore x che soddisfa (1.2) si dice soluzione, se soddisfa anche (1.3) si dice soluzione ammissibile. 2 Basi Si definisce base un insieme di m colonne di A linearmente indipendenti. Indichiamo con B l insieme ordinato di indici corrispondenti alle colonne in base: B = {k 1,..., k m } (2.1) e con R l insieme di indici associato alle colonne fuori base. La partizione tra colonne (e quindi variabili) in base e fuori base di A = [B R] permette di riscrivere il sistema (1.2) come Bx B + Rx R = b (2.2) dove abbiamo indicato con B l insieme delle colonne in base e con R l insieme delle colonne fuori base. Essendo B invertibile è possibile riscrivere (2.2) come x B = B 1 b B 1 Rx R (2.3) da cui è evidente che un assegnamento alle variabili fuori base x R determina univocamente il valore delle variabili in base x B. In particolare, se tutte le variabili fuori base sono a zero otteniamo la soluzione x = (x B, x N ) = (B 1 b, 0) (2.4) che viene detta soluzione base. Se tale soluzione soddisfa anche i vincoli di non-negatività (1.3) si dice soluzione base ammissibile. Due basi di A si dicono adiacenti se differiscono per una sola colonna. Sia B = [b 1,..., b p 1, b p, b p+1,..., b m ] una base di A e consideriamo la base adiacente B a = [b 1,..., b p 1, a, b p+1,..., b m ], in cui abbiamo sostituito la p-esima colonna b p con a. Poiché B è una base, è possibile esprimere a come combinazione lineare di vettori di B, cioè: m a = v i b i = Bv (2.5) i=1 1
2 Dall algebra lineare sappiamo che B a è non singolare se e solo se 0 e pertanto è possibile scrivere: b p = 1 a i p v i b i = B a η (2.6) dove abbiamo definito η = [ v 1,..., 1, 1, +1,..., v ] m Se definiamo la matrice di trasformazione elementare E 1 η E = [e 1,..., e p 1, η, e p+1,..., e m ] = η p.... η m 1 (2.7) (2.8) possiamo esprimere i vettori della base B in funzione dei vettori della base B a come B = B a E. Invertendo tale espressione e moltiplicando per E otteniamo infine B 1 a = EB 1 (2.9) Questa relazione ci dice che è possibile ottenere l inversa della base B a moltiplicando per E l inversa di B. La matrice E si ottiene dal vettore η, che a sua volta è facilmente calcolabile dal vettore v = B 1 a. 3 Simplesso primale L idea principale del simplesso primale è la seguente: partendo da una base ammissibile B del problema, ci si sposta iterativamente ad una base ammissibile adiacente di costo non peggiore, fino a raggiungere una base ottima. Per definire i dettagli dell algoritmo dobbiamo pertanto specificare: come riconoscere una base ottima (condizioni di ottimalità) come trovare una base ammissibile adiacente migliorante 3.1 Condizioni di ottimalità Partendo da (2.3) possiamo considerare la forma partizionata della funzione obiettivo, ottenendo: z = c T Bx B + c T Rx R = c T BB 1 b + (c T R c T BB 1 R)x R (3.1) Ora la funzione obiettivo è espressa come un termine costante più una funzione lineare delle sole variabili fuori base. Il vettore π T = c T BB 1 (3.2) prende il nome di vettore dei moltiplicatori e permette di definire comodamente i coefficiente d j della funzione obiettivo nella forma (3.1). Tali coefficienti prendono il nome di costi ridotti delle variabili x j e sono quindi definiti come d j = c j π T a j (3.3) Non è difficile dimostrare che il costo ridotto di una variabile in base è nullo. 2
3 I costi ridotti delle variabili fuori base permettono di definire un criterio di ottimalità per la base corrente. Immaginiamo di dare un valore positivo ad un variabile fuori base x j, j R. Dalla forma (3.1), possiamo dedurre che la funzione obiettivo z aumenti o diminuisca a seconda che il costo ridotto corrispondente sia d j > 0 o d j < 0. Pertanto possiamo concludere che se d j 0 j R (3.4) nessuna variabile fuori base può spostarsi da zero migliorando la funzione obiettivo e quindi la base corrente è ottima. É importante notare che tale condizione è solo sufficiente per l ottimalità di una base, ma è possibile dimostrare che esiste sempre una base ottima che verifica tale condizione. 3.2 Individuare una base adiacente migliorante Se la base corrente B non soddisfa la condizione di ottimalità (3.4), allora esiste una variabile fuori base x q con costo ridotto d q < 0. Possiamo pertanto provare ad aumentare x q in modo da mantenere le equazioni (2.2), l ammissibilità delle variabili in base e migliorare la funzione obiettivo il più possibile. Indichiamo con t 0 lo spostamento (displacement) della variabile x q. Poiché tutte le altre variabili fuori base rimangono a zero, possiamo riscrivere le equazioni (2.2) come da cui Bx B (t) + ta q = b (3.5) x B (t) = B 1 b tb 1 a q = β tα q (3.6) introducendo la notazione β = B 1 b e α q = B 1 a q. Poiché vogliamo mantenere l ammissibilità delle variabili in base, deve essere x i B (t) = β i tα i q 0 per ogni i = 1,..., m e questo insieme di m disequazioni ci permette di trovare un valore massimo per t. Dopo aver definito I = {i : α i q > 0} (3.7) possiamo calcolare il valore massimo θ per t θ = β p α p q { } βi = min i I αq i (3.8) Questa operazione prende il nome di ratio test. La p-esima variabile in base viene detta blocking variable e l elemento αq p viene detto elemento pivot (notate che il minimo non è necessariamente unico). Per t = θ la blocking variable diventa nulla (una proprietà tipica delle variabili in base): possiamo pertanto dire che la variabile x kp esce dalla base ed è sostituita dalla variabile x q. Il nuovo valore della funzione obiettivo è z = z + θd q (3.9) Per ottenere l inversa della nuova base è sufficiente applicare la formula (2.9), dove il vettore η è definito come in (2.7), con il vettore α che prende il posto del vettore v. Se I = non c è alcuna restrizione su t e quindi t = +. In tal caso la funzione obiettivo z può scendere indefinitamente e quindi il problema è illimitato (unbounded). 3.3 Descrizione algoritmica L analisi precedente ci permette di formalizzare algoritmicamente il simplesso primale revised. Step 0 (init) Data una base ammissibile B, calcolare le quantità B 1, β = B 1 b e z = c T B x B. 3
4 Step 1 Calcolare i moltiplicatori π T = c T B B 1. Step 2 (pricing) Calcolare i costi ridotti d j = c j π T a j per j R. Se d j 0 per ogni j allora la base corrente è ottima. Altrimenti scegliere una variabile x q con d q < 0 che entra in base. Step 3 Calcolare α q = B 1 a q. Step 4 (pivot step) Determinare I = {i : αq i > 0}. Se I = allora il problema è illimitato. Altrimenti effettuare il ratio test (3.8), determinando θ e la variabile x kp che esce dalla base. Step 5 (update) Aggiornare la base e la sua inversa. Aggiornare inoltre le quantità β e z Tornare allo Step 1. β i = β i θα i q i p (3.10) β p = θ (3.11) z = z + θd q (3.12) 4 Simplesso duale Ad un dato problema di programmazione lineare in forma standard ( ) è possibile associare un altro problema di programmazione lineare, che viene detto il suo duale Introducendo delle variabili ausiliarie d 0 possiamo ottenere la forma max Z = b T y (4.1) A T y c (4.2) max b T y (4.3) A T y + d = c (4.4) d 0 (4.5) Possiamo ora definire una diversa versione dell algoritmo del simplesso, che cerca sempre di risolvere il problema primale ( ), ma lo fa usando la forma duale ( ). Sia B una base di A, non necessariamente ammissibile. Riscrivendo le equazioni duali (4.4) come d T = c T y T A e scegliendo y T = c T B B 1 (cosa che possiamo sempre fare essendo le variabili y non vincolate in segno), possiamo ricavare le variabili duali d come d T B = c T B c T BB 1 B = 0 (4.6) d T R = c T R c T BB 1 R 0 (4.7) Si ha quindi che le variabili duali d B associate alle variabili primali in base sono esattamente nulle, mentre affinchè la soluzione duale sia ammissibile le variabili duali d R devono essere non negative. Assumiamo che la base corrente sia ammissibile per il duale, cioè che valga (4.7). Tale condizione non è altro che la condizione di ottimalità primale: pertanto, se la base corrente fosse anche ammissibile per il primale sarebbe ottima. L algoritmo del simplesso duale segue esattamente questa strada, partendo da una base ammissibile per il duale e spostandosi su una base adiacente ad ogni iterazione fino a trovarne una che è anche ammissibile per il primale (e quindi ottima). 4
5 4.1 Individuare una base adiacente migliorante duale Consideriamo le equazioni (4.6) e, come fatto nel simplesso primale, proviamo ad aumentare una variabile d kp, indicando con t 0 la variazione (displacement). Come al solito vogliamo aumentare una variabile mantenendo le equazioni presenti nel modello, e quindi calcoliamo un vettore di moltiplicatori y(t) tale da mantenere (4.6) al variare di t. y T B + d T B = c T B (4.8) B T y + d B = c B (4.9) B T y(t) + te p = c B = B T y (4.10) y(t) = y tb T e p (4.11) Adesso che abbiamo ottenuto y(t) possiamo calcolare di quanto cambia la funzione obiettivo duale al variare di t Z(t) = b T y(t) = b T tb T B T e p = Z tβ p (4.12) Poiché vogliamo massimizzare la funzione obiettivo duale (e t 0), un criterio per la scelta della variabile d kp da aumentare è che sia β p < 0 (incidentalmente, vuol dire che conviene scegliere una variabile primale non ammissibile). Tale variabile ha un costo ridotto potenzialmente positivo (in caso di spostamento non nullo) e pertanto lascia la base. Supponiamo di aver scelto una tale variabile. Vediamo ora cosa succede al variare di t alle variabili duali fuori base d R. Si ha che per ogni j R d j (t) = c j a T j y(t) = c j a T j y + ta T j B T e p = d j + tα p j 0 (4.13) Analogamente a quanto fatto con il simplesso primale, possiamo definire un insieme di indici J = {j R : α p j < 0} (4.14) e calcolare lo spostamento massimo θ D θ D = d q α p q = min j J { d j α p j } (4.15) Per t = θ D, il costo ridotto della variabile x q diventa nullo (una proprietà delle variabili in base) e possiamo quindi dire che x q entra in base. Notate come nel simplesso primale venga scelta per prima la variabile che entra in base e poi attraverso il ratio test quella che esce, mentre nel simplesso duale si ha l esatto contrario. Se J =, allora la quantità t può essere resa arbitrariamente grande e quindi il problema duale è illimitato (e il problema primale è impossibile). 4.2 Descrizione algoritmica L analisi precedente ci permette di formalizzare algoritmicamente il simplesso duale revised. Step 0 (init) Data una base ammissibile duale B, calcolare le quantità B 1, β = B 1 b, π T = c T B B 1, d T R = ct R yt R e Z = y T b. 5
6 Step 1 (dual pricing) Se β 0 allora la base corrente è ottima. Altrimenti scegliere una variabile x kp con β p < 0 che esce dalla base. Step 2 Calcolare α p R = et p B 1 R. Step 3 (dual pivot step) Determinare J = {j R : α p j < 0}. Se J = allora il problema è impossibile. Altrimenti effettuare il ratio test (4.15), determinando θ D e la variabile x q che entra in base. Step 4 (update) Aggiornare le variabili duali y e d e la funzione obiettivo Z y = y θ D B T e p (4.16) d j = d j + θ D α p j j R (4.17) d kp = θ D (4.18) Z = Z θ D β p (4.19) Calcolare il vettore α q = B 1 a q e lo step primale θ = βp e aggiornare il vettore β. Aggiornare la base α p q e la sua inversa. Tornare allo Step 1. 5 Simplesso Bounded Finora abbiamo visto versioni dell algoritmo del simplesso che si applicano ad un problema di programmazione lineare in forma standard. Nella sua forma più generale, un problema di programmazione lineare si può esprimere come min c T x Ax b (5.1) l x u dove {,, =} e alcuni lower/upper bound possono essere +/. Introducendo delle opportune variabili artificiali per i vincoli in forma di disuguaglianza abbiamo la forma generale min c T x Ax = b (5.2) l x u A seconda delle possibili combinazioni di valori per lower e upper bound, possiamo individuare i seguenti tipi di variabili (a meno di una traslazione, possiamo assumere che il lower bound, quando finito, sia nullo). ID Tipo Bounds FX fissata x j = 0 P non negativa x j 0 N non positiva x j 0 BD bounded 0 x j u j FR libera x j Vediamo ora una generalizzazione dell algoritmo del simplesso primale che permette di gestire tutti questi tipi di variabili (a meno di una complementazione, possiamo convertire tutte le variabili N in P, quindi assumiamo che non ce ne siano). Dobbiamo in particolare estendere tutti molti dei concetti su cui si basa l algoritmo del simplesso. 6
7 5.1 Ammissibilità Una soluzione si dice ammissibile se ogni variabile è all interno dei propri bound (questo deve valere per tutte le variabili). Per quanto riguarda le variabili fuori base, non sono più necessariamente nulle, ma alcune potrebbero essere al proprio upper bound. Definito l insieme U delle variabili fuori base all upper bound, possiamo calcolare le variabili in base come x B = B 1 (b j U a j u j ) = B 1 b u (5.3) 5.2 Condizioni di ottimalità La definizione di costo ridotto non cambia nella forma generale, ma vanno aggiornate le condizioni di ottimalità, in quanto le variabili fuori base potrebbero avere un displacement negativo (ad esempio nel caso di variabili all upper bound o libere). I criteri aggiornati diventano: ID Valore costo ridotto FX 0 P 0 d j 0 BD 0 d j 0 BD u j d j 0 FR 0 d j = 0 Da notare come una variabile fissata non entri mai in base (i costi ridotti vanno sempre bene, in quanto t è sempre nullo), mentre per una variabile libera il costo ridotto debba essere nullo, in quando può muoversi in entrambe le direzioni. 5.3 Cambio di base A seconda del tipo di variabile scelta per entrare in base, può essere d q < 0 (t 0) o d q > 0 (t 0). Vediamo per primo il caso d q < 0. Le equazioni (3.5) vanno riscritte in Bx B (t) + ta q = b u (5.4) x B (t) = B 1 b u tb 1 a q (5.5) = β tα q (5.6) che non è formalmente molto diverso dal caso standard. Cambiano invece le condizioni sullo spostamento massimo di t, in quando a seconda del tipo di variabile in base ho delle condizioni diverse su t. In particolare, devo considerare che: alcune variabili in base hanno un upper bound, quindi può esserci un limite per t anche per valori negativi di α i q se la variabile in base è libera non viene imposto nessun vincolo su t (quindi una variabile libera non esce mai dalla base) la variabile fuori base x q potrebbe essere a sua volta bounded e raggiungere il proprio upper bound u j prima di tutte le variabili in base. Formalmente devo definire due insiemi di indici I + = {i : α i q > 0 tipo(x ki ) {F X, P, BD}} (5.7) I = {i : α i q < 0 tipo(x ki ) {F X, BD}} (5.8) 7
8 calcolare le due quantità θ + = min i I + θ = min i I { βi α i q } { } βi u ki α i q (5.9) (5.10) e infine ottenere il massimo valore per t come θ = min{θ +, θ, u q } (5.11) Il caso in cui θ = u q prende il nome di bound flip ed è particolarmente vantaggioso: infatti in questo caso l iterazione è sicuramente non degenere e non c è bisogno di aggiornare la base (e la sua inversa!). Il caso d q > 0 è assolutamente analogo. In questo caso i due insiemi di indici vanno definiti come I + = {i : α i q > 0 tipo(x ki ) {F X, BD}} (5.12) I = {i : α i q < 0 tipo(x ki ) {F X, P, BD}} (5.13) e le due quantità come { } θ + βi u ki = max θ = max i I i I + αq i { } βi α i q (5.14) (5.15) e infine si ottinene il massimo valore per t come θ = max{θ +, θ, u q } (5.16) Notate come in questo caso si usi l operatore max in quanto lo spostamento t è 0. 8
MIP Practice. Linear Programming Solvers Implementation. Domenico Salvagnin
MIP Practice Linear Programming Solvers Implementation Domenico Salvagnin Dalla teoria alla pratica... Solver LP/MIP sono molto usati in pratica: perchè? Successo del paradigma LP/MIP dovuto alla disponibilità
DettagliIl metodo del simplesso
Capitolo 5 Il metodo del simplesso 5. La forma standard Esercizio 5.. Porre il problema di Programmazione Lineare: in forma standard. min x +x + x + x x +x 5 x 4 x, x Si trasformano i vincoli di disuguaglianza
DettagliProgrammazione lineare: basi e soluzioni di base
Programmazione lineare:basi e soluzioni di base p. 1/33 Programmazione lineare: basi e soluzioni di base Mariantonia Cotronei Facoltà di Ingegneria Università degli Studi Mediterranea di Reggio Calabria
DettagliIntroduzione al Metodo del Simplesso. 1 Soluzioni di base e problemi in forma standard
Introduzione al Metodo del Simplesso Giacomo Zambelli 1 Soluzioni di base e problemi in forma standard Consideriamo il seguente problema di programmazione lineare (PL), relativo all esempio di produzione
DettagliEsercizi di Programmazione Lineare
Esercizi di Programmazione Lineare 1 grafica Si consideri il seguente problema di programmazione lineare: max 3x 1 + 2x 2 s.t. + 2x 1 + x 2 4 2x 1 + x 2 2 + x 1 x 2 1 x 1, x 2 0 a) Risolvere il problema
Dettaglimin 2x 1 +4x 2 2x 3 +2x 4 x 1 +4x 2 +2x 3 + x 4 =6 2x 1 + x 2 +2x 3 + x 5 =3 x 0.
5 IL METODO DEL SIMPLESSO 6.4 IL METODO DEL SIMPLESSO In questo paragrafo sono riportati alcuni esercizi risolti sul metodo del simplesso. Alcuni sono risolti utilizzando la procedura di pivot per determinare,
Dettagli5.4.5 Struttura dell algoritmo ed esempi
CAPITOLO 5. IL METODO DEL SIMPLESSO 6 5.4.5 Struttura dell algoritmo ed esempi Come abbiamo già ampiamente osservato, la fase II del metodo del simplesso, a partire da una soluzione di base ammissibile,
DettagliA T x b x 0. che chiameremo problema primale, possiamo associare ad esso un altro problema di PL, detto problema duale, definito come segue.
1 Dualitá Dato un problema di PL in forma canonica max c T x A T x b x 0 che chiameremo problema primale, possiamo associare ad esso un altro problema di PL, detto problema duale, definito come segue min
DettagliProgrammazione Matematica / A.A Soluzioni di alcuni esercizi
Programmazione Matematica / A.A. 8-9 Soluzioni di alcuni esercizi Esercizi - I 3. Aggiungiamo al problema una variabile v, e richiediamo che v soddisfi v n a ij x j b i. j= Fissato x, il minimo v che soddisfa
DettagliMetodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte I)
Metodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte I) Luigi De Giovanni Giacomo Zambelli 1 Problemi di programmazione lineare Un problema
DettagliRICERCA OPERATIVA. Tema d esame del 13/12/2005
RICERCA OPERATIVA Tema d esame del 13/12/2005 COGNOME: NOME: MATRICOLA: 1. Un associazione umanitaria ha raccolto 150.000 euro per inviare dei pacchetti regalo natalizi ai bambini di Haiti. Per l acquisto
DettagliProgrammazione Matematica: VI Estensioni dell algoritmo del Simplesso
Programmazione Matematica: VI Estensioni dell algoritmo del Simplesso Daniele Vigo D.E.I.S. Università di Bologna dvigo@deis.unibo.it rev. 1.0 Aprile 2004 Algoritmo del Simplesso L algoritmo del Simplesso
Dettagli4. METODI DUALI DEL SIMPLESSO
4. MEODI DUALI DEL SIMPLESSO R. adei 1 Una piccola introduzione R. adei 2 MEODI DUALI DEL SIMPLESSO L obiettivo del capitolo è illustrare e giustificare i metodi duali del simplesso. Entrambi i metodi
DettagliPROGRAMMAZIONE LINEARE E DUALITA'
PROGRAMMAZIONE LINEARE E DUALITA' 1) Dati i punti di R 2 (1, 2), (1, 4), (2, 3), (3, 5), (4, 1), (4, 2), (5, 5), (6, 2), (6, 5). Determinare graficamente: A - L'involucro convesso di tali punti. B - Quali
DettagliMetodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte II)
Metodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte II) Luigi De Giovanni Giacomo Zambelli 1 I passi dell algoritmo del simplesso L
Dettagli4.5 Metodo del simplesso
4.5 Metodo del simplesso min z = c T x s.v. Ax = b x PL in forma standard Esamina una sequenza di soluzioni di base ammissibili con valori non crescenti della funzione obiettivo fino a raggiungerne una
DettagliCosti ridotti e ottimalità
Costi ridotti e ottimalità condizione sufficiente di ottimalità spostamento su una base adiacente rif. Fi 3.2; Ricapitolando Sin qui abbiamo un algoritmo enumerativo applicabile quando P è un ( politopo,
DettagliTeorema Data una base ammissibile B della matrice A del problema (7.3.1). Se per qualche indice i {1,...,n m} abbiamo che:
LA FASE II DEL METODO DEL SIMPLESSO 173 742 Criterio di illimitatezza Se il criterio di ottimalità non è verificato il metodo del simplesso cerca di capire se il problema da risolvere sia illimitato inferiormente
DettagliSi considera, come al solito, un problema di programmazione lineare in forma standard:
LA FASE I DEL METODO DEL SIMPLESSO 149 6.5 LA FASE I DEL METODO DEL SIMPLESSO Comegiàdetto, il primoobiettivo dellafase Idel metododelsimplessoèquellodi verificare l ammissibilità del problema da risolvere.
DettagliAlgoritmo del simplesso
Algoritmo del simplesso Ipotesi : si parte da una S.A.B. e dal tableau A=b in forma canonica. Si aggiunge una riga costituita dagli r j, j =,., n e da -z (valore, cambiato di segno, della f.o. nella s.a.b.)
Dettagli2. ALGORITMO DEL SIMPLESSO
. ALGORITMO DEL SIMPLESSO R. Tadei Una piccola introduzione R. Tadei SIMPLESSO L obiettivo del capitolo è quello di fornire un algoritmo, l algoritmo del simplesso, che risolve qualsiasi problema di programmazione
DettagliCORSO DI ALGEBRA LINEARE Anno Accademico 2004/2005 Appunti su SISTEMI di EQUAZIONI LINEARI
CORSO DI ALGEBRA LINEARE Anno Accademico 2004/2005 Appunti su SISTEMI di EQUAZIONI LINEARI Lo studente ha forse già incontrato i sistemi di equazioni lineari alla scuola secondaria Con il termine equazione
Dettagli7.5 Il caso vincolato: preliminari
7.5 Il caso vincolato: preliari Consideriamo ora il problema vincolato 3, che qui riscriviamo: fx gx 0 hx = 0, 13 con g : IR n IR p e h : IR n IR m, m n. Ricordiamo che F = {x IR n : gx 0, hx = 0}, denota
DettagliRicerca Operativa A.A. 2007/ Analisi di sensitività
Ricerca Operativa A.A. 7/8. Analisi di sensitività Luigi De Giovanni - Ricerca Operativa -. Analisi di sensitività. Analisi di Sensitività: motivazioni I parametri (A, b e c) di un problema di programmazione
DettagliApplicazioni eliminazione di Gauss
Applicazioni eliminazione di Gauss. Premessa Nel seguito supporremo sempre di applicare il metodo di eliminazione di Gauss allo scopo di trasformare la matrice del sistema Ax = b in una matrice triangolare
DettagliRICERCA OPERATIVA. Tema d esame del 04/03/2008 (Simulazione)
RICERCA OPERATIVA Tema d esame del 04/03/2008 (Simulazione) COGNOME: NOME: MATRICOLA:. Una nota azienda automobilistica produce due modelli di auto (un utilitaria e una berlina), che rivende con un guadagno
Dettaglix 1 x 2 x 3 x 5 La base iniziale è B 0 = I e risulta x B 0 = , x N 0 = Iterazione 0. Calcolo dei costi ridotti. γ 0 = c N 0 (N 0 ) T c B 0 =
56 IL METODO DEL SIMPLESSO 7.4 IL METODO DEL SIMPLESSO In questo paragrafo sono riportati alcuni esercizi risolti sul metodo del simplesso. Alcuni sono risolti utilizzando la procedura di pivot per determinare,
DettagliSoluzione dei Problemi di Programmazione Lineare
Soluzione dei Problemi di Programmazione Lineare Consideriamo un problema di Programmazione Lineare (PL) con m vincoli ed n variabili in Forma Standard dove: ma 0 c A b ( ) 0 ( 2) R è il vettore n delle
DettagliGestione della produzione e della supply chain Logistica distributiva. Paolo Detti Dipartimento di Ingegneria dell Informazione Università di Siena
Gestione della produzione e della supply chain Logistica distributiva Paolo Detti Dipartimento di Ingegneria dell Informazione Università di Siena Un algoritmo per il flusso a costo minimo: il simplesso
DettagliUniversità degli Studi di Roma La Sapienza
Università degli Studi di Roma La Sapienza Dipartimento di Informatica e Sistemistica A. Ruberti Proff. Gianni Di Pillo and Laura Palagi Note per il corso di OTTIMIZZAZIONE (a.a. 2007-08) Dipartimento
DettagliAlgoritmo del Simplesso
Algoritmo del Simplesso Renato Bruni bruni@dis.uniroma.it Univertà di Roma Sapienza Corso di Ricerca Operativa, Corso di Laurea Ingegneria dell Informazione Vertici e Punti Estremi di un Poliedro Un poliedro
DettagliDualitá in Programmazione Lineare e alcune conseguenze
Dualitá in Programmazione Lineare e alcune conseguenze Giacomo Zambelli 1 Dualitá per problemi in forma standard Si consideri il seguente problema di PL in forma standard: z = max c x Ax = b (1) ove A
Dettagli5.3 Introduzione al metodo del simplesso
CAPITOLO 5 IL METODO DEL SIMPLESSO 105 53 Introduzione al metodo del simplesso Il Metodo del Simplesso permette di risolvere problemi di Programmazione Lineare in forma standard, cioè problemi di Programmazione
DettagliRICERCA OPERATIVA. Tema d esame del 04/12/2008 (Simulazione 1)
RICERCA OPERATIVA Tema d esame del 04/12/2008 (Simulazione 1) COGNOME: NOME: MATRICOLA: 1. Un azienda meccanica deve pianificare il lavoro delle sue tre macchine per un dato giorno. I lotti che è possibile
DettagliGestione della produzione e della supply chain Logistica distributiva
Gestione della produzione e della supply chain Logistica distributiva Paolo Detti Dipartimento di Ingegneria dell Informazione e Scienze Matematiche Università di Siena Convergenza dell algoritmo Se non
DettagliEsame di Ricerca Operativa del 11/1/19
Esame di Ricerca Operativa del // (Cognome) (Nome) (Numero di Matricola) Esercizio. (a) Risolvere il seguente problema di programmazione lineare, determinandone il problema duale ed applicando l algoritmo
Dettagli1 Il metodo dei tagli di Gomory
Il metodo dei tagli di Gomory Esercizio Sia dato il problema min(x x ) x + x (P 0 ) x + x x, x 0, interi. Calcolare la soluzione ottima applicando il metodo dei tagli di Gomory. Risoluzione Per applicare
DettagliIl modello duale. Capitolo settimo. Introduzione
Capitolo settimo Il modello duale Introduzione Il modello duale e la teoria della dualità assumono una grande importanza nella teoria della programmazione matematica. In questo testo i modelli primale
DettagliNote sull algoritmo di Gauss
Note sull algoritmo di Gauss 29 settembre 2009 Generalità Un sistema lineare di m equazioni in n incognite x,..., x n è un espressione del tipo: a x + a 2 x 2 + + a n x n = b a 2 x + a 22 x 2 + + a 2n
DettagliIl metodo del simplesso. Il metodo del simplesso p. 1/8
Il metodo del simplesso Il metodo del simplesso p. 1/8 Ipotesi iniziale Data la base B e la riformulazione rispetto a essa: max γ 0 + n m j=1 γ jx im+j x i1 = β 1 + n m j=1 α 1jx im+j x ik = β k + n m
DettagliEsercizi di Programmazione Lineare - Dualità
Esercizi di Programmazione Lineare - Dualità Esercizio n1 Dato il seguente problema 3 + 3 2 2 + a scriverne il duale; b risolvere il duale (anche geometricamente indicando cosa da esso si può dedurre sul
DettagliRicerca Operativa. G. Liuzzi. Giovedí 19 Marzo Tableau del Simplesso Esempio Fase I del Simplesso Esempio
1 Giovedí 19 Marzo 2015 1 Istituto di Analisi dei Sistemi ed Informatica IASI - CNR Tableau o Dizionario Qualche richiamo sulla generica iterazione della Fase II: B base ammissibile corrente x SBA corrente:
Dettagli2. SIMPLESSO. Ricerca Operativa. 2 Esercizi sul simplesso. Politecnico di Torino CeTeM
. SIMPLESSO Pagina di Pagina di Esempio (Simplesso standard) Sia dato il seguente PL: Il tableau del simplesso è il seguente:.. min s t z Esiste una soluzione di base ammissibile:,,, z La soluzione non
Dettagli4.4 Programmazione quadratica
4.4 Programmazione quadratica Minimizzare una funzione quadratica soggetta a vincoli lineari: min 1 2 xt Qx + c t x s.v. a t i x b i i D (P) a t i x = b i i U x R n dove Q matrice n n, D e U sono gli insiemi
DettagliEsercizi sulla Programmazione Lineare Intera
Soluzioni 4.7-4.0 Fondamenti di Ricerca Operativa Prof. E. Amaldi Esercizi sulla Programmazione Lineare Intera 4.7 Algoritmo del Simplesso Duale. Risolvere con l algoritmo del simplesso duale il seguente
DettagliDualitá. Dualitá p. 1/4
Dualitá Dualitá p. 1/4 Dualitá p. 2/4 Dualitá Problema di PL in forma standard max cx Ax = b x 0 Chiamato problema primale. A questo associato un altro problema di PL, detto problema duale: min ub ua c
DettagliSull algoritmo di ascesa duale per il problema della localizzazione di impianti
Sull algoritmo di ascesa duale per il problema della localizzazione di impianti A. Agnetis In queste note presentiamo l algoritmo di ascesa duale per la generazione di lower bound di buona qualità per
DettagliPossibile applicazione
p. 1/4 Assegnamento Siano dati due insiemi A e B entrambi di cardinalità n. Ad ogni coppia (a i,b j ) A B è associato un valore d ij 0 che misura la "incompatibilità" tra a i e b j, anche interpretabile
DettagliTecniche di Decomposizione per Programmazione Lineare Intera (Mista)
Tecniche di Decomposizione per Programmazione Lineare Intera (Mista) Domenico Salvagnin 2011-06-12 1 Introduzione Dato un problema di programmazione lineare intera (mista), non è sempre possibile (o conveniente)
DettagliRango di una matrice e teorema di Rouché-Capelli
Rango di una matrice e teorema di Rouché-Capelli Sappiamo che a una matrice m n, A, è associata l applicazione lineare L A : R n R m, L A (X) = AX, X R n. Definizione 1. Lo spazio nullo di A, N (A), è
DettagliGeometria BIAR Esercizi 2
Geometria BIAR 0- Esercizi Esercizio. a Si consideri il generico vettore v b R c (a) Si trovi un vettore riga x (x, y, z) tale che x v a (b) Si trovi un vettore riga x (x, y, z) tale che x v kb (c) Si
DettagliA.A Fondamenti di Ricerca Operativa. 2. Determinare β affinchè il poliedro descritto dal sistema di disequazioni
A.A. 08-09 Fondamenti di Ricerca Operativa. Si consideri il problema min x + x + 4x 3 3x 4 x + x 3 = 5 x + x 4 = x, x, x 3, x 4 0 Stabilire se il problema ha insieme ammissibile vuoto, oppure è illimitato,
DettagliTeoria della Programmazione Lineare. Teoria della Programmazione Lineare p. 1/8
Teoria della Programmazione Lineare Teoria della Programmazione Lineare p. 1/8 I problemi di PL in forma canonica In forma scalare: max n j=1 c jx j n j=1 a ijx j b i x j 0 i = 1,...,m j = 1,...,n Teoria
DettagliGeometria BAER I canale Foglio esercizi 2
Geometria BAER I canale Foglio esercizi 2 Esercizio 1. Calcolare il determinante e l inversa (quando esiste) della matrice ( ) cos θ sin θ R θ =, θ [0, 2π] sin θ cos θ Soluzione: Il determinante ( é cos
DettagliUniversità Ca Foscari Venezia
Università Ca Foscari Venezia Dipartimento di Scienze Ambientali, Informatica e Statistica Giovanni Fasano Brevi FAQ sul Metodo del SIMPLESSO Università Ca Foscari Venezia, Dipartimento di Management,
DettagliIstituzioni di Matematiche Modulo A (ST)
Istituzioni di Matematiche Modulo A (ST V II foglio di esercizi ESERCIZIO. Nei seguenti sistemi lineari, discutere l insieme delle soluzioni al variare del parametro t, o dei parametri t e τ, in R. 5 x
DettagliCorso di Matematica Applicata A.A
Corso di Matematica Applicata A.A. 2012-2013 Programmazione lineare (II parte) Prof.ssa Bice Cavallo Soluzione di un problema PL Soluzione ottima Variabili slack e surplus A R mxn Ax b s R m, s i 0 : Ax
DettagliIl Branch & Bound. Definizione 1. Sia S R n. La famiglia S = {S 1, S 2,..., S k S} tale che S 1 S 2 S k = S viene detta suddivisione di S.
Il Branch & Bound Il metodo Branch & Bound è una tecnica che permette di risolvere all ottimo un generico problema di Programmazione Lineare Intera. Tale metodo si basa su due concetti cardine: quello
DettagliCondizioni di Karush-Kuhn-Tucker e Programmazione Lineare
Condizioni di Karush-Kuhn-Tucker e Programmazione Lineare A. Agnetis 1 Richiami su condizioni di Karush-Kuhn-Tucker e convessità Si consideri il problema di ottimizzazione vincolata: min f(x) (1) x X R
DettagliApplicazioni lineari tra spazi euclidei. Cambi di base.
pplicazioni lineari tra spazi euclidei. Cambi di base. Esercizio. Data la seguente applicazione lineare f : R R : f(x, y, z) = (x z, x + y, y + z), scrivere la matrice B, rappresentativa di f rispetto
DettagliIl metodo del simplesso. Il metodo del simplesso p. 1/127
Il metodo del simplesso Il metodo del simplesso p. 1/127 I problemi di PL in forma standard I problemi di PL in forma standard hanno la seguente formulazione: max cx a i x = b i x 0 i = 1,...,m o, equivalentemente,
Dettagli3.6 Metodi basati sui piani di taglio
3.6 Metodi basati sui piani di taglio Problema generale di Programmazione Lineare Intera (PLI) con A matrice m n e b vettore n 1 razionali min{ c t x : x X = {x Z n + : Ax b} } Sappiamo che esiste una
DettagliLEZIONE N.7 INTRODUZIONE AI METODI DI PROGRAMMAZIONE LINEARE, IL METODO DEL SIMPLESSO. 1di 18
LEZIONE N.7 INTRODUZIONE AI METODI DI PROGRAMMAZIONE LINEARE, IL METODO DEL SIMPLESSO 1di 18 Metodo del Simplesso Il metodo del simplesso dovuto a Dantzing ed a Kantorovich è un algoritmo il cui nome deriva
DettagliGeometria BAER I canale Foglio esercizi 2
Geometria BAER I canale Foglio esercizi Esercizio. ( ) Data la matrice, determinare tutte le matrici X Mat( ) tali che AX = 0 e tutte le matrici Y Mat( ) tali che Y 0. ( ) ( ) ( ) x y x + z y + w Soluzione:
DettagliFormulazioni. Consideriamo il seguente problema di Knapsack 0-1. max (5x x 2. ) st 3x x 2. < 6 x {0,1} 2
Formulazioni Consideriamo il seguente problema di Knapsack 0-1 max (5x 1 + 2x 2 ) st 3x 1 + 4x 2 < 6 x {0,1} 2 Insiemi ammissibili F = {(0, 0), (0, 1), (1, 0)} Rappresentiamo sul piano gli insiemi ammissibili.
DettagliEsercizio 1. Variabili decisionali:
Esercizio 1 Si noti che i costi sono dati per tonnellata, mentre molti vincoli riguardano il numero di navi. Si introducono pertanto DUE tipi di variabili, uno relativo al numero di tonnellate per tipo
DettagliAUTOVALORI, AUTOVETTORI, AUTOSPAZI
AUTOVALORI, AUTOVETTORI, AUTOSPAZI. Esercizi Esercizio. Sia f : R 3 R 3 l endomorfismo definito da f(x, y, z) = (x+y, y +z, x+z). Calcolare gli autovalori ed una base per ogni autospazio di f. Dire se
DettagliAppunti di Geometria - 2
Appunti di Geometria - Samuele Mongodi - s.mongodi@sns.it Cambi di base e applicazioni lineari Richiami Sia V uno spazio vettoriale di dimensione n sul campo K, con base assegnata e,..., e n } (ad esempio
Dettagli0.1 Condizione sufficiente di diagonalizzabilità
0.1. CONDIZIONE SUFFICIENTE DI DIAGONALIZZABILITÀ 1 0.1 Condizione sufficiente di diagonalizzabilità È naturale porsi il problema di sapere se ogni matrice sia o meno diagonalizzabile. Abbiamo due potenziali
DettagliEsercizi sulla Programmazione Lineare. min. cx Ax b x 0
Soluzioni 4.-4. Fondamenti di Ricerca Operativa Prof. E. Amaldi Esercizi sulla Programmazione Lineare 4. Risoluzione grafica e forma standard. Si consideri il problema min x cx Ax b x dove x = (x, x )
DettagliCompito di MD 13 febbraio 2014
Compito di MD 13 febbraio 2014 IMPORTANTE: Non si possono consultare libri e appunti. Non si possono usare calcolatrici, computer o altri dispositivi elettronici. Non si può scrivere con il lapis. Motivare
DettagliLA FASE II DEL METODO DEL SIMPLESSO Convergenza del metodo del simplesso
LA FASE II DEL METODO DEL SIMPLESSO 193 7.4.6 Convergenza del metodo del simplesso Per concludere l analisi della Fase II del metodo del simplesso, vogliamo ora mostrare che, sotto opportune ipotesi, il
Dettagli1 Esercizi 13. 3x + λy + 2z = 0 (1 λ)x + 5y + 3z = 0 3x + 2y + z = 0
1 Esercizi 13 1. Discutere le soluzioni del sistema seguente al variare del parametro λ R. 3x + λy + 2z 0 (1 λ)x + 5y + 3z 0 3x + 2y + z 0 Soluzione. Si tratta di un SLO 3 3 e sappiamo che tale sistema
DettagliCOMPITO DI RICERCA OPERATIVA. max x 1 + 2x 2 + x 3 x 1 x 2 + x 3 = 1 2x 1 + 3x 2 + x 4 = 2
COMPITO DI RICERCA OPERATIVA ESERCIZIO. (9 punti) Sia dato il seguente problema di PL: max x + 2x 2 + x 3 x x 2 + x 3 = 2x + 3x 2 + x 4 = 2 x, x 2, x 3, x 4 0 Si determini il duale del problema ( punto).
Dettagli4.3 Esempio metodo del simplesso
4.3 Esempio metodo del simplesso (P ) min -5x 4x 2 3x 3 s.v. 2x + 3x 2 + x 3 5 4x + x 2 + 2x 3 3x + 4x 2 + 2x 3 8 x, x 2, x 3 Per mettere il problema in forma standard si introducono le variabili di scarto
DettagliTrasformazione di Problemi Non Lineari
Capitolo 2 Trasformazione di Problemi Non Lineari 2.1 Trasformazione in problema di PL In questa sezione, verranno presentati tre classi di problemi di programmazione non lineare che, attraverso l uso
DettagliAppunti su Indipendenza Lineare di Vettori
Appunti su Indipendenza Lineare di Vettori Claudia Fassino a.a. Queste dispense, relative a una parte del corso di Matematica Computazionale (Laurea in Informatica), rappresentano solo un aiuto per lo
DettagliCorso di Laurea in Fisica. Geometria 1. a.a Gruppo B. Prof. P. Piazza Soluzioni compito a casa del 17/11/06 B =
Corso di Laurea in Fisica. Geometria. a.a. 26-7. Gruppo B. Prof. P. Piazza Soluzioni compito a casa del 7//6 Soluzione esercizio. Sia B {e, e 2 } e sia B {v, v 2 }. La matrice B del cambiamento di base
DettagliSI RICORDA CHE LE LEZIONI DI MERCOLEDÌ 5 E 12 APRILE SI TERRANNO IN AULA D3 DALLE 9 ALLE 11
SI RICORDA CHE LE LEZIONI DI MERCOLEDÌ 5 E 12 APRILE SI TERRANNO IN AULA D3 DALLE 9 ALLE 11 MARTEDÌ 11 APRILE LA LEZIONE SI TERRÀ IN AULA SEMINARI PIANO C 1di 26 LEZIONE N.7 INTRODUZIONE AI METODI DI PROGRAMMAZIONE
DettagliMetodi e Modelli per l Ottimizzazione Combinatoria Cover inequalities
Metodi e Modelli per l Ottimizzazione Combinatoria Cover inequalities L. De Giovanni M. Di Summa In questa lezione introdurremo una classe di disuguaglianze, dette cover inequalities, che permettono di
DettagliProgrammazione Matematica: VII La scomposizione di Dantzig Wolfe
Programmazione Matematica: VII La scomposizione di Dantzig Wolfe Daniele Vigo D.E.I.S. Università di Bologna dvigo@deis.unibo.it rev..0 Maggio 2004 Scomposizione di problemi Accade spesso che un problema
DettagliI. Foglio di esercizi su vettori linearmente dipendenti e linearmente indipendenti. , v 2 = α v 1 + β v 2 + γ v 3. α v 1 + β v 2 + γ v 3 = 0. + γ.
ESERCIZI SVOLTI DI ALGEBRA LINEARE (Sono svolti alcune degli esercizi proposti nei fogli di esercizi su vettori linearmente dipendenti e vettori linearmente indipendenti e su sistemi lineari ) I. Foglio
DettagliNOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n
NOTE DI ALGEBRA LINEARE 2- MM 9 NOVEMBRE 2 Combinazioni lineari e generatori Sia K un campo e V uno spazio vettoriale su K Siano v,, v n vettori in V Definizione Un vettore v V si dice combinazione lineare
DettagliLeLing12: Ancora sui determinanti.
LeLing2: Ancora sui determinanti. Ārgomenti svolti: Sviluppi di Laplace. Prodotto vettoriale e generalizzazioni. Rango e determinante: i minori. Il polinomio caratteristico. Ēsercizi consigliati: Geoling
DettagliLEZIONE 12. Y = f(x) = f( x j,1 f(e j ) = x j,1 A j = AX = µ A (X),
LEZIONE 1 1.1. Matrice di un applicazione lineare. Verifichiamo ora che ogni applicazione lineare f: R n R m è della forma µ A per un unica A R m,n. Definizione 1.1.1. Per ogni j 1,..., n indichiamo con
DettagliCorso di Laurea in Fisica. Geometria. a.a Canale 3 Prof. P. Piazza Magiche notazioni
Corso di Laurea in Fisica. Geometria. a.a. 23-4. Canale 3 Prof. P. Piazza Magiche notazioni Siano V e W due spazi vettoriali e sia T : V W un applicazione lineare. Fissiamo una base B per V ed una base
DettagliIntroduzione al Column Generation Caso di Studio: il Bin Packing Problem
Introduzione al Column Generation Caso di Studio: il Bin Packing Problem November 15, 2014 1 / 26 Introduzione Il column generation è una metodologia che può essere usata per risolvere problemi di ottimizzazione
DettagliEsame di Ricerca Operativa del 20/02/18
Esame di Ricerca Operativa del //8 (Cognome) (Nome) (Numero di Matricola) Esercizio. (a) Risolvere mediante l algoritmo del simplesso duale il seguente problema di programmazione lineare: min x x +x x
Dettagli3.3 Problemi di PLI facili
3.3 Problemi di PLI facili Consideriamo un generico problema di PLI espresso in forma standard min{c t x : Ax = b, x Z n +} (1) dove A Z m n con n m, e b Z m. Supponiamo che A sia di rango pieno. Sia P
DettagliDomini di funzioni di due variabili. Determinare i domini delle seguenti funzioni di due variabili (le soluzioni sono alla fine del fascicolo):
UNIVERSITA DEGLI STUDI DI SALERNO C.d.L. in INGEGNERIA GESTIONALE Esercizi di Ricerca Operativa Prof. Saverio Salerno Corso tenuto nell anno solare 2009 I seguenti esercizi sono da ritenersi di preparazione
DettagliL ALGORITMO DEL SIMPLESSO REVISIONATO
L ALGORITMO DEL SIMPLESSO REVISIONATO L'algoritmo del simplesso revisionato costituisce una diversa implementazione dell algoritmo standard tesa a ridurre, sotto certe condizioni, il tempo di calcolo e
DettagliTeoria della Dualità: I Introduzione
Teoria della Dualità: I Introduzione Daniele Vigo D.E.I.S. Università di Bologna dvigo@deis.unibo.it rev. 1.2 Maggio 2004 Dualità Per ogni problema PL, detto primale, ne esiste un altro, detto duale, costruito
DettagliCorso di Matematica Applicata A.A
Corso di Matematica Applicata A.A. 2012-2013 Programmazione lineare (III parte) Prof.ssa Bice Cavallo Iterazioni del simplesso Basi teoriche dell algoritmo Operazione di pivot Sottomatrice di base B=I
DettagliCorso di Calcolo Numerico
Corso di Laurea in Ingegneria Gestionale Sede di Fermo Corso di 9 - EQUAZIONI DIFFERENZIALI ORDINARIE valori iniziali Valori iniziali Ci occuperemo della soluzione numerica di equazioni del prim ordine
Dettaglir 2 r 2 2r 1 r 4 r 4 r 1
SPAZI R n 1. Esercizi Esercizio 1. Stabilire quali dei seguenti sottoinsiemi sono sottospazi: V 1 = {(x, y, z) R 3 /x = y = z} V = {(x, y, z) R 3 /x = 4} V 3 = {(x, y, z) R 3 /z = x } V 4 = {(x, y, z)
DettagliEsempi di Problemi di Programmazione Lineare
Esempi di Problemi di Programmazione Lineare Esempio 1: Soluzione con l algoritmo del simplesso dell esempio in forma standard ma = 2 + 0 1 2 + + = 5 1 2 3 + + = 0 1 2 4 6 + 2 + = 21 1 2 5 1 2 3 4 5 Il
DettagliAlgebra Lineare. a.a Gruppo A-H. Prof. P. Piazza Soluzioni del compito pomeridiano del 6/12/2004
Algebra Lineare. a.a. 004-05. Gruppo A-H. Prof. P. Piazza Soluzioni del compito pomeridiano del 6/1/004 Esercizio 1. Siano V e W due spazi vettoriali e sia F : V W un isomorfismo (quindi F è lineare e
DettagliSistemi lineari - Parte Seconda - Esercizi
Sistemi lineari - Parte Seconda - Esercizi Terminologia Operazioni elementari sulle righe. Equivalenza per righe. Riduzione a scala per righe. Rango di una matrice. Forma canonica per righe. Eliminazione
DettagliLEZIONE 3. a + b + 2c + e = 1 b + d + g = 0 3b + f + 3g = 2. a b c d e f g
LEZIONE 3 3.. Matrici fortemente ridotte per righe. Nella precedente lezione abbiamo introdotto la nozione di soluzione di un sistema di equazioni lineari. In questa lezione ci poniamo il problema di descrivere
Dettagli