Simplesso Revised. Domenico Salvagnin

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Simplesso Revised. Domenico Salvagnin"

Transcript

1 Simplesso Revised Domenico Salvagnin Introduzione Consideriamo un problema di programmazione lineare in forma standard: min z = c T x (1.1) Ax = b (1.2) x 0 (1.3) dove A R m n è una matrice di rango pieno con m < n. Indichiamo con N = {1,..., n} l insieme di indici di tutte le variabili. Un vettore x che soddisfa (1.2) si dice soluzione, se soddisfa anche (1.3) si dice soluzione ammissibile. 2 Basi Si definisce base un insieme di m colonne di A linearmente indipendenti. Indichiamo con B l insieme ordinato di indici corrispondenti alle colonne in base: B = {k 1,..., k m } (2.1) e con R l insieme di indici associato alle colonne fuori base. La partizione tra colonne (e quindi variabili) in base e fuori base di A = [B R] permette di riscrivere il sistema (1.2) come Bx B + Rx R = b (2.2) dove abbiamo indicato con B l insieme delle colonne in base e con R l insieme delle colonne fuori base. Essendo B invertibile è possibile riscrivere (2.2) come x B = B 1 b B 1 Rx R (2.3) da cui è evidente che un assegnamento alle variabili fuori base x R determina univocamente il valore delle variabili in base x B. In particolare, se tutte le variabili fuori base sono a zero otteniamo la soluzione x = (x B, x N ) = (B 1 b, 0) (2.4) che viene detta soluzione base. Se tale soluzione soddisfa anche i vincoli di non-negatività (1.3) si dice soluzione base ammissibile. Due basi di A si dicono adiacenti se differiscono per una sola colonna. Sia B = [b 1,..., b p 1, b p, b p+1,..., b m ] una base di A e consideriamo la base adiacente B a = [b 1,..., b p 1, a, b p+1,..., b m ], in cui abbiamo sostituito la p-esima colonna b p con a. Poiché B è una base, è possibile esprimere a come combinazione lineare di vettori di B, cioè: m a = v i b i = Bv (2.5) i=1 1

2 Dall algebra lineare sappiamo che B a è non singolare se e solo se 0 e pertanto è possibile scrivere: b p = 1 a i p v i b i = B a η (2.6) dove abbiamo definito η = [ v 1,..., 1, 1, +1,..., v ] m Se definiamo la matrice di trasformazione elementare E 1 η E = [e 1,..., e p 1, η, e p+1,..., e m ] = η p.... η m 1 (2.7) (2.8) possiamo esprimere i vettori della base B in funzione dei vettori della base B a come B = B a E. Invertendo tale espressione e moltiplicando per E otteniamo infine B 1 a = EB 1 (2.9) Questa relazione ci dice che è possibile ottenere l inversa della base B a moltiplicando per E l inversa di B. La matrice E si ottiene dal vettore η, che a sua volta è facilmente calcolabile dal vettore v = B 1 a. 3 Simplesso primale L idea principale del simplesso primale è la seguente: partendo da una base ammissibile B del problema, ci si sposta iterativamente ad una base ammissibile adiacente di costo non peggiore, fino a raggiungere una base ottima. Per definire i dettagli dell algoritmo dobbiamo pertanto specificare: come riconoscere una base ottima (condizioni di ottimalità) come trovare una base ammissibile adiacente migliorante 3.1 Condizioni di ottimalità Partendo da (2.3) possiamo considerare la forma partizionata della funzione obiettivo, ottenendo: z = c T Bx B + c T Rx R = c T BB 1 b + (c T R c T BB 1 R)x R (3.1) Ora la funzione obiettivo è espressa come un termine costante più una funzione lineare delle sole variabili fuori base. Il vettore π T = c T BB 1 (3.2) prende il nome di vettore dei moltiplicatori e permette di definire comodamente i coefficiente d j della funzione obiettivo nella forma (3.1). Tali coefficienti prendono il nome di costi ridotti delle variabili x j e sono quindi definiti come d j = c j π T a j (3.3) Non è difficile dimostrare che il costo ridotto di una variabile in base è nullo. 2

3 I costi ridotti delle variabili fuori base permettono di definire un criterio di ottimalità per la base corrente. Immaginiamo di dare un valore positivo ad un variabile fuori base x j, j R. Dalla forma (3.1), possiamo dedurre che la funzione obiettivo z aumenti o diminuisca a seconda che il costo ridotto corrispondente sia d j > 0 o d j < 0. Pertanto possiamo concludere che se d j 0 j R (3.4) nessuna variabile fuori base può spostarsi da zero migliorando la funzione obiettivo e quindi la base corrente è ottima. É importante notare che tale condizione è solo sufficiente per l ottimalità di una base, ma è possibile dimostrare che esiste sempre una base ottima che verifica tale condizione. 3.2 Individuare una base adiacente migliorante Se la base corrente B non soddisfa la condizione di ottimalità (3.4), allora esiste una variabile fuori base x q con costo ridotto d q < 0. Possiamo pertanto provare ad aumentare x q in modo da mantenere le equazioni (2.2), l ammissibilità delle variabili in base e migliorare la funzione obiettivo il più possibile. Indichiamo con t 0 lo spostamento (displacement) della variabile x q. Poiché tutte le altre variabili fuori base rimangono a zero, possiamo riscrivere le equazioni (2.2) come da cui Bx B (t) + ta q = b (3.5) x B (t) = B 1 b tb 1 a q = β tα q (3.6) introducendo la notazione β = B 1 b e α q = B 1 a q. Poiché vogliamo mantenere l ammissibilità delle variabili in base, deve essere x i B (t) = β i tα i q 0 per ogni i = 1,..., m e questo insieme di m disequazioni ci permette di trovare un valore massimo per t. Dopo aver definito I = {i : α i q > 0} (3.7) possiamo calcolare il valore massimo θ per t θ = β p α p q { } βi = min i I αq i (3.8) Questa operazione prende il nome di ratio test. La p-esima variabile in base viene detta blocking variable e l elemento αq p viene detto elemento pivot (notate che il minimo non è necessariamente unico). Per t = θ la blocking variable diventa nulla (una proprietà tipica delle variabili in base): possiamo pertanto dire che la variabile x kp esce dalla base ed è sostituita dalla variabile x q. Il nuovo valore della funzione obiettivo è z = z + θd q (3.9) Per ottenere l inversa della nuova base è sufficiente applicare la formula (2.9), dove il vettore η è definito come in (2.7), con il vettore α che prende il posto del vettore v. Se I = non c è alcuna restrizione su t e quindi t = +. In tal caso la funzione obiettivo z può scendere indefinitamente e quindi il problema è illimitato (unbounded). 3.3 Descrizione algoritmica L analisi precedente ci permette di formalizzare algoritmicamente il simplesso primale revised. Step 0 (init) Data una base ammissibile B, calcolare le quantità B 1, β = B 1 b e z = c T B x B. 3

4 Step 1 Calcolare i moltiplicatori π T = c T B B 1. Step 2 (pricing) Calcolare i costi ridotti d j = c j π T a j per j R. Se d j 0 per ogni j allora la base corrente è ottima. Altrimenti scegliere una variabile x q con d q < 0 che entra in base. Step 3 Calcolare α q = B 1 a q. Step 4 (pivot step) Determinare I = {i : αq i > 0}. Se I = allora il problema è illimitato. Altrimenti effettuare il ratio test (3.8), determinando θ e la variabile x kp che esce dalla base. Step 5 (update) Aggiornare la base e la sua inversa. Aggiornare inoltre le quantità β e z Tornare allo Step 1. β i = β i θα i q i p (3.10) β p = θ (3.11) z = z + θd q (3.12) 4 Simplesso duale Ad un dato problema di programmazione lineare in forma standard ( ) è possibile associare un altro problema di programmazione lineare, che viene detto il suo duale Introducendo delle variabili ausiliarie d 0 possiamo ottenere la forma max Z = b T y (4.1) A T y c (4.2) max b T y (4.3) A T y + d = c (4.4) d 0 (4.5) Possiamo ora definire una diversa versione dell algoritmo del simplesso, che cerca sempre di risolvere il problema primale ( ), ma lo fa usando la forma duale ( ). Sia B una base di A, non necessariamente ammissibile. Riscrivendo le equazioni duali (4.4) come d T = c T y T A e scegliendo y T = c T B B 1 (cosa che possiamo sempre fare essendo le variabili y non vincolate in segno), possiamo ricavare le variabili duali d come d T B = c T B c T BB 1 B = 0 (4.6) d T R = c T R c T BB 1 R 0 (4.7) Si ha quindi che le variabili duali d B associate alle variabili primali in base sono esattamente nulle, mentre affinchè la soluzione duale sia ammissibile le variabili duali d R devono essere non negative. Assumiamo che la base corrente sia ammissibile per il duale, cioè che valga (4.7). Tale condizione non è altro che la condizione di ottimalità primale: pertanto, se la base corrente fosse anche ammissibile per il primale sarebbe ottima. L algoritmo del simplesso duale segue esattamente questa strada, partendo da una base ammissibile per il duale e spostandosi su una base adiacente ad ogni iterazione fino a trovarne una che è anche ammissibile per il primale (e quindi ottima). 4

5 4.1 Individuare una base adiacente migliorante duale Consideriamo le equazioni (4.6) e, come fatto nel simplesso primale, proviamo ad aumentare una variabile d kp, indicando con t 0 la variazione (displacement). Come al solito vogliamo aumentare una variabile mantenendo le equazioni presenti nel modello, e quindi calcoliamo un vettore di moltiplicatori y(t) tale da mantenere (4.6) al variare di t. y T B + d T B = c T B (4.8) B T y + d B = c B (4.9) B T y(t) + te p = c B = B T y (4.10) y(t) = y tb T e p (4.11) Adesso che abbiamo ottenuto y(t) possiamo calcolare di quanto cambia la funzione obiettivo duale al variare di t Z(t) = b T y(t) = b T tb T B T e p = Z tβ p (4.12) Poiché vogliamo massimizzare la funzione obiettivo duale (e t 0), un criterio per la scelta della variabile d kp da aumentare è che sia β p < 0 (incidentalmente, vuol dire che conviene scegliere una variabile primale non ammissibile). Tale variabile ha un costo ridotto potenzialmente positivo (in caso di spostamento non nullo) e pertanto lascia la base. Supponiamo di aver scelto una tale variabile. Vediamo ora cosa succede al variare di t alle variabili duali fuori base d R. Si ha che per ogni j R d j (t) = c j a T j y(t) = c j a T j y + ta T j B T e p = d j + tα p j 0 (4.13) Analogamente a quanto fatto con il simplesso primale, possiamo definire un insieme di indici J = {j R : α p j < 0} (4.14) e calcolare lo spostamento massimo θ D θ D = d q α p q = min j J { d j α p j } (4.15) Per t = θ D, il costo ridotto della variabile x q diventa nullo (una proprietà delle variabili in base) e possiamo quindi dire che x q entra in base. Notate come nel simplesso primale venga scelta per prima la variabile che entra in base e poi attraverso il ratio test quella che esce, mentre nel simplesso duale si ha l esatto contrario. Se J =, allora la quantità t può essere resa arbitrariamente grande e quindi il problema duale è illimitato (e il problema primale è impossibile). 4.2 Descrizione algoritmica L analisi precedente ci permette di formalizzare algoritmicamente il simplesso duale revised. Step 0 (init) Data una base ammissibile duale B, calcolare le quantità B 1, β = B 1 b, π T = c T B B 1, d T R = ct R yt R e Z = y T b. 5

6 Step 1 (dual pricing) Se β 0 allora la base corrente è ottima. Altrimenti scegliere una variabile x kp con β p < 0 che esce dalla base. Step 2 Calcolare α p R = et p B 1 R. Step 3 (dual pivot step) Determinare J = {j R : α p j < 0}. Se J = allora il problema è impossibile. Altrimenti effettuare il ratio test (4.15), determinando θ D e la variabile x q che entra in base. Step 4 (update) Aggiornare le variabili duali y e d e la funzione obiettivo Z y = y θ D B T e p (4.16) d j = d j + θ D α p j j R (4.17) d kp = θ D (4.18) Z = Z θ D β p (4.19) Calcolare il vettore α q = B 1 a q e lo step primale θ = βp e aggiornare il vettore β. Aggiornare la base α p q e la sua inversa. Tornare allo Step 1. 5 Simplesso Bounded Finora abbiamo visto versioni dell algoritmo del simplesso che si applicano ad un problema di programmazione lineare in forma standard. Nella sua forma più generale, un problema di programmazione lineare si può esprimere come min c T x Ax b (5.1) l x u dove {,, =} e alcuni lower/upper bound possono essere +/. Introducendo delle opportune variabili artificiali per i vincoli in forma di disuguaglianza abbiamo la forma generale min c T x Ax = b (5.2) l x u A seconda delle possibili combinazioni di valori per lower e upper bound, possiamo individuare i seguenti tipi di variabili (a meno di una traslazione, possiamo assumere che il lower bound, quando finito, sia nullo). ID Tipo Bounds FX fissata x j = 0 P non negativa x j 0 N non positiva x j 0 BD bounded 0 x j u j FR libera x j Vediamo ora una generalizzazione dell algoritmo del simplesso primale che permette di gestire tutti questi tipi di variabili (a meno di una complementazione, possiamo convertire tutte le variabili N in P, quindi assumiamo che non ce ne siano). Dobbiamo in particolare estendere tutti molti dei concetti su cui si basa l algoritmo del simplesso. 6

7 5.1 Ammissibilità Una soluzione si dice ammissibile se ogni variabile è all interno dei propri bound (questo deve valere per tutte le variabili). Per quanto riguarda le variabili fuori base, non sono più necessariamente nulle, ma alcune potrebbero essere al proprio upper bound. Definito l insieme U delle variabili fuori base all upper bound, possiamo calcolare le variabili in base come x B = B 1 (b j U a j u j ) = B 1 b u (5.3) 5.2 Condizioni di ottimalità La definizione di costo ridotto non cambia nella forma generale, ma vanno aggiornate le condizioni di ottimalità, in quanto le variabili fuori base potrebbero avere un displacement negativo (ad esempio nel caso di variabili all upper bound o libere). I criteri aggiornati diventano: ID Valore costo ridotto FX 0 P 0 d j 0 BD 0 d j 0 BD u j d j 0 FR 0 d j = 0 Da notare come una variabile fissata non entri mai in base (i costi ridotti vanno sempre bene, in quanto t è sempre nullo), mentre per una variabile libera il costo ridotto debba essere nullo, in quando può muoversi in entrambe le direzioni. 5.3 Cambio di base A seconda del tipo di variabile scelta per entrare in base, può essere d q < 0 (t 0) o d q > 0 (t 0). Vediamo per primo il caso d q < 0. Le equazioni (3.5) vanno riscritte in Bx B (t) + ta q = b u (5.4) x B (t) = B 1 b u tb 1 a q (5.5) = β tα q (5.6) che non è formalmente molto diverso dal caso standard. Cambiano invece le condizioni sullo spostamento massimo di t, in quando a seconda del tipo di variabile in base ho delle condizioni diverse su t. In particolare, devo considerare che: alcune variabili in base hanno un upper bound, quindi può esserci un limite per t anche per valori negativi di α i q se la variabile in base è libera non viene imposto nessun vincolo su t (quindi una variabile libera non esce mai dalla base) la variabile fuori base x q potrebbe essere a sua volta bounded e raggiungere il proprio upper bound u j prima di tutte le variabili in base. Formalmente devo definire due insiemi di indici I + = {i : α i q > 0 tipo(x ki ) {F X, P, BD}} (5.7) I = {i : α i q < 0 tipo(x ki ) {F X, BD}} (5.8) 7

8 calcolare le due quantità θ + = min i I + θ = min i I { βi α i q } { } βi u ki α i q (5.9) (5.10) e infine ottenere il massimo valore per t come θ = min{θ +, θ, u q } (5.11) Il caso in cui θ = u q prende il nome di bound flip ed è particolarmente vantaggioso: infatti in questo caso l iterazione è sicuramente non degenere e non c è bisogno di aggiornare la base (e la sua inversa!). Il caso d q > 0 è assolutamente analogo. In questo caso i due insiemi di indici vanno definiti come I + = {i : α i q > 0 tipo(x ki ) {F X, BD}} (5.12) I = {i : α i q < 0 tipo(x ki ) {F X, P, BD}} (5.13) e le due quantità come { } θ + βi u ki = max θ = max i I i I + αq i { } βi α i q (5.14) (5.15) e infine si ottinene il massimo valore per t come θ = max{θ +, θ, u q } (5.16) Notate come in questo caso si usi l operatore max in quanto lo spostamento t è 0. 8

MIP Practice. Linear Programming Solvers Implementation. Domenico Salvagnin

MIP Practice. Linear Programming Solvers Implementation. Domenico Salvagnin MIP Practice Linear Programming Solvers Implementation Domenico Salvagnin Dalla teoria alla pratica... Solver LP/MIP sono molto usati in pratica: perchè? Successo del paradigma LP/MIP dovuto alla disponibilità

Dettagli

Il metodo del simplesso

Il metodo del simplesso Capitolo 5 Il metodo del simplesso 5. La forma standard Esercizio 5.. Porre il problema di Programmazione Lineare: in forma standard. min x +x + x + x x +x 5 x 4 x, x Si trasformano i vincoli di disuguaglianza

Dettagli

Programmazione lineare: basi e soluzioni di base

Programmazione lineare: basi e soluzioni di base Programmazione lineare:basi e soluzioni di base p. 1/33 Programmazione lineare: basi e soluzioni di base Mariantonia Cotronei Facoltà di Ingegneria Università degli Studi Mediterranea di Reggio Calabria

Dettagli

Introduzione al Metodo del Simplesso. 1 Soluzioni di base e problemi in forma standard

Introduzione al Metodo del Simplesso. 1 Soluzioni di base e problemi in forma standard Introduzione al Metodo del Simplesso Giacomo Zambelli 1 Soluzioni di base e problemi in forma standard Consideriamo il seguente problema di programmazione lineare (PL), relativo all esempio di produzione

Dettagli

Esercizi di Programmazione Lineare

Esercizi di Programmazione Lineare Esercizi di Programmazione Lineare 1 grafica Si consideri il seguente problema di programmazione lineare: max 3x 1 + 2x 2 s.t. + 2x 1 + x 2 4 2x 1 + x 2 2 + x 1 x 2 1 x 1, x 2 0 a) Risolvere il problema

Dettagli

min 2x 1 +4x 2 2x 3 +2x 4 x 1 +4x 2 +2x 3 + x 4 =6 2x 1 + x 2 +2x 3 + x 5 =3 x 0.

min 2x 1 +4x 2 2x 3 +2x 4 x 1 +4x 2 +2x 3 + x 4 =6 2x 1 + x 2 +2x 3 + x 5 =3 x 0. 5 IL METODO DEL SIMPLESSO 6.4 IL METODO DEL SIMPLESSO In questo paragrafo sono riportati alcuni esercizi risolti sul metodo del simplesso. Alcuni sono risolti utilizzando la procedura di pivot per determinare,

Dettagli

5.4.5 Struttura dell algoritmo ed esempi

5.4.5 Struttura dell algoritmo ed esempi CAPITOLO 5. IL METODO DEL SIMPLESSO 6 5.4.5 Struttura dell algoritmo ed esempi Come abbiamo già ampiamente osservato, la fase II del metodo del simplesso, a partire da una soluzione di base ammissibile,

Dettagli

A T x b x 0. che chiameremo problema primale, possiamo associare ad esso un altro problema di PL, detto problema duale, definito come segue.

A T x b x 0. che chiameremo problema primale, possiamo associare ad esso un altro problema di PL, detto problema duale, definito come segue. 1 Dualitá Dato un problema di PL in forma canonica max c T x A T x b x 0 che chiameremo problema primale, possiamo associare ad esso un altro problema di PL, detto problema duale, definito come segue min

Dettagli

Programmazione Matematica / A.A Soluzioni di alcuni esercizi

Programmazione Matematica / A.A Soluzioni di alcuni esercizi Programmazione Matematica / A.A. 8-9 Soluzioni di alcuni esercizi Esercizi - I 3. Aggiungiamo al problema una variabile v, e richiediamo che v soddisfi v n a ij x j b i. j= Fissato x, il minimo v che soddisfa

Dettagli

Metodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte I)

Metodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte I) Metodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte I) Luigi De Giovanni Giacomo Zambelli 1 Problemi di programmazione lineare Un problema

Dettagli

RICERCA OPERATIVA. Tema d esame del 13/12/2005

RICERCA OPERATIVA. Tema d esame del 13/12/2005 RICERCA OPERATIVA Tema d esame del 13/12/2005 COGNOME: NOME: MATRICOLA: 1. Un associazione umanitaria ha raccolto 150.000 euro per inviare dei pacchetti regalo natalizi ai bambini di Haiti. Per l acquisto

Dettagli

Programmazione Matematica: VI Estensioni dell algoritmo del Simplesso

Programmazione Matematica: VI Estensioni dell algoritmo del Simplesso Programmazione Matematica: VI Estensioni dell algoritmo del Simplesso Daniele Vigo D.E.I.S. Università di Bologna dvigo@deis.unibo.it rev. 1.0 Aprile 2004 Algoritmo del Simplesso L algoritmo del Simplesso

Dettagli

4. METODI DUALI DEL SIMPLESSO

4. METODI DUALI DEL SIMPLESSO 4. MEODI DUALI DEL SIMPLESSO R. adei 1 Una piccola introduzione R. adei 2 MEODI DUALI DEL SIMPLESSO L obiettivo del capitolo è illustrare e giustificare i metodi duali del simplesso. Entrambi i metodi

Dettagli

PROGRAMMAZIONE LINEARE E DUALITA'

PROGRAMMAZIONE LINEARE E DUALITA' PROGRAMMAZIONE LINEARE E DUALITA' 1) Dati i punti di R 2 (1, 2), (1, 4), (2, 3), (3, 5), (4, 1), (4, 2), (5, 5), (6, 2), (6, 5). Determinare graficamente: A - L'involucro convesso di tali punti. B - Quali

Dettagli

Metodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte II)

Metodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte II) Metodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte II) Luigi De Giovanni Giacomo Zambelli 1 I passi dell algoritmo del simplesso L

Dettagli

4.5 Metodo del simplesso

4.5 Metodo del simplesso 4.5 Metodo del simplesso min z = c T x s.v. Ax = b x PL in forma standard Esamina una sequenza di soluzioni di base ammissibili con valori non crescenti della funzione obiettivo fino a raggiungerne una

Dettagli

Costi ridotti e ottimalità

Costi ridotti e ottimalità Costi ridotti e ottimalità condizione sufficiente di ottimalità spostamento su una base adiacente rif. Fi 3.2; Ricapitolando Sin qui abbiamo un algoritmo enumerativo applicabile quando P è un ( politopo,

Dettagli

Teorema Data una base ammissibile B della matrice A del problema (7.3.1). Se per qualche indice i {1,...,n m} abbiamo che:

Teorema Data una base ammissibile B della matrice A del problema (7.3.1). Se per qualche indice i {1,...,n m} abbiamo che: LA FASE II DEL METODO DEL SIMPLESSO 173 742 Criterio di illimitatezza Se il criterio di ottimalità non è verificato il metodo del simplesso cerca di capire se il problema da risolvere sia illimitato inferiormente

Dettagli

Si considera, come al solito, un problema di programmazione lineare in forma standard:

Si considera, come al solito, un problema di programmazione lineare in forma standard: LA FASE I DEL METODO DEL SIMPLESSO 149 6.5 LA FASE I DEL METODO DEL SIMPLESSO Comegiàdetto, il primoobiettivo dellafase Idel metododelsimplessoèquellodi verificare l ammissibilità del problema da risolvere.

Dettagli

Algoritmo del simplesso

Algoritmo del simplesso Algoritmo del simplesso Ipotesi : si parte da una S.A.B. e dal tableau A=b in forma canonica. Si aggiunge una riga costituita dagli r j, j =,., n e da -z (valore, cambiato di segno, della f.o. nella s.a.b.)

Dettagli

2. ALGORITMO DEL SIMPLESSO

2. ALGORITMO DEL SIMPLESSO . ALGORITMO DEL SIMPLESSO R. Tadei Una piccola introduzione R. Tadei SIMPLESSO L obiettivo del capitolo è quello di fornire un algoritmo, l algoritmo del simplesso, che risolve qualsiasi problema di programmazione

Dettagli

CORSO DI ALGEBRA LINEARE Anno Accademico 2004/2005 Appunti su SISTEMI di EQUAZIONI LINEARI

CORSO DI ALGEBRA LINEARE Anno Accademico 2004/2005 Appunti su SISTEMI di EQUAZIONI LINEARI CORSO DI ALGEBRA LINEARE Anno Accademico 2004/2005 Appunti su SISTEMI di EQUAZIONI LINEARI Lo studente ha forse già incontrato i sistemi di equazioni lineari alla scuola secondaria Con il termine equazione

Dettagli

7.5 Il caso vincolato: preliminari

7.5 Il caso vincolato: preliminari 7.5 Il caso vincolato: preliari Consideriamo ora il problema vincolato 3, che qui riscriviamo: fx gx 0 hx = 0, 13 con g : IR n IR p e h : IR n IR m, m n. Ricordiamo che F = {x IR n : gx 0, hx = 0}, denota

Dettagli

Ricerca Operativa A.A. 2007/ Analisi di sensitività

Ricerca Operativa A.A. 2007/ Analisi di sensitività Ricerca Operativa A.A. 7/8. Analisi di sensitività Luigi De Giovanni - Ricerca Operativa -. Analisi di sensitività. Analisi di Sensitività: motivazioni I parametri (A, b e c) di un problema di programmazione

Dettagli

Applicazioni eliminazione di Gauss

Applicazioni eliminazione di Gauss Applicazioni eliminazione di Gauss. Premessa Nel seguito supporremo sempre di applicare il metodo di eliminazione di Gauss allo scopo di trasformare la matrice del sistema Ax = b in una matrice triangolare

Dettagli

RICERCA OPERATIVA. Tema d esame del 04/03/2008 (Simulazione)

RICERCA OPERATIVA. Tema d esame del 04/03/2008 (Simulazione) RICERCA OPERATIVA Tema d esame del 04/03/2008 (Simulazione) COGNOME: NOME: MATRICOLA:. Una nota azienda automobilistica produce due modelli di auto (un utilitaria e una berlina), che rivende con un guadagno

Dettagli

x 1 x 2 x 3 x 5 La base iniziale è B 0 = I e risulta x B 0 = , x N 0 = Iterazione 0. Calcolo dei costi ridotti. γ 0 = c N 0 (N 0 ) T c B 0 =

x 1 x 2 x 3 x 5 La base iniziale è B 0 = I e risulta x B 0 = , x N 0 = Iterazione 0. Calcolo dei costi ridotti. γ 0 = c N 0 (N 0 ) T c B 0 = 56 IL METODO DEL SIMPLESSO 7.4 IL METODO DEL SIMPLESSO In questo paragrafo sono riportati alcuni esercizi risolti sul metodo del simplesso. Alcuni sono risolti utilizzando la procedura di pivot per determinare,

Dettagli

Soluzione dei Problemi di Programmazione Lineare

Soluzione dei Problemi di Programmazione Lineare Soluzione dei Problemi di Programmazione Lineare Consideriamo un problema di Programmazione Lineare (PL) con m vincoli ed n variabili in Forma Standard dove: ma 0 c A b ( ) 0 ( 2) R è il vettore n delle

Dettagli

Gestione della produzione e della supply chain Logistica distributiva. Paolo Detti Dipartimento di Ingegneria dell Informazione Università di Siena

Gestione della produzione e della supply chain Logistica distributiva. Paolo Detti Dipartimento di Ingegneria dell Informazione Università di Siena Gestione della produzione e della supply chain Logistica distributiva Paolo Detti Dipartimento di Ingegneria dell Informazione Università di Siena Un algoritmo per il flusso a costo minimo: il simplesso

Dettagli

Università degli Studi di Roma La Sapienza

Università degli Studi di Roma La Sapienza Università degli Studi di Roma La Sapienza Dipartimento di Informatica e Sistemistica A. Ruberti Proff. Gianni Di Pillo and Laura Palagi Note per il corso di OTTIMIZZAZIONE (a.a. 2007-08) Dipartimento

Dettagli

Algoritmo del Simplesso

Algoritmo del Simplesso Algoritmo del Simplesso Renato Bruni bruni@dis.uniroma.it Univertà di Roma Sapienza Corso di Ricerca Operativa, Corso di Laurea Ingegneria dell Informazione Vertici e Punti Estremi di un Poliedro Un poliedro

Dettagli

Dualitá in Programmazione Lineare e alcune conseguenze

Dualitá in Programmazione Lineare e alcune conseguenze Dualitá in Programmazione Lineare e alcune conseguenze Giacomo Zambelli 1 Dualitá per problemi in forma standard Si consideri il seguente problema di PL in forma standard: z = max c x Ax = b (1) ove A

Dettagli

5.3 Introduzione al metodo del simplesso

5.3 Introduzione al metodo del simplesso CAPITOLO 5 IL METODO DEL SIMPLESSO 105 53 Introduzione al metodo del simplesso Il Metodo del Simplesso permette di risolvere problemi di Programmazione Lineare in forma standard, cioè problemi di Programmazione

Dettagli

RICERCA OPERATIVA. Tema d esame del 04/12/2008 (Simulazione 1)

RICERCA OPERATIVA. Tema d esame del 04/12/2008 (Simulazione 1) RICERCA OPERATIVA Tema d esame del 04/12/2008 (Simulazione 1) COGNOME: NOME: MATRICOLA: 1. Un azienda meccanica deve pianificare il lavoro delle sue tre macchine per un dato giorno. I lotti che è possibile

Dettagli

Gestione della produzione e della supply chain Logistica distributiva

Gestione della produzione e della supply chain Logistica distributiva Gestione della produzione e della supply chain Logistica distributiva Paolo Detti Dipartimento di Ingegneria dell Informazione e Scienze Matematiche Università di Siena Convergenza dell algoritmo Se non

Dettagli

Esame di Ricerca Operativa del 11/1/19

Esame di Ricerca Operativa del 11/1/19 Esame di Ricerca Operativa del // (Cognome) (Nome) (Numero di Matricola) Esercizio. (a) Risolvere il seguente problema di programmazione lineare, determinandone il problema duale ed applicando l algoritmo

Dettagli

1 Il metodo dei tagli di Gomory

1 Il metodo dei tagli di Gomory Il metodo dei tagli di Gomory Esercizio Sia dato il problema min(x x ) x + x (P 0 ) x + x x, x 0, interi. Calcolare la soluzione ottima applicando il metodo dei tagli di Gomory. Risoluzione Per applicare

Dettagli

Il modello duale. Capitolo settimo. Introduzione

Il modello duale. Capitolo settimo. Introduzione Capitolo settimo Il modello duale Introduzione Il modello duale e la teoria della dualità assumono una grande importanza nella teoria della programmazione matematica. In questo testo i modelli primale

Dettagli

Note sull algoritmo di Gauss

Note sull algoritmo di Gauss Note sull algoritmo di Gauss 29 settembre 2009 Generalità Un sistema lineare di m equazioni in n incognite x,..., x n è un espressione del tipo: a x + a 2 x 2 + + a n x n = b a 2 x + a 22 x 2 + + a 2n

Dettagli

Il metodo del simplesso. Il metodo del simplesso p. 1/8

Il metodo del simplesso. Il metodo del simplesso p. 1/8 Il metodo del simplesso Il metodo del simplesso p. 1/8 Ipotesi iniziale Data la base B e la riformulazione rispetto a essa: max γ 0 + n m j=1 γ jx im+j x i1 = β 1 + n m j=1 α 1jx im+j x ik = β k + n m

Dettagli

Esercizi di Programmazione Lineare - Dualità

Esercizi di Programmazione Lineare - Dualità Esercizi di Programmazione Lineare - Dualità Esercizio n1 Dato il seguente problema 3 + 3 2 2 + a scriverne il duale; b risolvere il duale (anche geometricamente indicando cosa da esso si può dedurre sul

Dettagli

Ricerca Operativa. G. Liuzzi. Giovedí 19 Marzo Tableau del Simplesso Esempio Fase I del Simplesso Esempio

Ricerca Operativa. G. Liuzzi. Giovedí 19 Marzo Tableau del Simplesso Esempio Fase I del Simplesso Esempio 1 Giovedí 19 Marzo 2015 1 Istituto di Analisi dei Sistemi ed Informatica IASI - CNR Tableau o Dizionario Qualche richiamo sulla generica iterazione della Fase II: B base ammissibile corrente x SBA corrente:

Dettagli

2. SIMPLESSO. Ricerca Operativa. 2 Esercizi sul simplesso. Politecnico di Torino CeTeM

2. SIMPLESSO. Ricerca Operativa. 2 Esercizi sul simplesso. Politecnico di Torino CeTeM . SIMPLESSO Pagina di Pagina di Esempio (Simplesso standard) Sia dato il seguente PL: Il tableau del simplesso è il seguente:.. min s t z Esiste una soluzione di base ammissibile:,,, z La soluzione non

Dettagli

4.4 Programmazione quadratica

4.4 Programmazione quadratica 4.4 Programmazione quadratica Minimizzare una funzione quadratica soggetta a vincoli lineari: min 1 2 xt Qx + c t x s.v. a t i x b i i D (P) a t i x = b i i U x R n dove Q matrice n n, D e U sono gli insiemi

Dettagli

Esercizi sulla Programmazione Lineare Intera

Esercizi sulla Programmazione Lineare Intera Soluzioni 4.7-4.0 Fondamenti di Ricerca Operativa Prof. E. Amaldi Esercizi sulla Programmazione Lineare Intera 4.7 Algoritmo del Simplesso Duale. Risolvere con l algoritmo del simplesso duale il seguente

Dettagli

Dualitá. Dualitá p. 1/4

Dualitá. Dualitá p. 1/4 Dualitá Dualitá p. 1/4 Dualitá p. 2/4 Dualitá Problema di PL in forma standard max cx Ax = b x 0 Chiamato problema primale. A questo associato un altro problema di PL, detto problema duale: min ub ua c

Dettagli

Sull algoritmo di ascesa duale per il problema della localizzazione di impianti

Sull algoritmo di ascesa duale per il problema della localizzazione di impianti Sull algoritmo di ascesa duale per il problema della localizzazione di impianti A. Agnetis In queste note presentiamo l algoritmo di ascesa duale per la generazione di lower bound di buona qualità per

Dettagli

Possibile applicazione

Possibile applicazione p. 1/4 Assegnamento Siano dati due insiemi A e B entrambi di cardinalità n. Ad ogni coppia (a i,b j ) A B è associato un valore d ij 0 che misura la "incompatibilità" tra a i e b j, anche interpretabile

Dettagli

Tecniche di Decomposizione per Programmazione Lineare Intera (Mista)

Tecniche di Decomposizione per Programmazione Lineare Intera (Mista) Tecniche di Decomposizione per Programmazione Lineare Intera (Mista) Domenico Salvagnin 2011-06-12 1 Introduzione Dato un problema di programmazione lineare intera (mista), non è sempre possibile (o conveniente)

Dettagli

Rango di una matrice e teorema di Rouché-Capelli

Rango di una matrice e teorema di Rouché-Capelli Rango di una matrice e teorema di Rouché-Capelli Sappiamo che a una matrice m n, A, è associata l applicazione lineare L A : R n R m, L A (X) = AX, X R n. Definizione 1. Lo spazio nullo di A, N (A), è

Dettagli

Geometria BIAR Esercizi 2

Geometria BIAR Esercizi 2 Geometria BIAR 0- Esercizi Esercizio. a Si consideri il generico vettore v b R c (a) Si trovi un vettore riga x (x, y, z) tale che x v a (b) Si trovi un vettore riga x (x, y, z) tale che x v kb (c) Si

Dettagli

A.A Fondamenti di Ricerca Operativa. 2. Determinare β affinchè il poliedro descritto dal sistema di disequazioni

A.A Fondamenti di Ricerca Operativa. 2. Determinare β affinchè il poliedro descritto dal sistema di disequazioni A.A. 08-09 Fondamenti di Ricerca Operativa. Si consideri il problema min x + x + 4x 3 3x 4 x + x 3 = 5 x + x 4 = x, x, x 3, x 4 0 Stabilire se il problema ha insieme ammissibile vuoto, oppure è illimitato,

Dettagli

Teoria della Programmazione Lineare. Teoria della Programmazione Lineare p. 1/8

Teoria della Programmazione Lineare. Teoria della Programmazione Lineare p. 1/8 Teoria della Programmazione Lineare Teoria della Programmazione Lineare p. 1/8 I problemi di PL in forma canonica In forma scalare: max n j=1 c jx j n j=1 a ijx j b i x j 0 i = 1,...,m j = 1,...,n Teoria

Dettagli

Geometria BAER I canale Foglio esercizi 2

Geometria BAER I canale Foglio esercizi 2 Geometria BAER I canale Foglio esercizi 2 Esercizio 1. Calcolare il determinante e l inversa (quando esiste) della matrice ( ) cos θ sin θ R θ =, θ [0, 2π] sin θ cos θ Soluzione: Il determinante ( é cos

Dettagli

Università Ca Foscari Venezia

Università Ca Foscari Venezia Università Ca Foscari Venezia Dipartimento di Scienze Ambientali, Informatica e Statistica Giovanni Fasano Brevi FAQ sul Metodo del SIMPLESSO Università Ca Foscari Venezia, Dipartimento di Management,

Dettagli

Istituzioni di Matematiche Modulo A (ST)

Istituzioni di Matematiche Modulo A (ST) Istituzioni di Matematiche Modulo A (ST V II foglio di esercizi ESERCIZIO. Nei seguenti sistemi lineari, discutere l insieme delle soluzioni al variare del parametro t, o dei parametri t e τ, in R. 5 x

Dettagli

Corso di Matematica Applicata A.A

Corso di Matematica Applicata A.A Corso di Matematica Applicata A.A. 2012-2013 Programmazione lineare (II parte) Prof.ssa Bice Cavallo Soluzione di un problema PL Soluzione ottima Variabili slack e surplus A R mxn Ax b s R m, s i 0 : Ax

Dettagli

Il Branch & Bound. Definizione 1. Sia S R n. La famiglia S = {S 1, S 2,..., S k S} tale che S 1 S 2 S k = S viene detta suddivisione di S.

Il Branch & Bound. Definizione 1. Sia S R n. La famiglia S = {S 1, S 2,..., S k S} tale che S 1 S 2 S k = S viene detta suddivisione di S. Il Branch & Bound Il metodo Branch & Bound è una tecnica che permette di risolvere all ottimo un generico problema di Programmazione Lineare Intera. Tale metodo si basa su due concetti cardine: quello

Dettagli

Condizioni di Karush-Kuhn-Tucker e Programmazione Lineare

Condizioni di Karush-Kuhn-Tucker e Programmazione Lineare Condizioni di Karush-Kuhn-Tucker e Programmazione Lineare A. Agnetis 1 Richiami su condizioni di Karush-Kuhn-Tucker e convessità Si consideri il problema di ottimizzazione vincolata: min f(x) (1) x X R

Dettagli

Applicazioni lineari tra spazi euclidei. Cambi di base.

Applicazioni lineari tra spazi euclidei. Cambi di base. pplicazioni lineari tra spazi euclidei. Cambi di base. Esercizio. Data la seguente applicazione lineare f : R R : f(x, y, z) = (x z, x + y, y + z), scrivere la matrice B, rappresentativa di f rispetto

Dettagli

Il metodo del simplesso. Il metodo del simplesso p. 1/127

Il metodo del simplesso. Il metodo del simplesso p. 1/127 Il metodo del simplesso Il metodo del simplesso p. 1/127 I problemi di PL in forma standard I problemi di PL in forma standard hanno la seguente formulazione: max cx a i x = b i x 0 i = 1,...,m o, equivalentemente,

Dettagli

3.6 Metodi basati sui piani di taglio

3.6 Metodi basati sui piani di taglio 3.6 Metodi basati sui piani di taglio Problema generale di Programmazione Lineare Intera (PLI) con A matrice m n e b vettore n 1 razionali min{ c t x : x X = {x Z n + : Ax b} } Sappiamo che esiste una

Dettagli

LEZIONE N.7 INTRODUZIONE AI METODI DI PROGRAMMAZIONE LINEARE, IL METODO DEL SIMPLESSO. 1di 18

LEZIONE N.7 INTRODUZIONE AI METODI DI PROGRAMMAZIONE LINEARE, IL METODO DEL SIMPLESSO. 1di 18 LEZIONE N.7 INTRODUZIONE AI METODI DI PROGRAMMAZIONE LINEARE, IL METODO DEL SIMPLESSO 1di 18 Metodo del Simplesso Il metodo del simplesso dovuto a Dantzing ed a Kantorovich è un algoritmo il cui nome deriva

Dettagli

Geometria BAER I canale Foglio esercizi 2

Geometria BAER I canale Foglio esercizi 2 Geometria BAER I canale Foglio esercizi Esercizio. ( ) Data la matrice, determinare tutte le matrici X Mat( ) tali che AX = 0 e tutte le matrici Y Mat( ) tali che Y 0. ( ) ( ) ( ) x y x + z y + w Soluzione:

Dettagli

Formulazioni. Consideriamo il seguente problema di Knapsack 0-1. max (5x x 2. ) st 3x x 2. < 6 x {0,1} 2

Formulazioni. Consideriamo il seguente problema di Knapsack 0-1. max (5x x 2. ) st 3x x 2. < 6 x {0,1} 2 Formulazioni Consideriamo il seguente problema di Knapsack 0-1 max (5x 1 + 2x 2 ) st 3x 1 + 4x 2 < 6 x {0,1} 2 Insiemi ammissibili F = {(0, 0), (0, 1), (1, 0)} Rappresentiamo sul piano gli insiemi ammissibili.

Dettagli

Esercizio 1. Variabili decisionali:

Esercizio 1. Variabili decisionali: Esercizio 1 Si noti che i costi sono dati per tonnellata, mentre molti vincoli riguardano il numero di navi. Si introducono pertanto DUE tipi di variabili, uno relativo al numero di tonnellate per tipo

Dettagli

AUTOVALORI, AUTOVETTORI, AUTOSPAZI

AUTOVALORI, AUTOVETTORI, AUTOSPAZI AUTOVALORI, AUTOVETTORI, AUTOSPAZI. Esercizi Esercizio. Sia f : R 3 R 3 l endomorfismo definito da f(x, y, z) = (x+y, y +z, x+z). Calcolare gli autovalori ed una base per ogni autospazio di f. Dire se

Dettagli

Appunti di Geometria - 2

Appunti di Geometria - 2 Appunti di Geometria - Samuele Mongodi - s.mongodi@sns.it Cambi di base e applicazioni lineari Richiami Sia V uno spazio vettoriale di dimensione n sul campo K, con base assegnata e,..., e n } (ad esempio

Dettagli

0.1 Condizione sufficiente di diagonalizzabilità

0.1 Condizione sufficiente di diagonalizzabilità 0.1. CONDIZIONE SUFFICIENTE DI DIAGONALIZZABILITÀ 1 0.1 Condizione sufficiente di diagonalizzabilità È naturale porsi il problema di sapere se ogni matrice sia o meno diagonalizzabile. Abbiamo due potenziali

Dettagli

Esercizi sulla Programmazione Lineare. min. cx Ax b x 0

Esercizi sulla Programmazione Lineare. min. cx Ax b x 0 Soluzioni 4.-4. Fondamenti di Ricerca Operativa Prof. E. Amaldi Esercizi sulla Programmazione Lineare 4. Risoluzione grafica e forma standard. Si consideri il problema min x cx Ax b x dove x = (x, x )

Dettagli

Compito di MD 13 febbraio 2014

Compito di MD 13 febbraio 2014 Compito di MD 13 febbraio 2014 IMPORTANTE: Non si possono consultare libri e appunti. Non si possono usare calcolatrici, computer o altri dispositivi elettronici. Non si può scrivere con il lapis. Motivare

Dettagli

LA FASE II DEL METODO DEL SIMPLESSO Convergenza del metodo del simplesso

LA FASE II DEL METODO DEL SIMPLESSO Convergenza del metodo del simplesso LA FASE II DEL METODO DEL SIMPLESSO 193 7.4.6 Convergenza del metodo del simplesso Per concludere l analisi della Fase II del metodo del simplesso, vogliamo ora mostrare che, sotto opportune ipotesi, il

Dettagli

1 Esercizi 13. 3x + λy + 2z = 0 (1 λ)x + 5y + 3z = 0 3x + 2y + z = 0

1 Esercizi 13. 3x + λy + 2z = 0 (1 λ)x + 5y + 3z = 0 3x + 2y + z = 0 1 Esercizi 13 1. Discutere le soluzioni del sistema seguente al variare del parametro λ R. 3x + λy + 2z 0 (1 λ)x + 5y + 3z 0 3x + 2y + z 0 Soluzione. Si tratta di un SLO 3 3 e sappiamo che tale sistema

Dettagli

COMPITO DI RICERCA OPERATIVA. max x 1 + 2x 2 + x 3 x 1 x 2 + x 3 = 1 2x 1 + 3x 2 + x 4 = 2

COMPITO DI RICERCA OPERATIVA. max x 1 + 2x 2 + x 3 x 1 x 2 + x 3 = 1 2x 1 + 3x 2 + x 4 = 2 COMPITO DI RICERCA OPERATIVA ESERCIZIO. (9 punti) Sia dato il seguente problema di PL: max x + 2x 2 + x 3 x x 2 + x 3 = 2x + 3x 2 + x 4 = 2 x, x 2, x 3, x 4 0 Si determini il duale del problema ( punto).

Dettagli

4.3 Esempio metodo del simplesso

4.3 Esempio metodo del simplesso 4.3 Esempio metodo del simplesso (P ) min -5x 4x 2 3x 3 s.v. 2x + 3x 2 + x 3 5 4x + x 2 + 2x 3 3x + 4x 2 + 2x 3 8 x, x 2, x 3 Per mettere il problema in forma standard si introducono le variabili di scarto

Dettagli

Trasformazione di Problemi Non Lineari

Trasformazione di Problemi Non Lineari Capitolo 2 Trasformazione di Problemi Non Lineari 2.1 Trasformazione in problema di PL In questa sezione, verranno presentati tre classi di problemi di programmazione non lineare che, attraverso l uso

Dettagli

Appunti su Indipendenza Lineare di Vettori

Appunti su Indipendenza Lineare di Vettori Appunti su Indipendenza Lineare di Vettori Claudia Fassino a.a. Queste dispense, relative a una parte del corso di Matematica Computazionale (Laurea in Informatica), rappresentano solo un aiuto per lo

Dettagli

Corso di Laurea in Fisica. Geometria 1. a.a Gruppo B. Prof. P. Piazza Soluzioni compito a casa del 17/11/06 B =

Corso di Laurea in Fisica. Geometria 1. a.a Gruppo B. Prof. P. Piazza Soluzioni compito a casa del 17/11/06 B = Corso di Laurea in Fisica. Geometria. a.a. 26-7. Gruppo B. Prof. P. Piazza Soluzioni compito a casa del 7//6 Soluzione esercizio. Sia B {e, e 2 } e sia B {v, v 2 }. La matrice B del cambiamento di base

Dettagli

SI RICORDA CHE LE LEZIONI DI MERCOLEDÌ 5 E 12 APRILE SI TERRANNO IN AULA D3 DALLE 9 ALLE 11

SI RICORDA CHE LE LEZIONI DI MERCOLEDÌ 5 E 12 APRILE SI TERRANNO IN AULA D3 DALLE 9 ALLE 11 SI RICORDA CHE LE LEZIONI DI MERCOLEDÌ 5 E 12 APRILE SI TERRANNO IN AULA D3 DALLE 9 ALLE 11 MARTEDÌ 11 APRILE LA LEZIONE SI TERRÀ IN AULA SEMINARI PIANO C 1di 26 LEZIONE N.7 INTRODUZIONE AI METODI DI PROGRAMMAZIONE

Dettagli

Metodi e Modelli per l Ottimizzazione Combinatoria Cover inequalities

Metodi e Modelli per l Ottimizzazione Combinatoria Cover inequalities Metodi e Modelli per l Ottimizzazione Combinatoria Cover inequalities L. De Giovanni M. Di Summa In questa lezione introdurremo una classe di disuguaglianze, dette cover inequalities, che permettono di

Dettagli

Programmazione Matematica: VII La scomposizione di Dantzig Wolfe

Programmazione Matematica: VII La scomposizione di Dantzig Wolfe Programmazione Matematica: VII La scomposizione di Dantzig Wolfe Daniele Vigo D.E.I.S. Università di Bologna dvigo@deis.unibo.it rev..0 Maggio 2004 Scomposizione di problemi Accade spesso che un problema

Dettagli

I. Foglio di esercizi su vettori linearmente dipendenti e linearmente indipendenti. , v 2 = α v 1 + β v 2 + γ v 3. α v 1 + β v 2 + γ v 3 = 0. + γ.

I. Foglio di esercizi su vettori linearmente dipendenti e linearmente indipendenti. , v 2 = α v 1 + β v 2 + γ v 3. α v 1 + β v 2 + γ v 3 = 0. + γ. ESERCIZI SVOLTI DI ALGEBRA LINEARE (Sono svolti alcune degli esercizi proposti nei fogli di esercizi su vettori linearmente dipendenti e vettori linearmente indipendenti e su sistemi lineari ) I. Foglio

Dettagli

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n NOTE DI ALGEBRA LINEARE 2- MM 9 NOVEMBRE 2 Combinazioni lineari e generatori Sia K un campo e V uno spazio vettoriale su K Siano v,, v n vettori in V Definizione Un vettore v V si dice combinazione lineare

Dettagli

LeLing12: Ancora sui determinanti.

LeLing12: Ancora sui determinanti. LeLing2: Ancora sui determinanti. Ārgomenti svolti: Sviluppi di Laplace. Prodotto vettoriale e generalizzazioni. Rango e determinante: i minori. Il polinomio caratteristico. Ēsercizi consigliati: Geoling

Dettagli

LEZIONE 12. Y = f(x) = f( x j,1 f(e j ) = x j,1 A j = AX = µ A (X),

LEZIONE 12. Y = f(x) = f( x j,1 f(e j ) = x j,1 A j = AX = µ A (X), LEZIONE 1 1.1. Matrice di un applicazione lineare. Verifichiamo ora che ogni applicazione lineare f: R n R m è della forma µ A per un unica A R m,n. Definizione 1.1.1. Per ogni j 1,..., n indichiamo con

Dettagli

Corso di Laurea in Fisica. Geometria. a.a Canale 3 Prof. P. Piazza Magiche notazioni

Corso di Laurea in Fisica. Geometria. a.a Canale 3 Prof. P. Piazza Magiche notazioni Corso di Laurea in Fisica. Geometria. a.a. 23-4. Canale 3 Prof. P. Piazza Magiche notazioni Siano V e W due spazi vettoriali e sia T : V W un applicazione lineare. Fissiamo una base B per V ed una base

Dettagli

Introduzione al Column Generation Caso di Studio: il Bin Packing Problem

Introduzione al Column Generation Caso di Studio: il Bin Packing Problem Introduzione al Column Generation Caso di Studio: il Bin Packing Problem November 15, 2014 1 / 26 Introduzione Il column generation è una metodologia che può essere usata per risolvere problemi di ottimizzazione

Dettagli

Esame di Ricerca Operativa del 20/02/18

Esame di Ricerca Operativa del 20/02/18 Esame di Ricerca Operativa del //8 (Cognome) (Nome) (Numero di Matricola) Esercizio. (a) Risolvere mediante l algoritmo del simplesso duale il seguente problema di programmazione lineare: min x x +x x

Dettagli

3.3 Problemi di PLI facili

3.3 Problemi di PLI facili 3.3 Problemi di PLI facili Consideriamo un generico problema di PLI espresso in forma standard min{c t x : Ax = b, x Z n +} (1) dove A Z m n con n m, e b Z m. Supponiamo che A sia di rango pieno. Sia P

Dettagli

Domini di funzioni di due variabili. Determinare i domini delle seguenti funzioni di due variabili (le soluzioni sono alla fine del fascicolo):

Domini di funzioni di due variabili. Determinare i domini delle seguenti funzioni di due variabili (le soluzioni sono alla fine del fascicolo): UNIVERSITA DEGLI STUDI DI SALERNO C.d.L. in INGEGNERIA GESTIONALE Esercizi di Ricerca Operativa Prof. Saverio Salerno Corso tenuto nell anno solare 2009 I seguenti esercizi sono da ritenersi di preparazione

Dettagli

L ALGORITMO DEL SIMPLESSO REVISIONATO

L ALGORITMO DEL SIMPLESSO REVISIONATO L ALGORITMO DEL SIMPLESSO REVISIONATO L'algoritmo del simplesso revisionato costituisce una diversa implementazione dell algoritmo standard tesa a ridurre, sotto certe condizioni, il tempo di calcolo e

Dettagli

Teoria della Dualità: I Introduzione

Teoria della Dualità: I Introduzione Teoria della Dualità: I Introduzione Daniele Vigo D.E.I.S. Università di Bologna dvigo@deis.unibo.it rev. 1.2 Maggio 2004 Dualità Per ogni problema PL, detto primale, ne esiste un altro, detto duale, costruito

Dettagli

Corso di Matematica Applicata A.A

Corso di Matematica Applicata A.A Corso di Matematica Applicata A.A. 2012-2013 Programmazione lineare (III parte) Prof.ssa Bice Cavallo Iterazioni del simplesso Basi teoriche dell algoritmo Operazione di pivot Sottomatrice di base B=I

Dettagli

Corso di Calcolo Numerico

Corso di Calcolo Numerico Corso di Laurea in Ingegneria Gestionale Sede di Fermo Corso di 9 - EQUAZIONI DIFFERENZIALI ORDINARIE valori iniziali Valori iniziali Ci occuperemo della soluzione numerica di equazioni del prim ordine

Dettagli

r 2 r 2 2r 1 r 4 r 4 r 1

r 2 r 2 2r 1 r 4 r 4 r 1 SPAZI R n 1. Esercizi Esercizio 1. Stabilire quali dei seguenti sottoinsiemi sono sottospazi: V 1 = {(x, y, z) R 3 /x = y = z} V = {(x, y, z) R 3 /x = 4} V 3 = {(x, y, z) R 3 /z = x } V 4 = {(x, y, z)

Dettagli

Esempi di Problemi di Programmazione Lineare

Esempi di Problemi di Programmazione Lineare Esempi di Problemi di Programmazione Lineare Esempio 1: Soluzione con l algoritmo del simplesso dell esempio in forma standard ma = 2 + 0 1 2 + + = 5 1 2 3 + + = 0 1 2 4 6 + 2 + = 21 1 2 5 1 2 3 4 5 Il

Dettagli

Algebra Lineare. a.a Gruppo A-H. Prof. P. Piazza Soluzioni del compito pomeridiano del 6/12/2004

Algebra Lineare. a.a Gruppo A-H. Prof. P. Piazza Soluzioni del compito pomeridiano del 6/12/2004 Algebra Lineare. a.a. 004-05. Gruppo A-H. Prof. P. Piazza Soluzioni del compito pomeridiano del 6/1/004 Esercizio 1. Siano V e W due spazi vettoriali e sia F : V W un isomorfismo (quindi F è lineare e

Dettagli

Sistemi lineari - Parte Seconda - Esercizi

Sistemi lineari - Parte Seconda - Esercizi Sistemi lineari - Parte Seconda - Esercizi Terminologia Operazioni elementari sulle righe. Equivalenza per righe. Riduzione a scala per righe. Rango di una matrice. Forma canonica per righe. Eliminazione

Dettagli

LEZIONE 3. a + b + 2c + e = 1 b + d + g = 0 3b + f + 3g = 2. a b c d e f g

LEZIONE 3. a + b + 2c + e = 1 b + d + g = 0 3b + f + 3g = 2. a b c d e f g LEZIONE 3 3.. Matrici fortemente ridotte per righe. Nella precedente lezione abbiamo introdotto la nozione di soluzione di un sistema di equazioni lineari. In questa lezione ci poniamo il problema di descrivere

Dettagli