Teoria della Programmazione Lineare. Teoria della Programmazione Lineare p. 1/8
|
|
- Teresa Contini
- 7 anni fa
- Visualizzazioni
Transcript
1 Teoria della Programmazione Lineare Teoria della Programmazione Lineare p. 1/8
2 I problemi di PL in forma canonica In forma scalare: max n j=1 c jx j n j=1 a ijx j b i x j 0 i = 1,...,m j = 1,...,n Teoria della Programmazione Lineare p. 2/8
3 Prodotto scalare tra vettori Vettore di dimensione n p = (p 1 p n ) Dato un altro vettore di dimensione n q = (q 1 q n ) Il prodotto scalare tra i due vettori è un valore scalare: pq = n j=1 p j q j Esempio: p = (2 3 6) q = (3 8 7) pq = = 72 Teoria della Programmazione Lineare p. 3/8
4 Proprietà Siano p,q 1,q 2 R n e α,β R. Allora: p(αq 1 + βq 2 ) = α(pq 1 ) + β(pq 2 ) Esempio: p = (2 3 6) q 1 = (1 2 5) q 2 = (6 0 3) α = 2 β = 3 p(αq 1 + βq 2 ) = = 166 α(pq 1 ) + β(pq 2 ) = = 166 Teoria della Programmazione Lineare p. 4/8
5 Generalizzazione della proprietà Dati i vettori p,q 1,q 2,...,q t R n e gli scalari α 1,α 2,...,α t R, si ha che p[α 1 q 1 + α 2 q α t q t ] = p [ t α i q i ] = t α i (pq i ) i=1 i=1 Teoria della Programmazione Lineare p. 5/8
6 Prodotto matrice-vettore Data una matrice A di ordine m n (m righe e n colonne) a a 1n.. a m1... a mn ed un vettore p di dimensione n p = (p 1 p n ) Il prodotto matrice-vettore è un vettore di dimensione m la cui componente i è il prodotto scalare tra la i-esima riga di A e il vettore p: n j=1 a ij p j Teoria della Programmazione Lineare p. 6/8
7 Prodotto vettore-matrice Data una matrice A di ordine m n (m righe e n colonne) a a 1n.. a m1... a mn ed un vettore q di dimensione m q = (q 1 q m ) Il prodotto vettore-matrice è un vettore di dimensione n la cui componente j è il prodotto scalare tra la j-esima colonna di A e il vettore q: m a ij q i Teoria della Programmazione Lineare p. 7/8 i=1
8 Esempi A = [ ] p = (3 8 7) q = (4 5) Ap = ( ) = (90 94) qa = ( ) = ( ) Teoria della Programmazione Lineare p. 8/8
9 PL in forma canonica Introduciamo i seguenti vettori: c R n : vettore di dimensione n con componenti c j, j = 1,...,n, ovvero: c = (c 1 c 2 c n ); x R n : vettore di variabili di dimensione n con componenti x j, j = 1,...,n, ovvero: x = (x 1 x 2 x n ); a i R n, i = 1,...,m: m vettori di dimensione n con componenti a ij, j = 1,...,n, ovvero: a i = (a i1 a i2 a in ). Teoria della Programmazione Lineare p. 9/8
10 PL in forma canonica Osservando che e cx = a i x = n c j x j j=1 n a ij x j j=1 abbiamo la seguente rappresentazione vettoriale per un problema di PL in forma canonica: max cx a i x b i x 0 i = 1,...,m Teoria della Programmazione Lineare p. 10/8
11 PL in forma canonica Si consideri la matrice A R m n che ha tante righe quanti sono i vincoli del problema (m) e la cui i-esima riga è il vettore a i e del vettore b = (b 1 b m ) R m di dimensione m con componenti b i, i = 1,...,m. Osservando che Ax = (a 1 x... a m x) possiamo scrivere la rappresentazione matriciale del problema di PL in forma canonica: max cx Ax b x 0 Teoria della Programmazione Lineare p. 11/8
12 Esempio degli aiuti umanitari Il vettore c = (14 5 4) Il vettore di variabili x = (x 1 x 2 x 3 ) I vettori a i, i = 1, 2, 3 a 1 = ( ) a 2 = ( ) a 3 = ( ) Il vettore b = ( ) La matrice A Teoria della Programmazione Lineare p. 12/8
13 PL canonici PL generici Osservazione Ogni problema di PL in forma generica può essere trasformato in uno equivalente in forma canonica. Trasformazione da min a max min cx = max cx Trasformazione vincolo in vincolo a i x b i a i x b i Trasformazione vincolo = in due vincoli a i x = b i a i x b i, a i x b i a i x b i, a i x b i Teoria della Programmazione Lineare p. 13/8
14 PL canonici PL generici Sostituzione variabile 0 con variabile 0 Data x i 0, effettuare il cambio di variabile x i = x i, dove x i 0 Sostituzione variabile libera in segno con due variabili 0 Data x i libera in segno, effettuare il cambio di variabile x i = x i x i, dove x i,x i 0 Teoria della Programmazione Lineare p. 14/8
15 Un esempio Si trasformi il seguente problema di PL in forma generica in un problema di PL in forma canonica min x 1 + x 2 + x 3 x 1 + 2x 2 x 3 3 x 1 + 4x 2 + 5x 3 = 5 x 1 2x 2 + x 3 3 x 1 0 x 2 0 x 3 libera in segno Teoria della Programmazione Lineare p. 15/8
16 Insiemi convessi Un insieme C R n si dice convesso se x 1,x 2 C λ [0, 1] : λx 1 + (1 λ)x 2 C, ovvero se dati due punti qualsiasi in C, il segmento che li congiunge è anch esso completamente contenuto in C. Teoria della Programmazione Lineare p. 16/8
17 Insiemi limitati e chiusi Un insieme C si dice limitato se esiste una sfera di raggio finito R che lo contiene. Un insieme C si dice chiuso se contiene la sua frontiera. Teoria della Programmazione Lineare p. 17/8
18 Semispazi e iperpiani Si definisce semispazio in R n l insieme di punti che soddisfa una disequazione lineare in R n : n j=1 w j x j v (in forma vettoriale: wx v). Si definisce iperpiano in R n l insieme di punti che soddisfa un equazione lineare in R n : n j=1 w j x j = v (in forma vettoriale: wx = v). Teoria della Programmazione Lineare p. 18/8
19 Poliedri e politopi Si definisce poliedro l intersezione di un numero finito di semispazi e/o iperpiani. Se il poliedro è limitato esso viene chiamato politopo. Teoria della Programmazione Lineare p. 19/8
20 La regione ammissibile S a La regione ammissibile S a di un problema di PL in forma canonica è un poliedro. S a = {x R n : a i x b i, i = 1,...,m, x 0}. Semispazi e iperpiani sono insiemi chiusi L intersezione di un numero finito di insiemi chiusi è un insieme chiuso I poliedri (e quindi S a ) sono insiemi chiusi Teoria della Programmazione Lineare p. 20/8
21 Convessità Siano x,y S a, ovvero a i x b i i = 1,...,m x 0, e a i y b i i = 1,...,m y 0. Per ogni λ (0, 1) e per ogni i {1,...,m} avremo: a i [λx + (1 λ)y] = = λ }{{} >0 a i x +(1 λ) }{{}}{{} b i >0 a i y }{{} b i λb i + (1 λ)b i = b i. Teoria della Programmazione Lineare p. 21/8
22 Continua Inoltre: Quindi: λ }{{} >0 }{{} x +(1 λ) }{{} 0 >0 y }{{} 0 λx + (1 λ)y S a. 0. La regione ammissibile S a è un insieme convesso. Teoria della Programmazione Lineare p. 22/8
23 Limitatezza e illimitatezza La regione ammissibile S a può essere: = max x 1 + x 2 x 1 1 un poliedro limitato (politopo) x 1 + x 2 1 x 1,x 2 0 max x 1 + x 2 x 1 + x 2 1 x 1,x 2 0 Teoria della Programmazione Lineare p. 23/8
24 Continua un poliedro illimitato max x 1 + x 2 x 1 x 2 0 x 1,x 2 0 Teoria della Programmazione Lineare p. 24/8
25 Ricapitolando la regione ammissibile S a di un problema di PL è un poliedro e come tale è un insieme chiuso e convesso. Inoltre, può essere un insieme vuoto, un insieme limitato (politopo) oppure un insieme illimitato. Teoria della Programmazione Lineare p. 25/8
26 Vertici di S a Si definisce vertice di S a un punto x S a tale che non esistono due punti distinti x 1,x 2 S a, x 1 x 2, tali che x = 1 2 x x 2. ovvero x è il punto medio del segmento che congiunge x 1 e x 2. Teoria della Programmazione Lineare p. 26/8
27 Alcuni risultati Teorema Dato un problema di PL in forma canonica, se S a, allora S a contiene almeno un vertice. Osservazione S a ha sempre un numero finito di vertici. Teoria della Programmazione Lineare p. 27/8
28 Raggi Nel caso S a sia un poliedro illimitato possiamo anche introdurre le definizioni di raggio e raggio estremo. Si definisce raggio di S a un vettore r tale che x 0 S a λ 0 : x 0 + λr S a, cioè la semiretta con origine in x 0 e direzione r è completamente contenuta in S a per qualsiasi punto x 0 S a. Teoria della Programmazione Lineare p. 28/8
29 Raggi estremi Un raggio r di S a si definisce raggio estremo di S a se non esistono altri due raggi r 1 e r 2 di S a con direzioni distinte, ovvero r 1 µr 2 µ R, tali che r = 1 2 r r 2. Osservazione S a ha sempre un numero finito di raggi estremi. Teoria della Programmazione Lineare p. 29/8
30 Teorema di rappresentazione di S a Teorema Sia dato un problema di PL in forma canonica con S a. Siano v 1,...,v k i vertici di S a e, nel caso in cui S a sia un poliedro illimitato, siano r 1,...,r h i raggi estremi di S a. Allora x S a se e solo se λ 1,...,λ k 0, k i=1 λ i = 1, µ 1,...,µ h 0 tali che x = k λ i v i + h µ j r j. i=1 j=1 Teoria della Programmazione Lineare p. 30/8
31 Ovvero i punti in S a sono tutti e soli i punti ottenibili come somma di una combinazione convessa dei vertici di S a una combinazione lineare con coefficienti non negativi dei raggi estremi di S a Quindi un numero finito di oggetti (vertici e raggi estremi) mi permettono di rappresentare tutto l insieme S a. Teoria della Programmazione Lineare p. 31/8
32 L insieme delle soluzioni ottime S ott Insieme soluzioni ottime S ott = {x S a : cx cx x S a }, S ott S a, quindi S a = S ott =. Teoria della Programmazione Lineare p. 32/8
33 Una, nessuna, infinite Osservazione Se S ott è un insieme finito e non vuoto, S ott contiene un solo punto. Dimostrazione Per assurdo sia S ott un insieme finito e contenga più di un punto. Siano x 1,x 2 S ott, x 1 x 2, due punti distinti di S ott. Teoria della Programmazione Lineare p. 33/8
34 Continua Per l ottimalità di x 1 e x 2 si deve avere cx 1 = cx 2. Per la convessità di S a e x 1,x 2 S a : λx 1 + (1 λ)x 2 S a λ (0, 1), Per la linearità della funzione obiettivo λ (0, 1): c[λx 1 +(1 λ)x 2 ] = λcx 1 +(1 λ)cx 2 = λcx 1 +(1 λ)cx 1 = cx 1. Quindi: λx 1 + (1 λ)x 2 S ott λ (0, 1) cioè tutto il segmento che congiunge x 1 e x 2 è contenuto in S ott, il che contraddice la finitezza dell insieme S ott. Teoria della Programmazione Lineare p. 34/8
35 Le diverse forme possibili di S ott Caso 1 S a = S ott =. Caso 2 S a e politopo. Politopo è insieme chiuso e limitato, funzione obiettivo è lineare e quindi continua (Teorema di Weierstrass) S ott. Sono possibili due sottocasi. Caso 2.1 S ott è costituito da un solo punto. max 2x 1 + x 2 x 1 + x 2 1 x 1,x 2 0 Teoria della Programmazione Lineare p. 35/8
36 Continua Caso 2.2 S ott è costituito da un insieme infinito e limitato di punti. max x 1 + x 2 x 1 + x 2 1 x 1,x 2 0 Teoria della Programmazione Lineare p. 36/8
37 Continua Caso 3 S a e poliedro illimitato. Sono possibili quattro sottocasi. Caso 3.1 S ott = in quanto l obiettivo è illimitato, ovvero esiste una sequenza infinita di punti {x k } di S a lungo cui la funzione obiettivo cresce a +. Formalmente: {x k } : x k S a k e cx k + k +. max x 1 + x 2 x 1 + x 2 0 x 1 x 2 1 x 2 1 x 1,x 2 0 Teoria della Programmazione Lineare p. 37/8
38 Continua Caso 3.2 S ott è costituito da un solo punto. max x 1 x 1 + x 2 0 x 1 x 2 1 x 2 1 x 1,x 2 0 Teoria della Programmazione Lineare p. 38/8
39 Continua Caso 3.3 S ott è costituito da un insieme infinito e limitato di punti. max x 2 x 1 + x 2 0 x 1 x 2 1 x 2 1 x 1,x 2 0 Teoria della Programmazione Lineare p. 39/8
40 Continua Caso 3.4 S ott è costituito da un insieme infinito e illimitato di punti. max x 1 x 2 x 1 + x 2 0 x 1 x 2 1 x 2 1 x 1,x 2 0 Teoria della Programmazione Lineare p. 40/8
41 Un lemma Lemma Dato un problema di PL in forma canonica, se S ott, allora per ogni raggio estremo r di S a si ha: cr 0. Teoria della Programmazione Lineare p. 41/8
42 Dimostrazione Per assurdo supponiamo esista un raggio estremo r tale che cr > 0 S ott S a. Sia x 0 S a. Per definizione di raggio avremo che λ 0 : x 0 + λr S a. Valore funzione obiettivo in punti x 0 + λr: c(x 0 + λr) = cx 0 + λ cr }{{} >0 }{{} + λ + Allora S ott = in quanto l obiettivo è illimitato sulla regione ammissibile, il che contraddice S ott. Teoria della Programmazione Lineare p. 42/8
43 Teorema fondamentale della PL Teorema Dato un problema di PL in forma canonica, se S ott, allora S ott contiene almeno un vertice di S a. Teoria della Programmazione Lineare p. 43/8
44 Dimostrazione Siano v 1,...,v k i vertici di S a e, nel caso in cui S a sia un poliedro illimitato, indichiamo con r 1,...,r h i raggi estremi di S a. Se S ott, sia x S ott. Per assurdo supponiamo che v 1,...,v k S ott da cui: cv i < cx i = 1,...,k Teoria della Programmazione Lineare p. 44/8
45 Continua Per il teorema di rappresentazione di S a, x S a implica che λ 1,...,λ k 0, k i=1 λ i = 1, µ 1,...,µ h 0 tali che Quindi: x = cx = c k h λ iv i + µ jr j. i=1 j=1 k h λ iv i + µ jr j i=1 j=1 Teoria della Programmazione Lineare p. 45/8
46 Continua Per la linearità della funzione obiettivo cx = k λ i(cv i ) + h µ j(cr j ). i=1 j=1 Dal lemma precedente: cr j 0 j = 1,...,h. Teoria della Programmazione Lineare p. 46/8
47 Continua Quindi: da cui: cx = k λ i(cv i ) + i=1 cx h j=1 µ j }{{} 0 k λ i(cv i ). i=1 (cr j ). }{{} 0 Teoria della Programmazione Lineare p. 47/8
48 Continua Da cv i < cx, i segue che: cx k i=1 λ i (cv i ) < }{{} <cx k i=1 λ i(cx ). NB: lo strettamente minore vale perchè almeno uno dei λ i è strettamente positivo in quanto la loro somma deve essere pari a 1. Quindi: cx < (cx ) k λ i = cx. i=1 il che è assurdo. Teoria della Programmazione Lineare p. 48/8
49 Un commento Il teorema fondamentale della PL è alla base della procedura di risoluzione che descriveremo, l algoritmo del simplesso. Infatti, tale algoritmo ricerca la soluzione ottima cercando di spostarsi ad ogni iterazione in modo intelligente da un vertice all altro di S a. Per modo intelligente si intende che l algoritmo tenta di spostarsi ad una data iterazione da un vertice a uno con valore della funzione obiettivo maggiore. Teoria della Programmazione Lineare p. 49/8
50 I problemi di PL in forma standard I problemi di PL in forma standard hanno la seguente formulazione: max cx a i x = b i x 0 i = 1,...,m o, equivalentemente, in forma matriciale: max cx Ax = b x 0 Teoria della Programmazione Lineare p. 50/8
51 Un osservazione Osservazione Ogni problema di PL in forma canonica può essere trasformato in uno equivalente in forma standard. Teoria della Programmazione Lineare p. 51/8
52 Dimostrazione Problema di PL in forma canonica max cx a i x b i x 0 i = 1,...,m a i x b i a i x + y i = b i, y i 0. Quindi, il problema di PL in forma canonica è equivalente al seguente: max cx a i x + y i = b i x 0 y i 0 i = 1,...,m i = 1,...,m che è in forma standard. Teoria della Programmazione Lineare p. 52/8
53 Continua Ogni problema di PL può essere ricondotto ad uno equivalente in forma canonica. Ogni problema in forma canonica può essere ricondotto ad uno equivalente in forma standard. Quindi: ogni problema di PL può essere ricondotto ad uno equivalente in forma standard. NB: nella pratica si passa direttamente da un problema di PL in forma generica ad uno equivalente in forma standard, senza passare necessariamente attraverso un problema in forma canonica. Teoria della Programmazione Lineare p. 53/8
54 Un esempio Si trasformi il seguente problema di PL in forma generica in un problema di PL in forma standard min x 1 + x 2 + x 3 x 1 + 2x 2 x 3 3 x 1 + 4x 2 + 5x 3 = 5 x 1 2x 2 + x 3 3 x 1 0 x 2 0 x 3 libera in segno Teoria della Programmazione Lineare p. 54/8
55 Ipotesi aggiuntiva Si richiede che la matrice dei vincoli A R m n abbia rango (= numero di righe linearmente indipendenti = numero di colonne linearmente indipendenti) pari a m, il numero delle sue righe, il che equivale a richiedere che: non ci sono righe di A ottenibili come combinazioni lineari di altre righe di A; esistono m colonne della matrice A che formano una matrice quadrata invertibile. NB: Si può dimostrare che anche questa non è una condizione restrittiva e che ci si può sempre ricondurre ad essa. Teoria della Programmazione Lineare p. 55/8
56 Esempi A 1 = Rango di A 1 < m = 3 A 2 = [ ] Rango di A 2 = m = 2 Teoria della Programmazione Lineare p. 56/8
57 Base di un problema di PL Si definisce base di un problema di PL in forma standard un sottinsieme: B = {x i1,...,x im } di m delle n variabili del problema di PL con la proprietà che la matrice A B R m m ottenuta considerando le sole colonne di A relative alle variabili x ik, k = 1,...,m, sia invertibile. Le variabili dell insieme B verranno dette variabili in base, quelle al di fuori di B verranno raggruppate nell insieme: N = {x im+1,...,x in } e verranno dette variabili fuori base. Teoria della Programmazione Lineare p. 57/8
58 Un esempio Dato max 3x 1 + 4x 2 + 2x 3 + 2x 4 + x 5 x 1 + 2x 2 + 2x 3 + x 4 x 5 = 2 x 1 + 2x 2 + x 3 + 4x 4 2x 5 = 2 x 1,x 2,x 3,x 4,x 5 0 Matrice dei vincoli A = [ ] Teoria della Programmazione Lineare p. 58/8
59 Continua B 1 = {x 1,x 2 } non è una base. Infatti [ ] 1 2 A B1 = non è invertibile 1 2 Invece, B 2 = {x 1,x 3 } è una base in quanto: [ ] 1 2 A B2 = è invertibile 1 1 Allo stesso modo si verifichi che B 3 = {x 3,x 4 } e B 4 = {x 4,x 5 } sono basi. Teoria della Programmazione Lineare p. 59/8
60 Riformulazione rispetto alla base B Data una base B, indichiamo con: x B R m il vettore delle variabili in base x N R n m il vettore delle variabili fuori base c B R m il vettore dei costi relativi alle variabili in base c N R n m il vettore dei costi relativi alle variabili fuori base A N R m (n m) la matrice ottenuta da A considerando le sole colonne relative alle variabili fuori base. Teoria della Programmazione Lineare p. 60/8
61 Nell esempio Con la base B = {x 1,x 3 } abbiamo: x B = (x 1 x 3 ) x N = (x 2 x 4 x 5 ) c B = (3 2) c N = (4 2 1) A N = [ ] Teoria della Programmazione Lineare p. 61/8
62 Riscrittura della riformulazione Possiamo ora riscrivere il problema di PL in forma standard nella seguente forma equivalente: max c B x B + c N x N A B x B + A N x N = b x B,x N 0 e quindi anche in questo modo: max c B x B + c N x N A B x B = b A N x N x B,x N 0 Teoria della Programmazione Lineare p. 62/8
63 Nell esempio max c B x B {}}{ 3x 1 + 2x 3 + c N x N {}}{ 4x 2 + 2x 4 + x 5 A B x B {}}{ x 1 + 2x 3 + A N x N {}}{ 2x 2 + x 4 x 5 = 2 x 1 + x 3 + 2x 2 + 4x 4 2x 5 = 2 x 1,x }{{} 3,x 2,x 4,x 5 0 }{{} x B x N Teoria della Programmazione Lineare p. 63/8
64 E quindi... max c B x B {}}{ 3x 1 + 2x 3 + A B x B {}}{ x 1 + 2x 3 = c N x N {}}{ 4x 2 + 2x 4 + x 5 b A N x N {}}{ 2 2x 2 x 4 + x 5 x 1 + x 3 = 2 2x 2 4x 4 + 2x 5 x 1,x }{{} 3,x 2,x 4,x 5 0 }{{} x B x N Teoria della Programmazione Lineare p. 64/8
65 Continua Moltiplichiamo ora i vincoli di uguaglianza per A 1 B : max c B x B + c N x N A 1 B A Bx B = A 1 B b A 1 B A Nx N x B,x N 0 e quindi da A 1 B A Bx B = Ix B = x B max c B x B + c N x N x B = A 1 B b A 1 B A Nx N x B,x N 0 Questo equivale a risolvere il sistema dato dai vincoli di uguaglianza considerando la variabili in base come incognite del sistema e quelle fuori base come parametri. Teoria della Programmazione Lineare p. 65/8
66 Nell esempio max 3x 1 + 2x 3 + 4x 2 + 2x 4 + x 5 x 1 = 2 2x 2 7x 4 + 3x 5 x 3 = 0 + 3x 4 x 5 x 1,x 3,x 2,x 4,x 5 0 Teoria della Programmazione Lineare p. 66/8
67 Riformulazione rispetto alla base B Infine, sostituendo x B nell obiettivo: da cui: c B x B + c N x N = c B ( A 1 B b A 1 B A Nx N ) + cn x N max c B A 1 B b + (c N c B A 1 B A N)x N x B = A 1 B b A 1 B A Nx N x B,x N 0 Questa riformulazione viene detta riformulazione del problema di PL rispetto alla base B. NB: tale riformulazione è del tutto equivalente al problema originario di PL. Teoria della Programmazione Lineare p. 67/8
68 Nell esempio Riformulazione rispetto alla base B = {x 1,x 3 }: max 6 2x 2 13x 4 + 8x 5 x 1 = 2 2x 2 7x 4 + 3x 5 x 3 = 0 + 3x 4 x 5 x 1,x 3,x 2,x 4,x 5 0 Teoria della Programmazione Lineare p. 68/8
69 Soluzioni di base Si definisce soluzione di base associata alla base B, la seguente soluzione del sistema di vincoli di uguaglianza ottenuta ponendo x N = 0: Nell esempio: x B = A 1 B b x N = 0. x 1 = 2 x 3 = 0 x 2 = x 4 = x 5 = 0 Teoria della Programmazione Lineare p. 69/8
70 Ammissibilità e non degenerazione Se A 1 B b 0 la soluzione di base si dice ammissibile. Questo vuol dire che appartiene alla regione ammissibile del problema di PL in quanto, oltre a soddisfare i vincoli di uguaglianza del problema, soddisfa anche quelli di non negatività delle variabili. Se inoltre si ha A 1 B b > 0 si parla di soluzione di base non degenere, altrimenti si parla di soluzione di base degenere. Teoria della Programmazione Lineare p. 70/8
71 Nell esempio B 2 = {x 1,x 3 } soluzione di base ammissibile e degenere B 3 = {x 3,x 4 }: la soluzione di base è x 3 = 6/7 x 4 = 2/7 x 1 = x 2 = x 5 = 0, che è ammissibile e non degenere B 4 = {x 4,x 5 }: la soluzione di base è x 4 = 1 x 5 = 3 x 1 = x 2 = x 3 = 0, che è non ammissibile. Teoria della Programmazione Lineare p. 71/8
72 Osservazione Data una soluzione di base ammissibile e non degenere esiste un unica base che la rappresenta, mentre una soluzione di base ammissibile e degenere è rappresentata da più basi. Si verifichi, ad esempio, che la base B 5 = {x 1,x 4 } ha come soluzione di base associata: x 1 = 2 x 4 = 0 x 2 = x 3 = x 5 = 0, che è la stessa associata alla base B 2. Teoria della Programmazione Lineare p. 72/8
73 Ma cosa hanno a che fare le basi e le soluzioni di base con il teorema fondamentale della PL? La risposta ci viene dalla seguente osservazione. Osservazione L insieme dei vertici di S a coincide con l insieme delle soluzioni di base ammissibili del problema di PL. In pratica, vertici e di soluzioni di base ammissibili sono la stessa cosa vista da due punti di vista diversi: quello geometrico (i vertici) e quello algebrico (le soluzioni di base ammissibili). Teoria della Programmazione Lineare p. 73/8
74 Basi adiacenti Due basi B e B si definiscono adiacenti se hanno m 1 variabili uguali e differiscono per una sola variabile. Nell esempio le basi B 3 = {x 3,x 4 } e B 4 = {x 4,x 5 } sono adiacenti, mentre non lo sono B 2 = {x 1,x 3 } e B 4. Teoria della Programmazione Lineare p. 74/8
75 Soluzioni di base adiacenti Due soluzioni di base distinte si definiscono adiacenti se esistono due basi B e B che le rappresentano e che sono tra loro adiacenti. Si noti che due basi adiacenti non corrispondono necessariamente a due soluzioni di base adiacenti. Esse infatti possono corrispondere alla stessa soluzione di base come accade, ad esempio, con le basi B 2 = {x 1,x 3 } e B 5 = {x 1,x 4 }. Teoria della Programmazione Lineare p. 75/8
76 Riformulazione rispetto alla base B Sia data la base: con B = {x i1,...,x im }. N = {x im+1,...,x in } l insieme delle variabili fuori base. Abbiamo visto che, data la base B, la riformulazione del problema di PL rispetto alla base B è data da max c B A 1 B b + (c N c B A 1 B A N)x N x B = A 1 B b A 1 B A Nx N x B,x N 0 Teoria della Programmazione Lineare p. 76/8
77 Continua Indichiamo con: γ 0 il valore c B A 1 B b; γ j, j = 1,...,n m, le componenti del vettore c N c B A 1 B A N; β r, r = 1,...,m, le componenti del vettore A 1 B b; α rj, r = 1,...,m, j = 1,...,n m, le componenti della matrice A 1 B A N Teoria della Programmazione Lineare p. 77/8
78 Continua In forma scalare possiamo riscrivere la riformulazione rispetto alla base B nel seguente modo: max γ 0 + n m j=1 γ jx im+j x i1 = β 1 + n m j=1 α 1jx im+j x ik = β k + n m j=1 α kjx im+j x im = β m + n m j=1 α mjx im+j x 1,...,x n 0 Teoria della Programmazione Lineare p. 78/8
79 Nell esempio Riformulazione rispetto alla base B 2 = {x 1,x 3 }: max 6 2x 2 13x 4 + 8x 5 x 1 = 2 2x 2 7x 4 + 3x 5 x 3 = 0 + 3x 4 x 5 x 1,x 3,x 2,x 4,x 5 0 Teoria della Programmazione Lineare p. 79/8
80 Passaggio ad una base adiacente Supponiamo ora di voler passare dalla base B alla base adiacente B ottenuta rimuovendo da B la variabile x ik, 1 k m, e sostituendola con la variabile fuori base x im+h, 1 h n m, ovvero: B = {x i1,...,x ik 1,x im+h,x ik+1,...,x im }. La prima domanda che ci dobbiamo porre è : quando B è effettivamente una base. Perché lo sia si deve avere che A B è invertibile. Teoria della Programmazione Lineare p. 80/8
81 Continua Si ha che A B è invertibile e quindi B è una base se e solo se nella riformulazione associata alla base B il coefficiente di x im+h nell equazione relativa a x ik è diverso da 0, ovvero se e solo se: α kh 0. Nell esempio: {x 1,x 2 } non è una base {x 1,x 5 } è una base Teoria della Programmazione Lineare p. 81/8
82 L operazione di cardine Tale operazione consente di passare dalla riformulazione rispetto alla base B a quella rispetto alla base adiacente B. Per fare questo dovremo compiere le seguenti operazioni. Ricavare x im+h dall equazione relativa a x ik, cioè: x im+h = β k α kh + 1 α kh x ik n m j=1, j h α kj α kh x im+j. sostituire ogni occorrenza della variabile x im+h nelle restanti equazioni e nell obiettivo con la parte destra di tale equazione Teoria della Programmazione Lineare p. 82/8
83 Esempio Dalla riformulazione rispetto a B 2 = {x 1,x 3 } a quella rispetto a B 6 = {x 1,x 5 } Ricavo x 5 dall equazione relativa a x 3 x 5 = 0 x 3 + 3x 4 Sostituisco la parte destra dell equazione nei restanti vincoli e nell obiettivo max 6 2x 2 13x 4 + 8(0 x 3 + 3x 4 ) x 1 = 2 2x 2 7x 4 + 3(0 x 3 + 3x 4 ) x 5 = 0 x 3 + 3x 4 x 1,x 3,x 2,x 4,x 5 0 Teoria della Programmazione Lineare p. 83/8
84 Riformulazione rispetto a B 6 = {x 1, x 5 } max 6 2x 2 8x x 4 x 1 = 2 2x 2 + 2x 4 3x 3 x 5 = 0 x 3 + 3x 4 x 1,x 3,x 2,x 4,x 5 0 Teoria della Programmazione Lineare p. 84/8
85 Nota bene Per poter recuperare dalle riformulazioni alcune informazioni (nel seguito vedremo, ad esempio, come sfruttare la riformulazione rispetto a una base B per poter ottenere la matrice A 1 B ) è necessario mantenere un ordine tra le variabili in una base. Quindi se nella base B la variabile x im+h sostituisce la variabile x ik a cui corrisponde la k-esima equazione della riformulazione rispetto a B, nella riformulazione rispetto a B l equazione relativa alla variabile x im+h dovrà ancora essere la k-esima, mentre la posizione delle equazioni relative a tutte le altre variabili deve rimanere invariata rispetto alla precedente riformulazione. Teoria della Programmazione Lineare p. 85/8
86 Nell esempio la variabile x 5 ha preso il posto della x 3 e l equazione relativa alla x 5 è stata messa nella stessa posizione (la seconda) in cui si trovava quella della x 3, mentre la restante equazione ha mantenuto la posizione originaria. Teoria della Programmazione Lineare p. 86/8
87 Un altro esempio Passaggio da B 6 = {x 1,x 5 } a B 4 = {x 4,x 5 } Ricavo x 4 dall equazione relativa a x 1 x 4 = 1 + 1/2x 1 + x 2 + 3/2x 3 Sostituisco la parte destra dell equazione nei restanti vincoli e nell obiettivo max 6 2x 2 8x ( 1 + 1/2x 1 + x 2 + 3/2x 3 ) x 4 = 1 + 1/2x 1 + x 2 + 3/2x 3 x 5 = 0 x 3 + 3( 1 + 1/2x 1 + x 2 + 3/2x 3 ) x 1,x 3,x 2,x 4,x 5 0 Teoria della Programmazione Lineare p. 87/8
88 Continua Riformulazione rispetto a B 4 = {x 4,x 5 }: max /2x 1 + 9x /2x 3 x 4 = 1 + 1/2x 1 + x 2 + 3/2x 3 x 5 = 3 + 3/2x 1 + 3x 2 + 7/2x 3 x 1,x 3,x 2,x 4,x 5 0 Teoria della Programmazione Lineare p. 88/8
89 Nota bene Le operazioni di cardine che abbiamo eseguito sugli esempi ci hanno consentito di passare da una base ad una adiacente e, nel secondo esempio, anche da una soluzione di base ad una adiacente. Tuttavia, nel secondo caso siamo passati da una soluzione di base ammissibile (quella associata a B 6 ) ad una non ammissibile (quella associata a B 4 ). Nell algoritmo di risoluzione che ci apprestiamo a discutere la scelta della base adiacente verso cui muoversi non verrà fatta a caso come abbiamo fatto nei precedenti esempi, ma sarà guidata da regole precise che fondamentalmente ci consentiranno di spostarsi tra vertici della regione ammissibile migliorando il valore della funzione obiettivo. Teoria della Programmazione Lineare p. 89/8
Ricerca Operativa. Ricerca Operativa p. 1/6
Ricerca Operativa Ricerca Operativa p. 1/6 Ricerca Operativa Disciplina basata sulla modellizzazione e la risoluzione tramite strumenti automatici di problemi di decisione complessi. In tali problemi la
DettagliIl metodo del simplesso. Il metodo del simplesso p. 1/127
Il metodo del simplesso Il metodo del simplesso p. 1/127 I problemi di PL in forma standard I problemi di PL in forma standard hanno la seguente formulazione: max cx a i x = b i x 0 i = 1,...,m o, equivalentemente,
DettagliAppunti per il corso di Ricerca Operativa 1
Appunti per il corso di Ricerca Operativa 1 Capitolo 1 Introduzione La prima domanda da porsi riguarda gli scopi che si prefigge la Ricerca Operativa. Possiamo definirla come uno strumento per prendere
DettagliIl metodo del simplesso. Il metodo del simplesso p. 1/12
Il metodo del simplesso Il metodo del simplesso p. 1/12 I problemi di PL in forma standard I problemi di PL in forma standard hanno la seguente formulazione: max cx a i x = b i x 0 i = 1,...,m o, equivalentemente,
DettagliGeometria della programmazione lineare
Geometria della programmazione lineare poliedri punti estremi, vertici, soluzioni di base esistenza di punti estremi rif. Fi 3.1; BT 2.1, 2.2, 2.5 Iperpiani, semispazi Definizione Sia a un vettore non
DettagliProgrammazione Lineare
Programmazione Lineare Andrea Scozzari a.a. 2012-2013 March 14, 2013 Andrea Scozzari (a.a. 2012-2013) Programmazione Lineare March 14, 2013 1 / 18 Metodo del Simplesso Dato un problema di PL in forma standard
DettagliPROGRAMMAZIONE LINEARE E DUALITA'
PROGRAMMAZIONE LINEARE E DUALITA' 1) Dati i punti di R 2 (1, 2), (1, 4), (2, 3), (3, 5), (4, 1), (4, 2), (5, 5), (6, 2), (6, 5). Determinare graficamente: A - L'involucro convesso di tali punti. B - Quali
DettagliIl metodo del simplesso. Il metodo del simplesso p. 1/8
Il metodo del simplesso Il metodo del simplesso p. 1/8 Ipotesi iniziale Data la base B e la riformulazione rispetto a essa: max γ 0 + n m j=1 γ jx im+j x i1 = β 1 + n m j=1 α 1jx im+j x ik = β k + n m
DettagliMetodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte I)
Metodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte I) Luigi De Giovanni Giacomo Zambelli 1 Problemi di programmazione lineare Un problema
DettagliSoluzione dei Problemi di Programmazione Lineare
Soluzione dei Problemi di Programmazione Lineare Consideriamo un problema di Programmazione Lineare (PL) con m vincoli ed n variabili in Forma Standard dove: ma 0 c A b ( ) 0 ( 2) R è il vettore n delle
DettagliProgrammazione Lineare Intera. Programmazione Lineare Intera p. 1/4
Programmazione Lineare Intera Programmazione Lineare Intera p. 1/4 Programmazione Lineare Intera Problema di PLI in forma standard: max cx Ax = b x 0, x I n I insieme degli interi. Regione ammissibile:
Dettagli4.5 Metodo del simplesso
4.5 Metodo del simplesso min z = c T x s.v. Ax = b x PL in forma standard Esamina una sequenza di soluzioni di base ammissibili con valori non crescenti della funzione obiettivo fino a raggiungerne una
DettagliAlgoritmo del Simplesso
Algoritmo del Simplesso Renato Bruni bruni@dis.uniroma.it Univertà di Roma Sapienza Corso di Ricerca Operativa, Corso di Laurea Ingegneria dell Informazione Vertici e Punti Estremi di un Poliedro Un poliedro
DettagliGeometria della Programmazione Lineare
Capitolo 2 Geometria della Programmazione Lineare In questo capitolo verranno introdotte alcune nozioni della teoria dei poliedri che permetteranno di cogliere gli aspetti geometrici della Programmazione
Dettagli1 Modelli di Programmazione Lineare
1 Modelli di Programmazione Lineare La prima domanda da porsi riguarda gli scopi che si prefigge la Ricerca Operativa. Possiamo definirla come uno strumento per prendere delle decisioni che siano le migliori
DettagliIntroduzione al Metodo del Simplesso. 1 Soluzioni di base e problemi in forma standard
Introduzione al Metodo del Simplesso Giacomo Zambelli 1 Soluzioni di base e problemi in forma standard Consideriamo il seguente problema di programmazione lineare (PL), relativo all esempio di produzione
DettagliAppunti su Indipendenza Lineare di Vettori
Appunti su Indipendenza Lineare di Vettori Claudia Fassino a.a. Queste dispense, relative a una parte del corso di Matematica Computazionale (Laurea in Informatica), rappresentano solo un aiuto per lo
DettagliSi consideri il sistema a coefficienti reali di m equazioni lineari in n incognite
3 Sistemi lineari 3 Generalità Si consideri il sistema a coefficienti reali di m equazioni lineari in n incognite ovvero, in forma matriciale, a x + a 2 x 2 + + a n x n = b a 2 x + a 22 x 2 + + a 2n x
DettagliProgrammazione Lineare Intera
Programmazione Lineare Intera Andrea Scozzari a.a. 2012-2013 May 10, 2013 Andrea Scozzari (a.a. 2012-2013) Programmazione Lineare Intera May 10, 2013 1 / 16 Programmazione Lineare Intera: Metodo dei Piani
DettagliElementi di Algebra Lineare Matrici e Sistemi di Equazioni Lineari
Elementi di Algebra Lineare Matrici e Sistemi di Equazioni Lineari Antonio Lanteri e Cristina Turrini UNIMI - 2016/2017 Antonio Lanteri e Cristina Turrini (UNIMI - 2016/2017 Elementi di Algebra Lineare
Dettagli4.3 Esempio metodo del simplesso
4.3 Esempio metodo del simplesso (P ) min -5x 4x 2 3x 3 s.v. 2x + 3x 2 + x 3 5 4x + x 2 + 2x 3 3x + 4x 2 + 2x 3 8 x, x 2, x 3 Per mettere il problema in forma standard si introducono le variabili di scarto
Dettagli5.4.5 Struttura dell algoritmo ed esempi
CAPITOLO 5. IL METODO DEL SIMPLESSO 6 5.4.5 Struttura dell algoritmo ed esempi Come abbiamo già ampiamente osservato, la fase II del metodo del simplesso, a partire da una soluzione di base ammissibile,
DettagliLEZIONE 3. a + b + 2c + e = 1 b + d + g = 0 3b + f + 3g = 2. a b c d e f g
LEZIONE 3 3.. Matrici fortemente ridotte per righe. Nella precedente lezione abbiamo introdotto la nozione di soluzione di un sistema di equazioni lineari. In questa lezione ci poniamo il problema di descrivere
DettagliIl metodo del simplesso
Capitolo 5 Il metodo del simplesso 5. La forma standard Esercizio 5.. Porre il problema di Programmazione Lineare: in forma standard. min x +x + x + x x +x 5 x 4 x, x Si trasformano i vincoli di disuguaglianza
Dettagli3.6 Metodi basati sui piani di taglio
3.6 Metodi basati sui piani di taglio Problema generale di Programmazione Lineare Intera (PLI) con A matrice m n e b vettore n 1 razionali min{ c t x : x X = {x Z n + : Ax b} } Sappiamo che esiste una
DettagliRisoluzione di sistemi lineari
Risoluzione di sistemi lineari Teorema (Rouché-Capelli) Dato il sistema di m equazioni in n incognite Ax = b, con A M at(m, n) b R n x R n [A b] si ha che: matrice dei coefficienti, vettore dei termini
Dettaglix 1 x 2 x 3 x 5 La base iniziale è B 0 = I e risulta x B 0 = , x N 0 = Iterazione 0. Calcolo dei costi ridotti. γ 0 = c N 0 (N 0 ) T c B 0 =
56 IL METODO DEL SIMPLESSO 7.4 IL METODO DEL SIMPLESSO In questo paragrafo sono riportati alcuni esercizi risolti sul metodo del simplesso. Alcuni sono risolti utilizzando la procedura di pivot per determinare,
DettagliPossibile applicazione
p. 1/4 Assegnamento Siano dati due insiemi A e B entrambi di cardinalità n. Ad ogni coppia (a i,b j ) A B è associato un valore d ij 0 che misura la "incompatibilità" tra a i e b j, anche interpretabile
DettagliOTTIMIZZAZIONE LINEARE MULTICRITERIO
OTTIMIZZAZIONE LINEARE MULTICRITERIO NOTAZIONE Siano x ed y vettori di R n indicati estesamente con x x x x 1 Μ i Μ n, y y1 Μ yi Μ y n e si ponga N = {1,2,, n}. Scriveremo allora: x y ( x è diverso da
DettagliAutovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti)
Autovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti) April 14, 2011 (alcune note non complete sugli argomenti trattati: eventuali completamenti saranno aggiunti)
DettagliIl metodo del simplesso
7 Il metodo del simplesso Dato un problema di PL è ovviamente necessario, se il modello fatto deve essere di qualche utilità, essere capaci di risolverlo. Nel caso della programmazione lineare si dice
DettagliSistemi compatibili (Il metodo di Fourier-Motzkin) Claudio Arbib Università degli Studi di L Aquila
Sistemi compatibili (Il metodo di Fourier-Motzkin) Claudio Arbib Università degli Studi di L Aquila Sommario Poliedri Poliedri compatibili Diseguaglianzeimplicate Proiezione di un poliedro Definizione
DettagliNORMA DI UN VETTORE. Una NORMA VETTORIALE su R n è una funzione. : R n R +
NORMA DI UN VETTORE Una NORMA VETTORIALE su R n è una funzione. : R n R + {0}, che associa ad ogni vettore x R n di componenti x i, i = 1,..., n, uno scalare in modo che valgano le seguenti proprietà:
DettagliProgrammazione Non Lineare
Capitolo 1 Programmazione Non Lineare 1.1 Introduzione Un problema di ottimizzazione viene definito come la minimizzazione o la massimizzazione di una funzione a valori reali su un insieme specificato.
DettagliIntroduzione soft alla matematica per l economia e la finanza. Marta Cardin, Paola Ferretti, Stefania Funari
Introduzione soft alla matematica per l economia e la finanza Marta Cardin, Paola Ferretti, Stefania Funari Capitolo Sistemi di equazioni lineari.8 Il Teorema di Cramer Si consideri un generico sistema
DettagliTeoria della Programmazione Lineare
5 Teoria della Programmazione Lineare In questo capitolo iniziamo lo studio formale dei problemi di Programmazione Lineare e, in particolare, dimostriamo il Teorema fondamentale della Programmazione Lineare.
DettagliNOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n
NOTE DI ALGEBRA LINEARE 2- MM 9 NOVEMBRE 2 Combinazioni lineari e generatori Sia K un campo e V uno spazio vettoriale su K Siano v,, v n vettori in V Definizione Un vettore v V si dice combinazione lineare
Dettagli4 Autovettori e autovalori
4 Autovettori e autovalori 41 Cambiamenti di base Sia V uno spazio vettoriale tale che dim V n Si è visto in sezione 12 che uno spazio vettoriale ammette basi distinte, ma tutte con la medesima cardinalità
DettagliIntroduzione alla programmazione lineare
Introduzione alla programmazione lineare struttura del problema di PL forme equivalenti rappresentazione e soluzione grafica rif. Fi 1.2; BT 1.1, 1.4 Problema di programmazione lineare Dati: un vettore
Dettagli3x 2 = 6. 3x 2 x 3 = 6
Facoltà di Scienze Statistiche, Algebra Lineare 1 A, GParmeggiani LEZIONE 7 Sistemi lineari Scrittura matriciale di un sistema lineare Def 1 Un sistema di m equazioni ed n incognite x 1, x 2, x n, si dice
DettagliLezione 7: Il Teorema di Rouché-Capelli
Lezione 7: Il Teorema di Rouché-Capelli In questa lezione vogliamo rivisitare i sistemi lineari e dare alcuni risultati che ci permettono di determinare dato un sistema lineare se ammette soluzioni e da
DettagliRicerca Operativa Note su Programmazione Lineare e Metodo del Simplesso (parte I)
Ricerca Operativa Note su Programmazione Lineare e Metodo del Simplesso (parte I) Luigi De Giovanni AVVERTENZA: le note presentate di seguito non hanno alcuna pretesa di completezza, né hanno lo scopo
Dettagli3. Vettori, Spazi Vettoriali e Matrici
3. Vettori, Spazi Vettoriali e Matrici Vettori e Spazi Vettoriali Operazioni tra vettori Basi Trasformazioni ed Operatori Operazioni tra Matrici Autovalori ed autovettori Forme quadratiche, quadriche e
DettagliI teoremi della funzione inversa e della funzione implicita
I teoremi della funzione inversa e della funzione implicita Appunti per il corso di Analisi Matematica 4 G. Mauceri Indice 1 Il teorema della funzione inversa 1 Il teorema della funzione implicita 3 1
DettagliLEZIONE 4. { x + y + z = 1 x y + 2z = 3
LEZIONE 4 4.. Operazioni elementari di riga. Abbiamo visto, nella precedente lezione, quanto sia semplice risolvere sistemi di equazioni lineari aventi matrice incompleta fortemente ridotta per righe.
DettagliSpazi vettoriali euclidei.
Spazi vettoriali euclidei Prodotto scalare, lunghezza e ortogonalità in R n Consideriamo lo spazio vettoriale R n = { =,,, n R}, n con la somma fra vettori e il prodotto di un vettore per uno scalare definiti
DettagliRegistro Lezioni di Algebra lineare del 15 e 16 novembre 2016.
Registro Lezioni di Algebra lineare del 15 e 16 novembre 2016 Di seguito si riporta il riassunto degli argomenti svolti; i riferimenti sono a parti del Cap8 Elementi di geometria e algebra lineare Par5
DettagliMATRICI E SISTEMI LINEARI
1 Rappresentazione di dati strutturati MATRICI E SISTEMI LINEARI Gli elementi di una matrice, detti coefficienti, possono essere qualsiasi e non devono necessariamente essere omogenei tra loro; di solito
DettagliSoluzione dei problemi di Programmazione Lineare Intera
Fondamenti di Ricerca Operativa T-A a.a. 2014-2015 Soluzione dei problemi di Programmazione Lineare Intera Andrea Lodi, Enrico Malaguti, Daniele Vigo rev. 1.1.a ottobre 2014 Fondamenti di Ricerca Operativa
DettagliEsercizi svolti. delle matrici
Esercizi svolti. astratti. Si dica se l insieme delle coppie reali (x, y) soddisfacenti alla relazione x + y è un sottospazio vettoriale di R La risposta è sì, perchè l unica coppia reale che soddisfa
DettagliGeometria e Topologia I (U1-4) 2006-mag-10 61
Geometria e Topologia I (U1-4) 2006-mag-10 61 (15.9) Teorema. Consideriamo il piano affine. Se A A 2 (K) è un punto e r una retta che non passa per A, allora esiste unica la retta per A che non interseca
Dettagli5.3 Metodo dei piani di taglio
5.3 Metodo dei piani di taglio (PLI) min s.v. c T x Ax b x interi X Ipotesi: a ij, c j e b i interi Osservazione: La regione ammissibile di un PLI può essere descritta mediante dei vincoli più o meno stringenti
DettagliCOMPITO DI RICERCA OPERATIVA. max x 1 + x 2 x 1 2x 2 + x 3 = 4 x 1 x 2 x 3 = 3 x 2 + 2x 3 = 1 x 1, x 2, x 3 0
COMPITO DI RICERCA OPERATIVA ESERCIZIO. (5 punti) Sia dato il seguente problema di PL: max x + x 2 x 2x 2 + x 3 = 4 x x 2 x 3 = 3 x 2 + 2x 3 = x, x 2, x 3 0 Utilizzando il metodo due fasi, si stablisca
DettagliTeoria della Programmazione Lineare Intera
0 Teoria della Programmazione Lineare Intera 0. INTRODUZIONE Come visto precedentemente, molti problemi particolarmente importanti dal punto di vista applicativo sono riconducibili alla soluzione di un
DettagliUniversità Ca Foscari Venezia
Università Ca Foscari Venezia Dipartimento di Scienze Ambientali, Informatica e Statistica Giovanni Fasano Brevi FAQ sul Metodo del SIMPLESSO Università Ca Foscari Venezia, Dipartimento di Management,
DettagliSistemi lineari - Parte Seconda - Esercizi
Sistemi lineari - Parte Seconda - Esercizi Terminologia Operazioni elementari sulle righe. Equivalenza per righe. Riduzione a scala per righe. Rango di una matrice. Forma canonica per righe. Eliminazione
DettagliConvergenza del Simplesso e regole anti-ciclaggio
Convergenza del Simplesso e regole anti-ciclaggio degenerazione e ciclaggio un esempio di ciclaggio regole anti-ciclaggio rif. Fi 3.2.6, BT 3.4 (Esempio 3.6), BT 3.7; Sulla convergenza del metodo del simplesso
DettagliTEORIA della DUALITÀ. Una piccola introduzione. Ricerca Operativa. Prof. R. Tadei. Politecnico di Torino. Teoria della Dualità / 1.
Prof. R. adei EORIA della DUALIÀ Una piccola introduzione R. adei 1 R. adei 2 EORIA DELLA DUALIA' Il concetto di dualità fu introdotto nel 1947 da Von Neumann, anche se il teorema della dualità fu formulato
DettagliIntroduzione al Metodo agli Elementi Finiti (FEM) (x, y) Γ Tale formulazione viene detta Formulazione forte del problema.
Introduzione al Metodo agli Elementi Finiti (FEM) Consideriamo come problema test l equazione di Poisson 2 u x 2 + 2 u = f(x, y) u = f y2 definita su un dominio Ω R 2 avente come frontiera la curva Γ,
Dettagli1 Il metodo dei tagli di Gomory
Il metodo dei tagli di Gomory Esercizio Sia dato il problema min(x x ) x + x (P 0 ) x + x x, x 0, interi. Calcolare la soluzione ottima applicando il metodo dei tagli di Gomory. Risoluzione Per applicare
DettagliOperazioni tra matrici e n-uple
CAPITOLO Operazioni tra matrici e n-uple Esercizio.. Date le matrici 0 4 e dati λ = 5, µ =, si calcoli AB, BA, A+B, B A, λa+µb. Esercizio.. Per ognuna delle seguenti coppie di matrici A, B e scalari λ,
Dettagli1) Hamming bound, coset, codici equivalenti
Argomenti della Lezione ) Hamming bound, coset, codici equivalenti 2) Esercizi sui codici lineari a blocchi Osservazione () Per effettuare la decodifica a rivelazione di errore si può seguire una delle
DettagliDefinizione 1. Una matrice n m a coefficienti in K é una tabella del tipo. ... K m, detto vettore riga i-esimo, ed a im
APPUNTI ed ESERCIZI su matrici, rango e metodo di eliminazione di Gauss Corso di Laurea in Chimica, Facoltà di Scienze MM.FF.NN., UNICAL (Dott.ssa Galati C.) Rende, 23 Aprile 2010 Matrici, rango e metodo
DettagliFigura 1: 1) Si scriva la formulazione del problema come problema di PLI (con un numero minimo di vincoli) e la matrice dei vincoli.
ESERCIZIO 1 Sia dato il grafo orientato in Figura 1. Si consideri il problema di flusso a 1 2 4 Figura 1: costo minimo su tale grafo con b 1 = 4 b 2 = 2 b = b 4 = e c 12 = 2 c 1 = 4 c 14 = 1 c 2 = 1 c
DettagliLEZIONE 2. ( ) a 1 x 1 + a 2 x a n x n = b, ove a j, b R sono fissati.
LEZIONE 2 2 Sistemi di equazioni lineari Definizione 2 Un equazione lineare nelle n incognite x, x 2,, x n a coefficienti reali, è un equazione della forma (2 a x + a 2 x 2 + + a n x n = b, ove a j, b
DettagliEsercitazione 6 - Soluzione
Anno Accademico 28-29 Corso di Algebra Lineare e Calcolo Numerico per Ingegneria Meccanica Esercitazione 6 - Soluzione Immagine, nucleo. Teorema di Rouché-Capelli. Esercizio Sia L : R 3 R 3 l applicazione
DettagliCosti ridotti e ottimalità
Costi ridotti e ottimalità condizione sufficiente di ottimalità spostamento su una base adiacente rif. Fi 3.2; Ricapitolando Sin qui abbiamo un algoritmo enumerativo applicabile quando P è un ( politopo,
DettagliESERCIZI SULLE MATRICI
ESERCIZI SULLE MATRICI Consideriamo il sistema lineare a, x + a, x + + a,n x n = b a, x + a, x + + a,n x n = b a m, x + a m, x + + a m,n x n = b m di m equazioni in n incognite che ha a, a,n A = a m, a
DettagliL ALGORITMO DEL SIMPLESSO REVISIONATO
L ALGORITMO DEL SIMPLESSO REVISIONATO L'algoritmo del simplesso revisionato costituisce una diversa implementazione dell algoritmo standard tesa a ridurre, sotto certe condizioni, il tempo di calcolo e
DettagliProgrammazione Lineare Intera: Piani di Taglio
Programmazione Lineare Intera: Piani di Taglio Andrea Scozzari a.a. 2014-2015 April 22, 2015 Andrea Scozzari (a.a. 2014-2015) Programmazione Lineare Intera: Piani di Taglio April 22, 2015 1 / 23 Programmazione
DettagliLa notazione usata è quella usuale nel caso scalare, ed è estesa al caso generale. Consideriamo una forma quadratica:
. SU ALCUNI OPERAORI DI DERIVAZIONE Alcune operazioni tipiche dell analisi matematica hanno un diretto riscontro in termini matriciali. Consideriamo ad esempio una forma lineare: f() l l + l +..l n n ;
DettagliProblemi di flusso a costo minimo
p. 1/7 Problemi di flusso a costo minimo È data una rete (grafo orientato e connesso) G = (V,A). (i,j) A c ij, costo di trasporto unitario lungo l arco (i, j). i V b i interi e tali che i V b i = 0. p.
DettagliCorso di Matematica Applicata A.A
Corso di Matematica Applicata A.A. 2012-2013 Programmazione lineare (II parte) Prof.ssa Bice Cavallo Soluzione di un problema PL Soluzione ottima Variabili slack e surplus A R mxn Ax b s R m, s i 0 : Ax
Dettaglia + 2b + c 3d = 0, a + c d = 0 c d
SPAZI VETTORIALI 1. Esercizi Esercizio 1. Stabilire quali dei seguenti sottoinsiemi sono sottospazi: V 1 = {(x, y, z) R 3 /x = y = z} V = {(x, y, z) R 3 /x = 4} V 3 = {(x, y, z) R 3 /z = x } V 4 = {(x,
Dettagli7.5 Il caso vincolato: preliminari
7.5 Il caso vincolato: preliari Consideriamo ora il problema vincolato 3, che qui riscriviamo: fx gx 0 hx = 0, 13 con g : IR n IR p e h : IR n IR m, m n. Ricordiamo che F = {x IR n : gx 0, hx = 0}, denota
DettagliEsercizio 1 Trovare, se esistono, le soluzioni del sistema lineare. y + 3z = 3 x y + z = 0. { x + y = 1
Esercizio 1 Trovare, se esistono, le soluzioni del lineare y + 3z = 3 x y + z = 0 x + y = 1 0 1 3 3 1 1 1 0 1 1 1 0 = 0 1 3 3 = 1 1 0 1 1 1 0 1 = 1 1 1 0 0 1 3 3 0 1 1 = Il di partenza è quindi equivalente
DettagliEsercizi di Programmazione Lineare - Dualità
Esercizi di Programmazione Lineare - Dualità Esercizio n1 Dato il seguente problema 3 + 3 2 2 + a scriverne il duale; b risolvere il duale (anche geometricamente indicando cosa da esso si può dedurre sul
DettagliSOTTOSPAZI E OPERAZIONI IN SPAZI DIVERSI DA R n
SPAZI E SOTTOSPAZI 1 SOTTOSPAZI E OPERAZIONI IN SPAZI DIVERSI DA R n Spazi di matrici. Spazi di polinomi. Generatori, dipendenza e indipendenza lineare, basi e dimensione. Intersezione e somma di sottospazi,
DettagliGestione della produzione e della supply chain Logistica distributiva
Gestione della produzione e della supply chain Logistica distributiva Paolo Detti Dipartimento di Ingegneria dell Informazione e Scienze Matematiche Università di Siena Convergenza dell algoritmo Se non
DettagliSi consideri il seguente tableau ottimo di un problema di programmazione lineare
ESERCIZIO 1 Si consideri il seguente tableau ottimo di un problema di programmazione lineare -25/3 0 4/3 19/6 9/2 0 0 0 7/6 1 0 1-1/2-3/2 1 0 0 3/2 11/3 1-2/3-1/3 0 0 0 0 2/3 2/3 0 1/3 1/6-1/2 0 1 0 7/6
Dettagli1 Ampliamento del piano e coordinate omogenee
1 Ampliamento del piano e coordinate omogenee Vogliamo dare una idea, senza molte pretese, dei concetti che stanno alla base di alcuni calcoli svolti nella classificazione delle coniche. Supponiamo di
Dettagli2. ALGORITMO DEL SIMPLESSO
. ALGORITMO DEL SIMPLESSO R. Tadei Una piccola introduzione R. Tadei SIMPLESSO L obiettivo del capitolo è quello di fornire un algoritmo, l algoritmo del simplesso, che risolve qualsiasi problema di programmazione
DettagliSISTEMI LINEARI, METODO DI GAUSS
SISTEMI LINEARI, METODO DI GAUSS Abbiamo visto che un sistema di m equazioni lineari in n incognite si può rappresentare in forma matriciale come A x = b dove: A è la matrice di tipo (m, n) dei coefficienti
DettagliSistemi lineari. Lorenzo Pareschi. Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara
Sistemi lineari Lorenzo Pareschi Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara http://utenti.unife.it/lorenzo.pareschi/ lorenzo.pareschi@unife.it Lorenzo Pareschi (Univ. Ferrara)
Dettagli3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI
3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI ESISTENZA DI UN PUNTO DI OTTIMO VINCOLATO Il problema di ottimizzazione vincolata introdotto nel paragrafo precedente può essere formulato nel modo seguente:
DettagliMetodo delle due fasi
Metodo delle due fasi Il problema artificiale la fase I del Simplesso esempi rif. Fi 3.2.5; Osservazione Nel problema min{c T x : Ax = 0, x 0}, dell esempio precedente si ha che b 0 e A contiene una matrice
DettagliRisoluzione di sistemi lineari sparsi e di grandi dimensioni
Risoluzione di sistemi lineari sparsi e di grandi dimensioni Un sistema lineare Ax = b con A R n n, b R n, è sparso quando il numero di elementi della matrice A diversi da zero è αn, con n α. Una caratteristica
DettagliTeoria della Programmazione Lineare Intera
Teoria della Programmazione Lineare Intera Laura Galli Dipartimento di Informatica Largo B. Pontecorvo, 567 Pisa laura.galli@unipi.it http://www.di.unipi.it/~galli 7 Ottobre 0 Ricerca Operativa Laurea
DettagliLEZIONE 12. Y = f(x) = f( x j,1 f(e j ) = x j,1 A j = AX = µ A (X),
LEZIONE 1 1.1. Matrice di un applicazione lineare. Verifichiamo ora che ogni applicazione lineare f: R n R m è della forma µ A per un unica A R m,n. Definizione 1.1.1. Per ogni j 1,..., n indichiamo con
DettagliCapitolo 1 Vettori applicati e geometria dello spazio
Capitolo 1 Vettori applicati e geometria dello spazio Marco Robutti Facoltà di ingegneria Università degli studi di Pavia Tutorato di geometria e algebra lineare Anno accademico 2014-2015 Definizione (Vettore
DettagliSimilitudine (ortogonale) e congruenza (ortogonale) di matrici.
Lezione del 4 giugno. Il riferimento principale di questa lezione e costituito da parti di: 2 Forme bilineari, quadratiche e matrici simmetriche associate, 3 Congruenza di matrici simmetriche, 5 Forme
DettagliGeometria analitica: rette e piani
Geometria analitica: rette e piani Equazioni del piano Intersezioni di piani. Rette nello spazio Fasci di piani e rette Intersezioni fra piani e rette Piani e rette ortogonali Piani di forma parametrica
DettagliLEZIONE 12. v = α 1 v α n v n =
LEZIONE 12 12.1. Combinazioni lineari. Definizione 12.1.1. Sia V uno spazio vettoriale su k = R, C e v 1,..., v n V vettori fissati. Un vettore v V si dice combinazione lineare di v 1,..., v n se esistono
Dettagli15 luglio Soluzione esame di geometria - Ing. gestionale - a.a COGNOME... NOME... N. MATRICOLA... ISTRUZIONI
15 luglio 01 - Soluzione esame di geometria - Ing. gestionale - a.a. 01-01 COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura ore. ISTRUZIONI Ti sono
DettagliLA PROGRAMMAZIONE LINEARE
LA PROGRAMMAZIONE LINEARE Franca Rinaldi Dipartimento di Matematica e Informatica Università degli Studi di Udine A.A. 2005 / 2006 1 Introduzione In un problema di programmazione lineare (PL) si vuole
DettagliDomande d esame. Ricerca Operativa. G. Liuzzi. Giovedí 14 Maggio 2015. 1 Istituto di Analisi dei Sistemi ed Informatica IASI - CNR
1 Giovedí 14 Maggio 2015 1 Istituto di Analisi dei Sistemi ed Informatica IASI - CNR Geometria di R n 1 Dare la definizione di Poliedro e Vertice di un Poliedro 2 Dare la definizione di Poliedro e di Politopo
DettagliGAAL: Capitolo dei prodotti scalari
GAAL: Capitolo dei prodotti scalari Teorema di Rappresentazione rappresentabile Aggiunto Autoaggiunto Unitariamente diagonalizzabile Teorema spettrale reale Accoppiamento Canonico Forme bilineari Prodotti
DettagliRicerca Operativa. G. Liuzzi. Lunedí 20 Aprile 2015
1 Lunedí 20 Aprile 2015 1 Istituto di Analisi dei Sistemi ed Informatica IASI - CNR Rilassamento di un problema Rilassare un problema di Programmazione Matematica vuol dire trascurare alcuni (tutti i)
DettagliA m n B n p = P m p. 0 1 a b c d. a b. 0 a 0 c Il risultato e lo stesso solo nel caso in cui c = 0 e a = d.
Matematica II, 220404 Il prodotto di matrici e un operazione parziale che prende in entrata una matrice A ed una matrice B, tali che il numero delle colonne di A sia uguale al numero delle righe di B,
DettagliMassimi e minimi vincolati
Massimi e minimi vincolati Data una funzione G C 1 (D), dove D è un aperto di R 2, sappiamo bene dove andare a cercare gli eventuali punti di massimo e minimo relativi. Una condizione necessaria affinché
Dettagli