Teoria della Programmazione Lineare. Teoria della Programmazione Lineare p. 1/8

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Teoria della Programmazione Lineare. Teoria della Programmazione Lineare p. 1/8"

Transcript

1 Teoria della Programmazione Lineare Teoria della Programmazione Lineare p. 1/8

2 I problemi di PL in forma canonica In forma scalare: max n j=1 c jx j n j=1 a ijx j b i x j 0 i = 1,...,m j = 1,...,n Teoria della Programmazione Lineare p. 2/8

3 Prodotto scalare tra vettori Vettore di dimensione n p = (p 1 p n ) Dato un altro vettore di dimensione n q = (q 1 q n ) Il prodotto scalare tra i due vettori è un valore scalare: pq = n j=1 p j q j Esempio: p = (2 3 6) q = (3 8 7) pq = = 72 Teoria della Programmazione Lineare p. 3/8

4 Proprietà Siano p,q 1,q 2 R n e α,β R. Allora: p(αq 1 + βq 2 ) = α(pq 1 ) + β(pq 2 ) Esempio: p = (2 3 6) q 1 = (1 2 5) q 2 = (6 0 3) α = 2 β = 3 p(αq 1 + βq 2 ) = = 166 α(pq 1 ) + β(pq 2 ) = = 166 Teoria della Programmazione Lineare p. 4/8

5 Generalizzazione della proprietà Dati i vettori p,q 1,q 2,...,q t R n e gli scalari α 1,α 2,...,α t R, si ha che p[α 1 q 1 + α 2 q α t q t ] = p [ t α i q i ] = t α i (pq i ) i=1 i=1 Teoria della Programmazione Lineare p. 5/8

6 Prodotto matrice-vettore Data una matrice A di ordine m n (m righe e n colonne) a a 1n.. a m1... a mn ed un vettore p di dimensione n p = (p 1 p n ) Il prodotto matrice-vettore è un vettore di dimensione m la cui componente i è il prodotto scalare tra la i-esima riga di A e il vettore p: n j=1 a ij p j Teoria della Programmazione Lineare p. 6/8

7 Prodotto vettore-matrice Data una matrice A di ordine m n (m righe e n colonne) a a 1n.. a m1... a mn ed un vettore q di dimensione m q = (q 1 q m ) Il prodotto vettore-matrice è un vettore di dimensione n la cui componente j è il prodotto scalare tra la j-esima colonna di A e il vettore q: m a ij q i Teoria della Programmazione Lineare p. 7/8 i=1

8 Esempi A = [ ] p = (3 8 7) q = (4 5) Ap = ( ) = (90 94) qa = ( ) = ( ) Teoria della Programmazione Lineare p. 8/8

9 PL in forma canonica Introduciamo i seguenti vettori: c R n : vettore di dimensione n con componenti c j, j = 1,...,n, ovvero: c = (c 1 c 2 c n ); x R n : vettore di variabili di dimensione n con componenti x j, j = 1,...,n, ovvero: x = (x 1 x 2 x n ); a i R n, i = 1,...,m: m vettori di dimensione n con componenti a ij, j = 1,...,n, ovvero: a i = (a i1 a i2 a in ). Teoria della Programmazione Lineare p. 9/8

10 PL in forma canonica Osservando che e cx = a i x = n c j x j j=1 n a ij x j j=1 abbiamo la seguente rappresentazione vettoriale per un problema di PL in forma canonica: max cx a i x b i x 0 i = 1,...,m Teoria della Programmazione Lineare p. 10/8

11 PL in forma canonica Si consideri la matrice A R m n che ha tante righe quanti sono i vincoli del problema (m) e la cui i-esima riga è il vettore a i e del vettore b = (b 1 b m ) R m di dimensione m con componenti b i, i = 1,...,m. Osservando che Ax = (a 1 x... a m x) possiamo scrivere la rappresentazione matriciale del problema di PL in forma canonica: max cx Ax b x 0 Teoria della Programmazione Lineare p. 11/8

12 Esempio degli aiuti umanitari Il vettore c = (14 5 4) Il vettore di variabili x = (x 1 x 2 x 3 ) I vettori a i, i = 1, 2, 3 a 1 = ( ) a 2 = ( ) a 3 = ( ) Il vettore b = ( ) La matrice A Teoria della Programmazione Lineare p. 12/8

13 PL canonici PL generici Osservazione Ogni problema di PL in forma generica può essere trasformato in uno equivalente in forma canonica. Trasformazione da min a max min cx = max cx Trasformazione vincolo in vincolo a i x b i a i x b i Trasformazione vincolo = in due vincoli a i x = b i a i x b i, a i x b i a i x b i, a i x b i Teoria della Programmazione Lineare p. 13/8

14 PL canonici PL generici Sostituzione variabile 0 con variabile 0 Data x i 0, effettuare il cambio di variabile x i = x i, dove x i 0 Sostituzione variabile libera in segno con due variabili 0 Data x i libera in segno, effettuare il cambio di variabile x i = x i x i, dove x i,x i 0 Teoria della Programmazione Lineare p. 14/8

15 Un esempio Si trasformi il seguente problema di PL in forma generica in un problema di PL in forma canonica min x 1 + x 2 + x 3 x 1 + 2x 2 x 3 3 x 1 + 4x 2 + 5x 3 = 5 x 1 2x 2 + x 3 3 x 1 0 x 2 0 x 3 libera in segno Teoria della Programmazione Lineare p. 15/8

16 Insiemi convessi Un insieme C R n si dice convesso se x 1,x 2 C λ [0, 1] : λx 1 + (1 λ)x 2 C, ovvero se dati due punti qualsiasi in C, il segmento che li congiunge è anch esso completamente contenuto in C. Teoria della Programmazione Lineare p. 16/8

17 Insiemi limitati e chiusi Un insieme C si dice limitato se esiste una sfera di raggio finito R che lo contiene. Un insieme C si dice chiuso se contiene la sua frontiera. Teoria della Programmazione Lineare p. 17/8

18 Semispazi e iperpiani Si definisce semispazio in R n l insieme di punti che soddisfa una disequazione lineare in R n : n j=1 w j x j v (in forma vettoriale: wx v). Si definisce iperpiano in R n l insieme di punti che soddisfa un equazione lineare in R n : n j=1 w j x j = v (in forma vettoriale: wx = v). Teoria della Programmazione Lineare p. 18/8

19 Poliedri e politopi Si definisce poliedro l intersezione di un numero finito di semispazi e/o iperpiani. Se il poliedro è limitato esso viene chiamato politopo. Teoria della Programmazione Lineare p. 19/8

20 La regione ammissibile S a La regione ammissibile S a di un problema di PL in forma canonica è un poliedro. S a = {x R n : a i x b i, i = 1,...,m, x 0}. Semispazi e iperpiani sono insiemi chiusi L intersezione di un numero finito di insiemi chiusi è un insieme chiuso I poliedri (e quindi S a ) sono insiemi chiusi Teoria della Programmazione Lineare p. 20/8

21 Convessità Siano x,y S a, ovvero a i x b i i = 1,...,m x 0, e a i y b i i = 1,...,m y 0. Per ogni λ (0, 1) e per ogni i {1,...,m} avremo: a i [λx + (1 λ)y] = = λ }{{} >0 a i x +(1 λ) }{{}}{{} b i >0 a i y }{{} b i λb i + (1 λ)b i = b i. Teoria della Programmazione Lineare p. 21/8

22 Continua Inoltre: Quindi: λ }{{} >0 }{{} x +(1 λ) }{{} 0 >0 y }{{} 0 λx + (1 λ)y S a. 0. La regione ammissibile S a è un insieme convesso. Teoria della Programmazione Lineare p. 22/8

23 Limitatezza e illimitatezza La regione ammissibile S a può essere: = max x 1 + x 2 x 1 1 un poliedro limitato (politopo) x 1 + x 2 1 x 1,x 2 0 max x 1 + x 2 x 1 + x 2 1 x 1,x 2 0 Teoria della Programmazione Lineare p. 23/8

24 Continua un poliedro illimitato max x 1 + x 2 x 1 x 2 0 x 1,x 2 0 Teoria della Programmazione Lineare p. 24/8

25 Ricapitolando la regione ammissibile S a di un problema di PL è un poliedro e come tale è un insieme chiuso e convesso. Inoltre, può essere un insieme vuoto, un insieme limitato (politopo) oppure un insieme illimitato. Teoria della Programmazione Lineare p. 25/8

26 Vertici di S a Si definisce vertice di S a un punto x S a tale che non esistono due punti distinti x 1,x 2 S a, x 1 x 2, tali che x = 1 2 x x 2. ovvero x è il punto medio del segmento che congiunge x 1 e x 2. Teoria della Programmazione Lineare p. 26/8

27 Alcuni risultati Teorema Dato un problema di PL in forma canonica, se S a, allora S a contiene almeno un vertice. Osservazione S a ha sempre un numero finito di vertici. Teoria della Programmazione Lineare p. 27/8

28 Raggi Nel caso S a sia un poliedro illimitato possiamo anche introdurre le definizioni di raggio e raggio estremo. Si definisce raggio di S a un vettore r tale che x 0 S a λ 0 : x 0 + λr S a, cioè la semiretta con origine in x 0 e direzione r è completamente contenuta in S a per qualsiasi punto x 0 S a. Teoria della Programmazione Lineare p. 28/8

29 Raggi estremi Un raggio r di S a si definisce raggio estremo di S a se non esistono altri due raggi r 1 e r 2 di S a con direzioni distinte, ovvero r 1 µr 2 µ R, tali che r = 1 2 r r 2. Osservazione S a ha sempre un numero finito di raggi estremi. Teoria della Programmazione Lineare p. 29/8

30 Teorema di rappresentazione di S a Teorema Sia dato un problema di PL in forma canonica con S a. Siano v 1,...,v k i vertici di S a e, nel caso in cui S a sia un poliedro illimitato, siano r 1,...,r h i raggi estremi di S a. Allora x S a se e solo se λ 1,...,λ k 0, k i=1 λ i = 1, µ 1,...,µ h 0 tali che x = k λ i v i + h µ j r j. i=1 j=1 Teoria della Programmazione Lineare p. 30/8

31 Ovvero i punti in S a sono tutti e soli i punti ottenibili come somma di una combinazione convessa dei vertici di S a una combinazione lineare con coefficienti non negativi dei raggi estremi di S a Quindi un numero finito di oggetti (vertici e raggi estremi) mi permettono di rappresentare tutto l insieme S a. Teoria della Programmazione Lineare p. 31/8

32 L insieme delle soluzioni ottime S ott Insieme soluzioni ottime S ott = {x S a : cx cx x S a }, S ott S a, quindi S a = S ott =. Teoria della Programmazione Lineare p. 32/8

33 Una, nessuna, infinite Osservazione Se S ott è un insieme finito e non vuoto, S ott contiene un solo punto. Dimostrazione Per assurdo sia S ott un insieme finito e contenga più di un punto. Siano x 1,x 2 S ott, x 1 x 2, due punti distinti di S ott. Teoria della Programmazione Lineare p. 33/8

34 Continua Per l ottimalità di x 1 e x 2 si deve avere cx 1 = cx 2. Per la convessità di S a e x 1,x 2 S a : λx 1 + (1 λ)x 2 S a λ (0, 1), Per la linearità della funzione obiettivo λ (0, 1): c[λx 1 +(1 λ)x 2 ] = λcx 1 +(1 λ)cx 2 = λcx 1 +(1 λ)cx 1 = cx 1. Quindi: λx 1 + (1 λ)x 2 S ott λ (0, 1) cioè tutto il segmento che congiunge x 1 e x 2 è contenuto in S ott, il che contraddice la finitezza dell insieme S ott. Teoria della Programmazione Lineare p. 34/8

35 Le diverse forme possibili di S ott Caso 1 S a = S ott =. Caso 2 S a e politopo. Politopo è insieme chiuso e limitato, funzione obiettivo è lineare e quindi continua (Teorema di Weierstrass) S ott. Sono possibili due sottocasi. Caso 2.1 S ott è costituito da un solo punto. max 2x 1 + x 2 x 1 + x 2 1 x 1,x 2 0 Teoria della Programmazione Lineare p. 35/8

36 Continua Caso 2.2 S ott è costituito da un insieme infinito e limitato di punti. max x 1 + x 2 x 1 + x 2 1 x 1,x 2 0 Teoria della Programmazione Lineare p. 36/8

37 Continua Caso 3 S a e poliedro illimitato. Sono possibili quattro sottocasi. Caso 3.1 S ott = in quanto l obiettivo è illimitato, ovvero esiste una sequenza infinita di punti {x k } di S a lungo cui la funzione obiettivo cresce a +. Formalmente: {x k } : x k S a k e cx k + k +. max x 1 + x 2 x 1 + x 2 0 x 1 x 2 1 x 2 1 x 1,x 2 0 Teoria della Programmazione Lineare p. 37/8

38 Continua Caso 3.2 S ott è costituito da un solo punto. max x 1 x 1 + x 2 0 x 1 x 2 1 x 2 1 x 1,x 2 0 Teoria della Programmazione Lineare p. 38/8

39 Continua Caso 3.3 S ott è costituito da un insieme infinito e limitato di punti. max x 2 x 1 + x 2 0 x 1 x 2 1 x 2 1 x 1,x 2 0 Teoria della Programmazione Lineare p. 39/8

40 Continua Caso 3.4 S ott è costituito da un insieme infinito e illimitato di punti. max x 1 x 2 x 1 + x 2 0 x 1 x 2 1 x 2 1 x 1,x 2 0 Teoria della Programmazione Lineare p. 40/8

41 Un lemma Lemma Dato un problema di PL in forma canonica, se S ott, allora per ogni raggio estremo r di S a si ha: cr 0. Teoria della Programmazione Lineare p. 41/8

42 Dimostrazione Per assurdo supponiamo esista un raggio estremo r tale che cr > 0 S ott S a. Sia x 0 S a. Per definizione di raggio avremo che λ 0 : x 0 + λr S a. Valore funzione obiettivo in punti x 0 + λr: c(x 0 + λr) = cx 0 + λ cr }{{} >0 }{{} + λ + Allora S ott = in quanto l obiettivo è illimitato sulla regione ammissibile, il che contraddice S ott. Teoria della Programmazione Lineare p. 42/8

43 Teorema fondamentale della PL Teorema Dato un problema di PL in forma canonica, se S ott, allora S ott contiene almeno un vertice di S a. Teoria della Programmazione Lineare p. 43/8

44 Dimostrazione Siano v 1,...,v k i vertici di S a e, nel caso in cui S a sia un poliedro illimitato, indichiamo con r 1,...,r h i raggi estremi di S a. Se S ott, sia x S ott. Per assurdo supponiamo che v 1,...,v k S ott da cui: cv i < cx i = 1,...,k Teoria della Programmazione Lineare p. 44/8

45 Continua Per il teorema di rappresentazione di S a, x S a implica che λ 1,...,λ k 0, k i=1 λ i = 1, µ 1,...,µ h 0 tali che Quindi: x = cx = c k h λ iv i + µ jr j. i=1 j=1 k h λ iv i + µ jr j i=1 j=1 Teoria della Programmazione Lineare p. 45/8

46 Continua Per la linearità della funzione obiettivo cx = k λ i(cv i ) + h µ j(cr j ). i=1 j=1 Dal lemma precedente: cr j 0 j = 1,...,h. Teoria della Programmazione Lineare p. 46/8

47 Continua Quindi: da cui: cx = k λ i(cv i ) + i=1 cx h j=1 µ j }{{} 0 k λ i(cv i ). i=1 (cr j ). }{{} 0 Teoria della Programmazione Lineare p. 47/8

48 Continua Da cv i < cx, i segue che: cx k i=1 λ i (cv i ) < }{{} <cx k i=1 λ i(cx ). NB: lo strettamente minore vale perchè almeno uno dei λ i è strettamente positivo in quanto la loro somma deve essere pari a 1. Quindi: cx < (cx ) k λ i = cx. i=1 il che è assurdo. Teoria della Programmazione Lineare p. 48/8

49 Un commento Il teorema fondamentale della PL è alla base della procedura di risoluzione che descriveremo, l algoritmo del simplesso. Infatti, tale algoritmo ricerca la soluzione ottima cercando di spostarsi ad ogni iterazione in modo intelligente da un vertice all altro di S a. Per modo intelligente si intende che l algoritmo tenta di spostarsi ad una data iterazione da un vertice a uno con valore della funzione obiettivo maggiore. Teoria della Programmazione Lineare p. 49/8

50 I problemi di PL in forma standard I problemi di PL in forma standard hanno la seguente formulazione: max cx a i x = b i x 0 i = 1,...,m o, equivalentemente, in forma matriciale: max cx Ax = b x 0 Teoria della Programmazione Lineare p. 50/8

51 Un osservazione Osservazione Ogni problema di PL in forma canonica può essere trasformato in uno equivalente in forma standard. Teoria della Programmazione Lineare p. 51/8

52 Dimostrazione Problema di PL in forma canonica max cx a i x b i x 0 i = 1,...,m a i x b i a i x + y i = b i, y i 0. Quindi, il problema di PL in forma canonica è equivalente al seguente: max cx a i x + y i = b i x 0 y i 0 i = 1,...,m i = 1,...,m che è in forma standard. Teoria della Programmazione Lineare p. 52/8

53 Continua Ogni problema di PL può essere ricondotto ad uno equivalente in forma canonica. Ogni problema in forma canonica può essere ricondotto ad uno equivalente in forma standard. Quindi: ogni problema di PL può essere ricondotto ad uno equivalente in forma standard. NB: nella pratica si passa direttamente da un problema di PL in forma generica ad uno equivalente in forma standard, senza passare necessariamente attraverso un problema in forma canonica. Teoria della Programmazione Lineare p. 53/8

54 Un esempio Si trasformi il seguente problema di PL in forma generica in un problema di PL in forma standard min x 1 + x 2 + x 3 x 1 + 2x 2 x 3 3 x 1 + 4x 2 + 5x 3 = 5 x 1 2x 2 + x 3 3 x 1 0 x 2 0 x 3 libera in segno Teoria della Programmazione Lineare p. 54/8

55 Ipotesi aggiuntiva Si richiede che la matrice dei vincoli A R m n abbia rango (= numero di righe linearmente indipendenti = numero di colonne linearmente indipendenti) pari a m, il numero delle sue righe, il che equivale a richiedere che: non ci sono righe di A ottenibili come combinazioni lineari di altre righe di A; esistono m colonne della matrice A che formano una matrice quadrata invertibile. NB: Si può dimostrare che anche questa non è una condizione restrittiva e che ci si può sempre ricondurre ad essa. Teoria della Programmazione Lineare p. 55/8

56 Esempi A 1 = Rango di A 1 < m = 3 A 2 = [ ] Rango di A 2 = m = 2 Teoria della Programmazione Lineare p. 56/8

57 Base di un problema di PL Si definisce base di un problema di PL in forma standard un sottinsieme: B = {x i1,...,x im } di m delle n variabili del problema di PL con la proprietà che la matrice A B R m m ottenuta considerando le sole colonne di A relative alle variabili x ik, k = 1,...,m, sia invertibile. Le variabili dell insieme B verranno dette variabili in base, quelle al di fuori di B verranno raggruppate nell insieme: N = {x im+1,...,x in } e verranno dette variabili fuori base. Teoria della Programmazione Lineare p. 57/8

58 Un esempio Dato max 3x 1 + 4x 2 + 2x 3 + 2x 4 + x 5 x 1 + 2x 2 + 2x 3 + x 4 x 5 = 2 x 1 + 2x 2 + x 3 + 4x 4 2x 5 = 2 x 1,x 2,x 3,x 4,x 5 0 Matrice dei vincoli A = [ ] Teoria della Programmazione Lineare p. 58/8

59 Continua B 1 = {x 1,x 2 } non è una base. Infatti [ ] 1 2 A B1 = non è invertibile 1 2 Invece, B 2 = {x 1,x 3 } è una base in quanto: [ ] 1 2 A B2 = è invertibile 1 1 Allo stesso modo si verifichi che B 3 = {x 3,x 4 } e B 4 = {x 4,x 5 } sono basi. Teoria della Programmazione Lineare p. 59/8

60 Riformulazione rispetto alla base B Data una base B, indichiamo con: x B R m il vettore delle variabili in base x N R n m il vettore delle variabili fuori base c B R m il vettore dei costi relativi alle variabili in base c N R n m il vettore dei costi relativi alle variabili fuori base A N R m (n m) la matrice ottenuta da A considerando le sole colonne relative alle variabili fuori base. Teoria della Programmazione Lineare p. 60/8

61 Nell esempio Con la base B = {x 1,x 3 } abbiamo: x B = (x 1 x 3 ) x N = (x 2 x 4 x 5 ) c B = (3 2) c N = (4 2 1) A N = [ ] Teoria della Programmazione Lineare p. 61/8

62 Riscrittura della riformulazione Possiamo ora riscrivere il problema di PL in forma standard nella seguente forma equivalente: max c B x B + c N x N A B x B + A N x N = b x B,x N 0 e quindi anche in questo modo: max c B x B + c N x N A B x B = b A N x N x B,x N 0 Teoria della Programmazione Lineare p. 62/8

63 Nell esempio max c B x B {}}{ 3x 1 + 2x 3 + c N x N {}}{ 4x 2 + 2x 4 + x 5 A B x B {}}{ x 1 + 2x 3 + A N x N {}}{ 2x 2 + x 4 x 5 = 2 x 1 + x 3 + 2x 2 + 4x 4 2x 5 = 2 x 1,x }{{} 3,x 2,x 4,x 5 0 }{{} x B x N Teoria della Programmazione Lineare p. 63/8

64 E quindi... max c B x B {}}{ 3x 1 + 2x 3 + A B x B {}}{ x 1 + 2x 3 = c N x N {}}{ 4x 2 + 2x 4 + x 5 b A N x N {}}{ 2 2x 2 x 4 + x 5 x 1 + x 3 = 2 2x 2 4x 4 + 2x 5 x 1,x }{{} 3,x 2,x 4,x 5 0 }{{} x B x N Teoria della Programmazione Lineare p. 64/8

65 Continua Moltiplichiamo ora i vincoli di uguaglianza per A 1 B : max c B x B + c N x N A 1 B A Bx B = A 1 B b A 1 B A Nx N x B,x N 0 e quindi da A 1 B A Bx B = Ix B = x B max c B x B + c N x N x B = A 1 B b A 1 B A Nx N x B,x N 0 Questo equivale a risolvere il sistema dato dai vincoli di uguaglianza considerando la variabili in base come incognite del sistema e quelle fuori base come parametri. Teoria della Programmazione Lineare p. 65/8

66 Nell esempio max 3x 1 + 2x 3 + 4x 2 + 2x 4 + x 5 x 1 = 2 2x 2 7x 4 + 3x 5 x 3 = 0 + 3x 4 x 5 x 1,x 3,x 2,x 4,x 5 0 Teoria della Programmazione Lineare p. 66/8

67 Riformulazione rispetto alla base B Infine, sostituendo x B nell obiettivo: da cui: c B x B + c N x N = c B ( A 1 B b A 1 B A Nx N ) + cn x N max c B A 1 B b + (c N c B A 1 B A N)x N x B = A 1 B b A 1 B A Nx N x B,x N 0 Questa riformulazione viene detta riformulazione del problema di PL rispetto alla base B. NB: tale riformulazione è del tutto equivalente al problema originario di PL. Teoria della Programmazione Lineare p. 67/8

68 Nell esempio Riformulazione rispetto alla base B = {x 1,x 3 }: max 6 2x 2 13x 4 + 8x 5 x 1 = 2 2x 2 7x 4 + 3x 5 x 3 = 0 + 3x 4 x 5 x 1,x 3,x 2,x 4,x 5 0 Teoria della Programmazione Lineare p. 68/8

69 Soluzioni di base Si definisce soluzione di base associata alla base B, la seguente soluzione del sistema di vincoli di uguaglianza ottenuta ponendo x N = 0: Nell esempio: x B = A 1 B b x N = 0. x 1 = 2 x 3 = 0 x 2 = x 4 = x 5 = 0 Teoria della Programmazione Lineare p. 69/8

70 Ammissibilità e non degenerazione Se A 1 B b 0 la soluzione di base si dice ammissibile. Questo vuol dire che appartiene alla regione ammissibile del problema di PL in quanto, oltre a soddisfare i vincoli di uguaglianza del problema, soddisfa anche quelli di non negatività delle variabili. Se inoltre si ha A 1 B b > 0 si parla di soluzione di base non degenere, altrimenti si parla di soluzione di base degenere. Teoria della Programmazione Lineare p. 70/8

71 Nell esempio B 2 = {x 1,x 3 } soluzione di base ammissibile e degenere B 3 = {x 3,x 4 }: la soluzione di base è x 3 = 6/7 x 4 = 2/7 x 1 = x 2 = x 5 = 0, che è ammissibile e non degenere B 4 = {x 4,x 5 }: la soluzione di base è x 4 = 1 x 5 = 3 x 1 = x 2 = x 3 = 0, che è non ammissibile. Teoria della Programmazione Lineare p. 71/8

72 Osservazione Data una soluzione di base ammissibile e non degenere esiste un unica base che la rappresenta, mentre una soluzione di base ammissibile e degenere è rappresentata da più basi. Si verifichi, ad esempio, che la base B 5 = {x 1,x 4 } ha come soluzione di base associata: x 1 = 2 x 4 = 0 x 2 = x 3 = x 5 = 0, che è la stessa associata alla base B 2. Teoria della Programmazione Lineare p. 72/8

73 Ma cosa hanno a che fare le basi e le soluzioni di base con il teorema fondamentale della PL? La risposta ci viene dalla seguente osservazione. Osservazione L insieme dei vertici di S a coincide con l insieme delle soluzioni di base ammissibili del problema di PL. In pratica, vertici e di soluzioni di base ammissibili sono la stessa cosa vista da due punti di vista diversi: quello geometrico (i vertici) e quello algebrico (le soluzioni di base ammissibili). Teoria della Programmazione Lineare p. 73/8

74 Basi adiacenti Due basi B e B si definiscono adiacenti se hanno m 1 variabili uguali e differiscono per una sola variabile. Nell esempio le basi B 3 = {x 3,x 4 } e B 4 = {x 4,x 5 } sono adiacenti, mentre non lo sono B 2 = {x 1,x 3 } e B 4. Teoria della Programmazione Lineare p. 74/8

75 Soluzioni di base adiacenti Due soluzioni di base distinte si definiscono adiacenti se esistono due basi B e B che le rappresentano e che sono tra loro adiacenti. Si noti che due basi adiacenti non corrispondono necessariamente a due soluzioni di base adiacenti. Esse infatti possono corrispondere alla stessa soluzione di base come accade, ad esempio, con le basi B 2 = {x 1,x 3 } e B 5 = {x 1,x 4 }. Teoria della Programmazione Lineare p. 75/8

76 Riformulazione rispetto alla base B Sia data la base: con B = {x i1,...,x im }. N = {x im+1,...,x in } l insieme delle variabili fuori base. Abbiamo visto che, data la base B, la riformulazione del problema di PL rispetto alla base B è data da max c B A 1 B b + (c N c B A 1 B A N)x N x B = A 1 B b A 1 B A Nx N x B,x N 0 Teoria della Programmazione Lineare p. 76/8

77 Continua Indichiamo con: γ 0 il valore c B A 1 B b; γ j, j = 1,...,n m, le componenti del vettore c N c B A 1 B A N; β r, r = 1,...,m, le componenti del vettore A 1 B b; α rj, r = 1,...,m, j = 1,...,n m, le componenti della matrice A 1 B A N Teoria della Programmazione Lineare p. 77/8

78 Continua In forma scalare possiamo riscrivere la riformulazione rispetto alla base B nel seguente modo: max γ 0 + n m j=1 γ jx im+j x i1 = β 1 + n m j=1 α 1jx im+j x ik = β k + n m j=1 α kjx im+j x im = β m + n m j=1 α mjx im+j x 1,...,x n 0 Teoria della Programmazione Lineare p. 78/8

79 Nell esempio Riformulazione rispetto alla base B 2 = {x 1,x 3 }: max 6 2x 2 13x 4 + 8x 5 x 1 = 2 2x 2 7x 4 + 3x 5 x 3 = 0 + 3x 4 x 5 x 1,x 3,x 2,x 4,x 5 0 Teoria della Programmazione Lineare p. 79/8

80 Passaggio ad una base adiacente Supponiamo ora di voler passare dalla base B alla base adiacente B ottenuta rimuovendo da B la variabile x ik, 1 k m, e sostituendola con la variabile fuori base x im+h, 1 h n m, ovvero: B = {x i1,...,x ik 1,x im+h,x ik+1,...,x im }. La prima domanda che ci dobbiamo porre è : quando B è effettivamente una base. Perché lo sia si deve avere che A B è invertibile. Teoria della Programmazione Lineare p. 80/8

81 Continua Si ha che A B è invertibile e quindi B è una base se e solo se nella riformulazione associata alla base B il coefficiente di x im+h nell equazione relativa a x ik è diverso da 0, ovvero se e solo se: α kh 0. Nell esempio: {x 1,x 2 } non è una base {x 1,x 5 } è una base Teoria della Programmazione Lineare p. 81/8

82 L operazione di cardine Tale operazione consente di passare dalla riformulazione rispetto alla base B a quella rispetto alla base adiacente B. Per fare questo dovremo compiere le seguenti operazioni. Ricavare x im+h dall equazione relativa a x ik, cioè: x im+h = β k α kh + 1 α kh x ik n m j=1, j h α kj α kh x im+j. sostituire ogni occorrenza della variabile x im+h nelle restanti equazioni e nell obiettivo con la parte destra di tale equazione Teoria della Programmazione Lineare p. 82/8

83 Esempio Dalla riformulazione rispetto a B 2 = {x 1,x 3 } a quella rispetto a B 6 = {x 1,x 5 } Ricavo x 5 dall equazione relativa a x 3 x 5 = 0 x 3 + 3x 4 Sostituisco la parte destra dell equazione nei restanti vincoli e nell obiettivo max 6 2x 2 13x 4 + 8(0 x 3 + 3x 4 ) x 1 = 2 2x 2 7x 4 + 3(0 x 3 + 3x 4 ) x 5 = 0 x 3 + 3x 4 x 1,x 3,x 2,x 4,x 5 0 Teoria della Programmazione Lineare p. 83/8

84 Riformulazione rispetto a B 6 = {x 1, x 5 } max 6 2x 2 8x x 4 x 1 = 2 2x 2 + 2x 4 3x 3 x 5 = 0 x 3 + 3x 4 x 1,x 3,x 2,x 4,x 5 0 Teoria della Programmazione Lineare p. 84/8

85 Nota bene Per poter recuperare dalle riformulazioni alcune informazioni (nel seguito vedremo, ad esempio, come sfruttare la riformulazione rispetto a una base B per poter ottenere la matrice A 1 B ) è necessario mantenere un ordine tra le variabili in una base. Quindi se nella base B la variabile x im+h sostituisce la variabile x ik a cui corrisponde la k-esima equazione della riformulazione rispetto a B, nella riformulazione rispetto a B l equazione relativa alla variabile x im+h dovrà ancora essere la k-esima, mentre la posizione delle equazioni relative a tutte le altre variabili deve rimanere invariata rispetto alla precedente riformulazione. Teoria della Programmazione Lineare p. 85/8

86 Nell esempio la variabile x 5 ha preso il posto della x 3 e l equazione relativa alla x 5 è stata messa nella stessa posizione (la seconda) in cui si trovava quella della x 3, mentre la restante equazione ha mantenuto la posizione originaria. Teoria della Programmazione Lineare p. 86/8

87 Un altro esempio Passaggio da B 6 = {x 1,x 5 } a B 4 = {x 4,x 5 } Ricavo x 4 dall equazione relativa a x 1 x 4 = 1 + 1/2x 1 + x 2 + 3/2x 3 Sostituisco la parte destra dell equazione nei restanti vincoli e nell obiettivo max 6 2x 2 8x ( 1 + 1/2x 1 + x 2 + 3/2x 3 ) x 4 = 1 + 1/2x 1 + x 2 + 3/2x 3 x 5 = 0 x 3 + 3( 1 + 1/2x 1 + x 2 + 3/2x 3 ) x 1,x 3,x 2,x 4,x 5 0 Teoria della Programmazione Lineare p. 87/8

88 Continua Riformulazione rispetto a B 4 = {x 4,x 5 }: max /2x 1 + 9x /2x 3 x 4 = 1 + 1/2x 1 + x 2 + 3/2x 3 x 5 = 3 + 3/2x 1 + 3x 2 + 7/2x 3 x 1,x 3,x 2,x 4,x 5 0 Teoria della Programmazione Lineare p. 88/8

89 Nota bene Le operazioni di cardine che abbiamo eseguito sugli esempi ci hanno consentito di passare da una base ad una adiacente e, nel secondo esempio, anche da una soluzione di base ad una adiacente. Tuttavia, nel secondo caso siamo passati da una soluzione di base ammissibile (quella associata a B 6 ) ad una non ammissibile (quella associata a B 4 ). Nell algoritmo di risoluzione che ci apprestiamo a discutere la scelta della base adiacente verso cui muoversi non verrà fatta a caso come abbiamo fatto nei precedenti esempi, ma sarà guidata da regole precise che fondamentalmente ci consentiranno di spostarsi tra vertici della regione ammissibile migliorando il valore della funzione obiettivo. Teoria della Programmazione Lineare p. 89/8

Ricerca Operativa. Ricerca Operativa p. 1/6

Ricerca Operativa. Ricerca Operativa p. 1/6 Ricerca Operativa Ricerca Operativa p. 1/6 Ricerca Operativa Disciplina basata sulla modellizzazione e la risoluzione tramite strumenti automatici di problemi di decisione complessi. In tali problemi la

Dettagli

Il metodo del simplesso. Il metodo del simplesso p. 1/127

Il metodo del simplesso. Il metodo del simplesso p. 1/127 Il metodo del simplesso Il metodo del simplesso p. 1/127 I problemi di PL in forma standard I problemi di PL in forma standard hanno la seguente formulazione: max cx a i x = b i x 0 i = 1,...,m o, equivalentemente,

Dettagli

Appunti per il corso di Ricerca Operativa 1

Appunti per il corso di Ricerca Operativa 1 Appunti per il corso di Ricerca Operativa 1 Capitolo 1 Introduzione La prima domanda da porsi riguarda gli scopi che si prefigge la Ricerca Operativa. Possiamo definirla come uno strumento per prendere

Dettagli

Il metodo del simplesso. Il metodo del simplesso p. 1/12

Il metodo del simplesso. Il metodo del simplesso p. 1/12 Il metodo del simplesso Il metodo del simplesso p. 1/12 I problemi di PL in forma standard I problemi di PL in forma standard hanno la seguente formulazione: max cx a i x = b i x 0 i = 1,...,m o, equivalentemente,

Dettagli

Geometria della programmazione lineare

Geometria della programmazione lineare Geometria della programmazione lineare poliedri punti estremi, vertici, soluzioni di base esistenza di punti estremi rif. Fi 3.1; BT 2.1, 2.2, 2.5 Iperpiani, semispazi Definizione Sia a un vettore non

Dettagli

Programmazione Lineare

Programmazione Lineare Programmazione Lineare Andrea Scozzari a.a. 2012-2013 March 14, 2013 Andrea Scozzari (a.a. 2012-2013) Programmazione Lineare March 14, 2013 1 / 18 Metodo del Simplesso Dato un problema di PL in forma standard

Dettagli

PROGRAMMAZIONE LINEARE E DUALITA'

PROGRAMMAZIONE LINEARE E DUALITA' PROGRAMMAZIONE LINEARE E DUALITA' 1) Dati i punti di R 2 (1, 2), (1, 4), (2, 3), (3, 5), (4, 1), (4, 2), (5, 5), (6, 2), (6, 5). Determinare graficamente: A - L'involucro convesso di tali punti. B - Quali

Dettagli

Il metodo del simplesso. Il metodo del simplesso p. 1/8

Il metodo del simplesso. Il metodo del simplesso p. 1/8 Il metodo del simplesso Il metodo del simplesso p. 1/8 Ipotesi iniziale Data la base B e la riformulazione rispetto a essa: max γ 0 + n m j=1 γ jx im+j x i1 = β 1 + n m j=1 α 1jx im+j x ik = β k + n m

Dettagli

Metodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte I)

Metodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte I) Metodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte I) Luigi De Giovanni Giacomo Zambelli 1 Problemi di programmazione lineare Un problema

Dettagli

Soluzione dei Problemi di Programmazione Lineare

Soluzione dei Problemi di Programmazione Lineare Soluzione dei Problemi di Programmazione Lineare Consideriamo un problema di Programmazione Lineare (PL) con m vincoli ed n variabili in Forma Standard dove: ma 0 c A b ( ) 0 ( 2) R è il vettore n delle

Dettagli

Programmazione Lineare Intera. Programmazione Lineare Intera p. 1/4

Programmazione Lineare Intera. Programmazione Lineare Intera p. 1/4 Programmazione Lineare Intera Programmazione Lineare Intera p. 1/4 Programmazione Lineare Intera Problema di PLI in forma standard: max cx Ax = b x 0, x I n I insieme degli interi. Regione ammissibile:

Dettagli

4.5 Metodo del simplesso

4.5 Metodo del simplesso 4.5 Metodo del simplesso min z = c T x s.v. Ax = b x PL in forma standard Esamina una sequenza di soluzioni di base ammissibili con valori non crescenti della funzione obiettivo fino a raggiungerne una

Dettagli

Algoritmo del Simplesso

Algoritmo del Simplesso Algoritmo del Simplesso Renato Bruni bruni@dis.uniroma.it Univertà di Roma Sapienza Corso di Ricerca Operativa, Corso di Laurea Ingegneria dell Informazione Vertici e Punti Estremi di un Poliedro Un poliedro

Dettagli

Geometria della Programmazione Lineare

Geometria della Programmazione Lineare Capitolo 2 Geometria della Programmazione Lineare In questo capitolo verranno introdotte alcune nozioni della teoria dei poliedri che permetteranno di cogliere gli aspetti geometrici della Programmazione

Dettagli

1 Modelli di Programmazione Lineare

1 Modelli di Programmazione Lineare 1 Modelli di Programmazione Lineare La prima domanda da porsi riguarda gli scopi che si prefigge la Ricerca Operativa. Possiamo definirla come uno strumento per prendere delle decisioni che siano le migliori

Dettagli

Introduzione al Metodo del Simplesso. 1 Soluzioni di base e problemi in forma standard

Introduzione al Metodo del Simplesso. 1 Soluzioni di base e problemi in forma standard Introduzione al Metodo del Simplesso Giacomo Zambelli 1 Soluzioni di base e problemi in forma standard Consideriamo il seguente problema di programmazione lineare (PL), relativo all esempio di produzione

Dettagli

Appunti su Indipendenza Lineare di Vettori

Appunti su Indipendenza Lineare di Vettori Appunti su Indipendenza Lineare di Vettori Claudia Fassino a.a. Queste dispense, relative a una parte del corso di Matematica Computazionale (Laurea in Informatica), rappresentano solo un aiuto per lo

Dettagli

Si consideri il sistema a coefficienti reali di m equazioni lineari in n incognite

Si consideri il sistema a coefficienti reali di m equazioni lineari in n incognite 3 Sistemi lineari 3 Generalità Si consideri il sistema a coefficienti reali di m equazioni lineari in n incognite ovvero, in forma matriciale, a x + a 2 x 2 + + a n x n = b a 2 x + a 22 x 2 + + a 2n x

Dettagli

Programmazione Lineare Intera

Programmazione Lineare Intera Programmazione Lineare Intera Andrea Scozzari a.a. 2012-2013 May 10, 2013 Andrea Scozzari (a.a. 2012-2013) Programmazione Lineare Intera May 10, 2013 1 / 16 Programmazione Lineare Intera: Metodo dei Piani

Dettagli

Elementi di Algebra Lineare Matrici e Sistemi di Equazioni Lineari

Elementi di Algebra Lineare Matrici e Sistemi di Equazioni Lineari Elementi di Algebra Lineare Matrici e Sistemi di Equazioni Lineari Antonio Lanteri e Cristina Turrini UNIMI - 2016/2017 Antonio Lanteri e Cristina Turrini (UNIMI - 2016/2017 Elementi di Algebra Lineare

Dettagli

4.3 Esempio metodo del simplesso

4.3 Esempio metodo del simplesso 4.3 Esempio metodo del simplesso (P ) min -5x 4x 2 3x 3 s.v. 2x + 3x 2 + x 3 5 4x + x 2 + 2x 3 3x + 4x 2 + 2x 3 8 x, x 2, x 3 Per mettere il problema in forma standard si introducono le variabili di scarto

Dettagli

5.4.5 Struttura dell algoritmo ed esempi

5.4.5 Struttura dell algoritmo ed esempi CAPITOLO 5. IL METODO DEL SIMPLESSO 6 5.4.5 Struttura dell algoritmo ed esempi Come abbiamo già ampiamente osservato, la fase II del metodo del simplesso, a partire da una soluzione di base ammissibile,

Dettagli

LEZIONE 3. a + b + 2c + e = 1 b + d + g = 0 3b + f + 3g = 2. a b c d e f g

LEZIONE 3. a + b + 2c + e = 1 b + d + g = 0 3b + f + 3g = 2. a b c d e f g LEZIONE 3 3.. Matrici fortemente ridotte per righe. Nella precedente lezione abbiamo introdotto la nozione di soluzione di un sistema di equazioni lineari. In questa lezione ci poniamo il problema di descrivere

Dettagli

Il metodo del simplesso

Il metodo del simplesso Capitolo 5 Il metodo del simplesso 5. La forma standard Esercizio 5.. Porre il problema di Programmazione Lineare: in forma standard. min x +x + x + x x +x 5 x 4 x, x Si trasformano i vincoli di disuguaglianza

Dettagli

3.6 Metodi basati sui piani di taglio

3.6 Metodi basati sui piani di taglio 3.6 Metodi basati sui piani di taglio Problema generale di Programmazione Lineare Intera (PLI) con A matrice m n e b vettore n 1 razionali min{ c t x : x X = {x Z n + : Ax b} } Sappiamo che esiste una

Dettagli

Risoluzione di sistemi lineari

Risoluzione di sistemi lineari Risoluzione di sistemi lineari Teorema (Rouché-Capelli) Dato il sistema di m equazioni in n incognite Ax = b, con A M at(m, n) b R n x R n [A b] si ha che: matrice dei coefficienti, vettore dei termini

Dettagli

x 1 x 2 x 3 x 5 La base iniziale è B 0 = I e risulta x B 0 = , x N 0 = Iterazione 0. Calcolo dei costi ridotti. γ 0 = c N 0 (N 0 ) T c B 0 =

x 1 x 2 x 3 x 5 La base iniziale è B 0 = I e risulta x B 0 = , x N 0 = Iterazione 0. Calcolo dei costi ridotti. γ 0 = c N 0 (N 0 ) T c B 0 = 56 IL METODO DEL SIMPLESSO 7.4 IL METODO DEL SIMPLESSO In questo paragrafo sono riportati alcuni esercizi risolti sul metodo del simplesso. Alcuni sono risolti utilizzando la procedura di pivot per determinare,

Dettagli

Possibile applicazione

Possibile applicazione p. 1/4 Assegnamento Siano dati due insiemi A e B entrambi di cardinalità n. Ad ogni coppia (a i,b j ) A B è associato un valore d ij 0 che misura la "incompatibilità" tra a i e b j, anche interpretabile

Dettagli

OTTIMIZZAZIONE LINEARE MULTICRITERIO

OTTIMIZZAZIONE LINEARE MULTICRITERIO OTTIMIZZAZIONE LINEARE MULTICRITERIO NOTAZIONE Siano x ed y vettori di R n indicati estesamente con x x x x 1 Μ i Μ n, y y1 Μ yi Μ y n e si ponga N = {1,2,, n}. Scriveremo allora: x y ( x è diverso da

Dettagli

Autovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti)

Autovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti) Autovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti) April 14, 2011 (alcune note non complete sugli argomenti trattati: eventuali completamenti saranno aggiunti)

Dettagli

Il metodo del simplesso

Il metodo del simplesso 7 Il metodo del simplesso Dato un problema di PL è ovviamente necessario, se il modello fatto deve essere di qualche utilità, essere capaci di risolverlo. Nel caso della programmazione lineare si dice

Dettagli

Sistemi compatibili (Il metodo di Fourier-Motzkin) Claudio Arbib Università degli Studi di L Aquila

Sistemi compatibili (Il metodo di Fourier-Motzkin) Claudio Arbib Università degli Studi di L Aquila Sistemi compatibili (Il metodo di Fourier-Motzkin) Claudio Arbib Università degli Studi di L Aquila Sommario Poliedri Poliedri compatibili Diseguaglianzeimplicate Proiezione di un poliedro Definizione

Dettagli

NORMA DI UN VETTORE. Una NORMA VETTORIALE su R n è una funzione. : R n R +

NORMA DI UN VETTORE. Una NORMA VETTORIALE su R n è una funzione. : R n R + NORMA DI UN VETTORE Una NORMA VETTORIALE su R n è una funzione. : R n R + {0}, che associa ad ogni vettore x R n di componenti x i, i = 1,..., n, uno scalare in modo che valgano le seguenti proprietà:

Dettagli

Programmazione Non Lineare

Programmazione Non Lineare Capitolo 1 Programmazione Non Lineare 1.1 Introduzione Un problema di ottimizzazione viene definito come la minimizzazione o la massimizzazione di una funzione a valori reali su un insieme specificato.

Dettagli

Introduzione soft alla matematica per l economia e la finanza. Marta Cardin, Paola Ferretti, Stefania Funari

Introduzione soft alla matematica per l economia e la finanza. Marta Cardin, Paola Ferretti, Stefania Funari Introduzione soft alla matematica per l economia e la finanza Marta Cardin, Paola Ferretti, Stefania Funari Capitolo Sistemi di equazioni lineari.8 Il Teorema di Cramer Si consideri un generico sistema

Dettagli

Teoria della Programmazione Lineare

Teoria della Programmazione Lineare 5 Teoria della Programmazione Lineare In questo capitolo iniziamo lo studio formale dei problemi di Programmazione Lineare e, in particolare, dimostriamo il Teorema fondamentale della Programmazione Lineare.

Dettagli

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n NOTE DI ALGEBRA LINEARE 2- MM 9 NOVEMBRE 2 Combinazioni lineari e generatori Sia K un campo e V uno spazio vettoriale su K Siano v,, v n vettori in V Definizione Un vettore v V si dice combinazione lineare

Dettagli

4 Autovettori e autovalori

4 Autovettori e autovalori 4 Autovettori e autovalori 41 Cambiamenti di base Sia V uno spazio vettoriale tale che dim V n Si è visto in sezione 12 che uno spazio vettoriale ammette basi distinte, ma tutte con la medesima cardinalità

Dettagli

Introduzione alla programmazione lineare

Introduzione alla programmazione lineare Introduzione alla programmazione lineare struttura del problema di PL forme equivalenti rappresentazione e soluzione grafica rif. Fi 1.2; BT 1.1, 1.4 Problema di programmazione lineare Dati: un vettore

Dettagli

3x 2 = 6. 3x 2 x 3 = 6

3x 2 = 6. 3x 2 x 3 = 6 Facoltà di Scienze Statistiche, Algebra Lineare 1 A, GParmeggiani LEZIONE 7 Sistemi lineari Scrittura matriciale di un sistema lineare Def 1 Un sistema di m equazioni ed n incognite x 1, x 2, x n, si dice

Dettagli

Lezione 7: Il Teorema di Rouché-Capelli

Lezione 7: Il Teorema di Rouché-Capelli Lezione 7: Il Teorema di Rouché-Capelli In questa lezione vogliamo rivisitare i sistemi lineari e dare alcuni risultati che ci permettono di determinare dato un sistema lineare se ammette soluzioni e da

Dettagli

Ricerca Operativa Note su Programmazione Lineare e Metodo del Simplesso (parte I)

Ricerca Operativa Note su Programmazione Lineare e Metodo del Simplesso (parte I) Ricerca Operativa Note su Programmazione Lineare e Metodo del Simplesso (parte I) Luigi De Giovanni AVVERTENZA: le note presentate di seguito non hanno alcuna pretesa di completezza, né hanno lo scopo

Dettagli

3. Vettori, Spazi Vettoriali e Matrici

3. Vettori, Spazi Vettoriali e Matrici 3. Vettori, Spazi Vettoriali e Matrici Vettori e Spazi Vettoriali Operazioni tra vettori Basi Trasformazioni ed Operatori Operazioni tra Matrici Autovalori ed autovettori Forme quadratiche, quadriche e

Dettagli

I teoremi della funzione inversa e della funzione implicita

I teoremi della funzione inversa e della funzione implicita I teoremi della funzione inversa e della funzione implicita Appunti per il corso di Analisi Matematica 4 G. Mauceri Indice 1 Il teorema della funzione inversa 1 Il teorema della funzione implicita 3 1

Dettagli

LEZIONE 4. { x + y + z = 1 x y + 2z = 3

LEZIONE 4. { x + y + z = 1 x y + 2z = 3 LEZIONE 4 4.. Operazioni elementari di riga. Abbiamo visto, nella precedente lezione, quanto sia semplice risolvere sistemi di equazioni lineari aventi matrice incompleta fortemente ridotta per righe.

Dettagli

Spazi vettoriali euclidei.

Spazi vettoriali euclidei. Spazi vettoriali euclidei Prodotto scalare, lunghezza e ortogonalità in R n Consideriamo lo spazio vettoriale R n = { =,,, n R}, n con la somma fra vettori e il prodotto di un vettore per uno scalare definiti

Dettagli

Registro Lezioni di Algebra lineare del 15 e 16 novembre 2016.

Registro Lezioni di Algebra lineare del 15 e 16 novembre 2016. Registro Lezioni di Algebra lineare del 15 e 16 novembre 2016 Di seguito si riporta il riassunto degli argomenti svolti; i riferimenti sono a parti del Cap8 Elementi di geometria e algebra lineare Par5

Dettagli

MATRICI E SISTEMI LINEARI

MATRICI E SISTEMI LINEARI 1 Rappresentazione di dati strutturati MATRICI E SISTEMI LINEARI Gli elementi di una matrice, detti coefficienti, possono essere qualsiasi e non devono necessariamente essere omogenei tra loro; di solito

Dettagli

Soluzione dei problemi di Programmazione Lineare Intera

Soluzione dei problemi di Programmazione Lineare Intera Fondamenti di Ricerca Operativa T-A a.a. 2014-2015 Soluzione dei problemi di Programmazione Lineare Intera Andrea Lodi, Enrico Malaguti, Daniele Vigo rev. 1.1.a ottobre 2014 Fondamenti di Ricerca Operativa

Dettagli

Esercizi svolti. delle matrici

Esercizi svolti. delle matrici Esercizi svolti. astratti. Si dica se l insieme delle coppie reali (x, y) soddisfacenti alla relazione x + y è un sottospazio vettoriale di R La risposta è sì, perchè l unica coppia reale che soddisfa

Dettagli

Geometria e Topologia I (U1-4) 2006-mag-10 61

Geometria e Topologia I (U1-4) 2006-mag-10 61 Geometria e Topologia I (U1-4) 2006-mag-10 61 (15.9) Teorema. Consideriamo il piano affine. Se A A 2 (K) è un punto e r una retta che non passa per A, allora esiste unica la retta per A che non interseca

Dettagli

5.3 Metodo dei piani di taglio

5.3 Metodo dei piani di taglio 5.3 Metodo dei piani di taglio (PLI) min s.v. c T x Ax b x interi X Ipotesi: a ij, c j e b i interi Osservazione: La regione ammissibile di un PLI può essere descritta mediante dei vincoli più o meno stringenti

Dettagli

COMPITO DI RICERCA OPERATIVA. max x 1 + x 2 x 1 2x 2 + x 3 = 4 x 1 x 2 x 3 = 3 x 2 + 2x 3 = 1 x 1, x 2, x 3 0

COMPITO DI RICERCA OPERATIVA. max x 1 + x 2 x 1 2x 2 + x 3 = 4 x 1 x 2 x 3 = 3 x 2 + 2x 3 = 1 x 1, x 2, x 3 0 COMPITO DI RICERCA OPERATIVA ESERCIZIO. (5 punti) Sia dato il seguente problema di PL: max x + x 2 x 2x 2 + x 3 = 4 x x 2 x 3 = 3 x 2 + 2x 3 = x, x 2, x 3 0 Utilizzando il metodo due fasi, si stablisca

Dettagli

Teoria della Programmazione Lineare Intera

Teoria della Programmazione Lineare Intera 0 Teoria della Programmazione Lineare Intera 0. INTRODUZIONE Come visto precedentemente, molti problemi particolarmente importanti dal punto di vista applicativo sono riconducibili alla soluzione di un

Dettagli

Università Ca Foscari Venezia

Università Ca Foscari Venezia Università Ca Foscari Venezia Dipartimento di Scienze Ambientali, Informatica e Statistica Giovanni Fasano Brevi FAQ sul Metodo del SIMPLESSO Università Ca Foscari Venezia, Dipartimento di Management,

Dettagli

Sistemi lineari - Parte Seconda - Esercizi

Sistemi lineari - Parte Seconda - Esercizi Sistemi lineari - Parte Seconda - Esercizi Terminologia Operazioni elementari sulle righe. Equivalenza per righe. Riduzione a scala per righe. Rango di una matrice. Forma canonica per righe. Eliminazione

Dettagli

Convergenza del Simplesso e regole anti-ciclaggio

Convergenza del Simplesso e regole anti-ciclaggio Convergenza del Simplesso e regole anti-ciclaggio degenerazione e ciclaggio un esempio di ciclaggio regole anti-ciclaggio rif. Fi 3.2.6, BT 3.4 (Esempio 3.6), BT 3.7; Sulla convergenza del metodo del simplesso

Dettagli

TEORIA della DUALITÀ. Una piccola introduzione. Ricerca Operativa. Prof. R. Tadei. Politecnico di Torino. Teoria della Dualità / 1.

TEORIA della DUALITÀ. Una piccola introduzione. Ricerca Operativa. Prof. R. Tadei. Politecnico di Torino. Teoria della Dualità / 1. Prof. R. adei EORIA della DUALIÀ Una piccola introduzione R. adei 1 R. adei 2 EORIA DELLA DUALIA' Il concetto di dualità fu introdotto nel 1947 da Von Neumann, anche se il teorema della dualità fu formulato

Dettagli

Introduzione al Metodo agli Elementi Finiti (FEM) (x, y) Γ Tale formulazione viene detta Formulazione forte del problema.

Introduzione al Metodo agli Elementi Finiti (FEM) (x, y) Γ Tale formulazione viene detta Formulazione forte del problema. Introduzione al Metodo agli Elementi Finiti (FEM) Consideriamo come problema test l equazione di Poisson 2 u x 2 + 2 u = f(x, y) u = f y2 definita su un dominio Ω R 2 avente come frontiera la curva Γ,

Dettagli

1 Il metodo dei tagli di Gomory

1 Il metodo dei tagli di Gomory Il metodo dei tagli di Gomory Esercizio Sia dato il problema min(x x ) x + x (P 0 ) x + x x, x 0, interi. Calcolare la soluzione ottima applicando il metodo dei tagli di Gomory. Risoluzione Per applicare

Dettagli

Operazioni tra matrici e n-uple

Operazioni tra matrici e n-uple CAPITOLO Operazioni tra matrici e n-uple Esercizio.. Date le matrici 0 4 e dati λ = 5, µ =, si calcoli AB, BA, A+B, B A, λa+µb. Esercizio.. Per ognuna delle seguenti coppie di matrici A, B e scalari λ,

Dettagli

1) Hamming bound, coset, codici equivalenti

1) Hamming bound, coset, codici equivalenti Argomenti della Lezione ) Hamming bound, coset, codici equivalenti 2) Esercizi sui codici lineari a blocchi Osservazione () Per effettuare la decodifica a rivelazione di errore si può seguire una delle

Dettagli

Definizione 1. Una matrice n m a coefficienti in K é una tabella del tipo. ... K m, detto vettore riga i-esimo, ed a im

Definizione 1. Una matrice n m a coefficienti in K é una tabella del tipo. ... K m, detto vettore riga i-esimo, ed a im APPUNTI ed ESERCIZI su matrici, rango e metodo di eliminazione di Gauss Corso di Laurea in Chimica, Facoltà di Scienze MM.FF.NN., UNICAL (Dott.ssa Galati C.) Rende, 23 Aprile 2010 Matrici, rango e metodo

Dettagli

Figura 1: 1) Si scriva la formulazione del problema come problema di PLI (con un numero minimo di vincoli) e la matrice dei vincoli.

Figura 1: 1) Si scriva la formulazione del problema come problema di PLI (con un numero minimo di vincoli) e la matrice dei vincoli. ESERCIZIO 1 Sia dato il grafo orientato in Figura 1. Si consideri il problema di flusso a 1 2 4 Figura 1: costo minimo su tale grafo con b 1 = 4 b 2 = 2 b = b 4 = e c 12 = 2 c 1 = 4 c 14 = 1 c 2 = 1 c

Dettagli

LEZIONE 2. ( ) a 1 x 1 + a 2 x a n x n = b, ove a j, b R sono fissati.

LEZIONE 2. ( ) a 1 x 1 + a 2 x a n x n = b, ove a j, b R sono fissati. LEZIONE 2 2 Sistemi di equazioni lineari Definizione 2 Un equazione lineare nelle n incognite x, x 2,, x n a coefficienti reali, è un equazione della forma (2 a x + a 2 x 2 + + a n x n = b, ove a j, b

Dettagli

Esercitazione 6 - Soluzione

Esercitazione 6 - Soluzione Anno Accademico 28-29 Corso di Algebra Lineare e Calcolo Numerico per Ingegneria Meccanica Esercitazione 6 - Soluzione Immagine, nucleo. Teorema di Rouché-Capelli. Esercizio Sia L : R 3 R 3 l applicazione

Dettagli

Costi ridotti e ottimalità

Costi ridotti e ottimalità Costi ridotti e ottimalità condizione sufficiente di ottimalità spostamento su una base adiacente rif. Fi 3.2; Ricapitolando Sin qui abbiamo un algoritmo enumerativo applicabile quando P è un ( politopo,

Dettagli

ESERCIZI SULLE MATRICI

ESERCIZI SULLE MATRICI ESERCIZI SULLE MATRICI Consideriamo il sistema lineare a, x + a, x + + a,n x n = b a, x + a, x + + a,n x n = b a m, x + a m, x + + a m,n x n = b m di m equazioni in n incognite che ha a, a,n A = a m, a

Dettagli

L ALGORITMO DEL SIMPLESSO REVISIONATO

L ALGORITMO DEL SIMPLESSO REVISIONATO L ALGORITMO DEL SIMPLESSO REVISIONATO L'algoritmo del simplesso revisionato costituisce una diversa implementazione dell algoritmo standard tesa a ridurre, sotto certe condizioni, il tempo di calcolo e

Dettagli

Programmazione Lineare Intera: Piani di Taglio

Programmazione Lineare Intera: Piani di Taglio Programmazione Lineare Intera: Piani di Taglio Andrea Scozzari a.a. 2014-2015 April 22, 2015 Andrea Scozzari (a.a. 2014-2015) Programmazione Lineare Intera: Piani di Taglio April 22, 2015 1 / 23 Programmazione

Dettagli

La notazione usata è quella usuale nel caso scalare, ed è estesa al caso generale. Consideriamo una forma quadratica:

La notazione usata è quella usuale nel caso scalare, ed è estesa al caso generale. Consideriamo una forma quadratica: . SU ALCUNI OPERAORI DI DERIVAZIONE Alcune operazioni tipiche dell analisi matematica hanno un diretto riscontro in termini matriciali. Consideriamo ad esempio una forma lineare: f() l l + l +..l n n ;

Dettagli

Problemi di flusso a costo minimo

Problemi di flusso a costo minimo p. 1/7 Problemi di flusso a costo minimo È data una rete (grafo orientato e connesso) G = (V,A). (i,j) A c ij, costo di trasporto unitario lungo l arco (i, j). i V b i interi e tali che i V b i = 0. p.

Dettagli

Corso di Matematica Applicata A.A

Corso di Matematica Applicata A.A Corso di Matematica Applicata A.A. 2012-2013 Programmazione lineare (II parte) Prof.ssa Bice Cavallo Soluzione di un problema PL Soluzione ottima Variabili slack e surplus A R mxn Ax b s R m, s i 0 : Ax

Dettagli

a + 2b + c 3d = 0, a + c d = 0 c d

a + 2b + c 3d = 0, a + c d = 0 c d SPAZI VETTORIALI 1. Esercizi Esercizio 1. Stabilire quali dei seguenti sottoinsiemi sono sottospazi: V 1 = {(x, y, z) R 3 /x = y = z} V = {(x, y, z) R 3 /x = 4} V 3 = {(x, y, z) R 3 /z = x } V 4 = {(x,

Dettagli

7.5 Il caso vincolato: preliminari

7.5 Il caso vincolato: preliminari 7.5 Il caso vincolato: preliari Consideriamo ora il problema vincolato 3, che qui riscriviamo: fx gx 0 hx = 0, 13 con g : IR n IR p e h : IR n IR m, m n. Ricordiamo che F = {x IR n : gx 0, hx = 0}, denota

Dettagli

Esercizio 1 Trovare, se esistono, le soluzioni del sistema lineare. y + 3z = 3 x y + z = 0. { x + y = 1

Esercizio 1 Trovare, se esistono, le soluzioni del sistema lineare. y + 3z = 3 x y + z = 0. { x + y = 1 Esercizio 1 Trovare, se esistono, le soluzioni del lineare y + 3z = 3 x y + z = 0 x + y = 1 0 1 3 3 1 1 1 0 1 1 1 0 = 0 1 3 3 = 1 1 0 1 1 1 0 1 = 1 1 1 0 0 1 3 3 0 1 1 = Il di partenza è quindi equivalente

Dettagli

Esercizi di Programmazione Lineare - Dualità

Esercizi di Programmazione Lineare - Dualità Esercizi di Programmazione Lineare - Dualità Esercizio n1 Dato il seguente problema 3 + 3 2 2 + a scriverne il duale; b risolvere il duale (anche geometricamente indicando cosa da esso si può dedurre sul

Dettagli

SOTTOSPAZI E OPERAZIONI IN SPAZI DIVERSI DA R n

SOTTOSPAZI E OPERAZIONI IN SPAZI DIVERSI DA R n SPAZI E SOTTOSPAZI 1 SOTTOSPAZI E OPERAZIONI IN SPAZI DIVERSI DA R n Spazi di matrici. Spazi di polinomi. Generatori, dipendenza e indipendenza lineare, basi e dimensione. Intersezione e somma di sottospazi,

Dettagli

Gestione della produzione e della supply chain Logistica distributiva

Gestione della produzione e della supply chain Logistica distributiva Gestione della produzione e della supply chain Logistica distributiva Paolo Detti Dipartimento di Ingegneria dell Informazione e Scienze Matematiche Università di Siena Convergenza dell algoritmo Se non

Dettagli

Si consideri il seguente tableau ottimo di un problema di programmazione lineare

Si consideri il seguente tableau ottimo di un problema di programmazione lineare ESERCIZIO 1 Si consideri il seguente tableau ottimo di un problema di programmazione lineare -25/3 0 4/3 19/6 9/2 0 0 0 7/6 1 0 1-1/2-3/2 1 0 0 3/2 11/3 1-2/3-1/3 0 0 0 0 2/3 2/3 0 1/3 1/6-1/2 0 1 0 7/6

Dettagli

1 Ampliamento del piano e coordinate omogenee

1 Ampliamento del piano e coordinate omogenee 1 Ampliamento del piano e coordinate omogenee Vogliamo dare una idea, senza molte pretese, dei concetti che stanno alla base di alcuni calcoli svolti nella classificazione delle coniche. Supponiamo di

Dettagli

2. ALGORITMO DEL SIMPLESSO

2. ALGORITMO DEL SIMPLESSO . ALGORITMO DEL SIMPLESSO R. Tadei Una piccola introduzione R. Tadei SIMPLESSO L obiettivo del capitolo è quello di fornire un algoritmo, l algoritmo del simplesso, che risolve qualsiasi problema di programmazione

Dettagli

SISTEMI LINEARI, METODO DI GAUSS

SISTEMI LINEARI, METODO DI GAUSS SISTEMI LINEARI, METODO DI GAUSS Abbiamo visto che un sistema di m equazioni lineari in n incognite si può rappresentare in forma matriciale come A x = b dove: A è la matrice di tipo (m, n) dei coefficienti

Dettagli

Sistemi lineari. Lorenzo Pareschi. Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara

Sistemi lineari. Lorenzo Pareschi. Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara Sistemi lineari Lorenzo Pareschi Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara http://utenti.unife.it/lorenzo.pareschi/ lorenzo.pareschi@unife.it Lorenzo Pareschi (Univ. Ferrara)

Dettagli

3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI

3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI 3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI ESISTENZA DI UN PUNTO DI OTTIMO VINCOLATO Il problema di ottimizzazione vincolata introdotto nel paragrafo precedente può essere formulato nel modo seguente:

Dettagli

Metodo delle due fasi

Metodo delle due fasi Metodo delle due fasi Il problema artificiale la fase I del Simplesso esempi rif. Fi 3.2.5; Osservazione Nel problema min{c T x : Ax = 0, x 0}, dell esempio precedente si ha che b 0 e A contiene una matrice

Dettagli

Risoluzione di sistemi lineari sparsi e di grandi dimensioni

Risoluzione di sistemi lineari sparsi e di grandi dimensioni Risoluzione di sistemi lineari sparsi e di grandi dimensioni Un sistema lineare Ax = b con A R n n, b R n, è sparso quando il numero di elementi della matrice A diversi da zero è αn, con n α. Una caratteristica

Dettagli

Teoria della Programmazione Lineare Intera

Teoria della Programmazione Lineare Intera Teoria della Programmazione Lineare Intera Laura Galli Dipartimento di Informatica Largo B. Pontecorvo, 567 Pisa laura.galli@unipi.it http://www.di.unipi.it/~galli 7 Ottobre 0 Ricerca Operativa Laurea

Dettagli

LEZIONE 12. Y = f(x) = f( x j,1 f(e j ) = x j,1 A j = AX = µ A (X),

LEZIONE 12. Y = f(x) = f( x j,1 f(e j ) = x j,1 A j = AX = µ A (X), LEZIONE 1 1.1. Matrice di un applicazione lineare. Verifichiamo ora che ogni applicazione lineare f: R n R m è della forma µ A per un unica A R m,n. Definizione 1.1.1. Per ogni j 1,..., n indichiamo con

Dettagli

Capitolo 1 Vettori applicati e geometria dello spazio

Capitolo 1 Vettori applicati e geometria dello spazio Capitolo 1 Vettori applicati e geometria dello spazio Marco Robutti Facoltà di ingegneria Università degli studi di Pavia Tutorato di geometria e algebra lineare Anno accademico 2014-2015 Definizione (Vettore

Dettagli

Similitudine (ortogonale) e congruenza (ortogonale) di matrici.

Similitudine (ortogonale) e congruenza (ortogonale) di matrici. Lezione del 4 giugno. Il riferimento principale di questa lezione e costituito da parti di: 2 Forme bilineari, quadratiche e matrici simmetriche associate, 3 Congruenza di matrici simmetriche, 5 Forme

Dettagli

Geometria analitica: rette e piani

Geometria analitica: rette e piani Geometria analitica: rette e piani Equazioni del piano Intersezioni di piani. Rette nello spazio Fasci di piani e rette Intersezioni fra piani e rette Piani e rette ortogonali Piani di forma parametrica

Dettagli

LEZIONE 12. v = α 1 v α n v n =

LEZIONE 12. v = α 1 v α n v n = LEZIONE 12 12.1. Combinazioni lineari. Definizione 12.1.1. Sia V uno spazio vettoriale su k = R, C e v 1,..., v n V vettori fissati. Un vettore v V si dice combinazione lineare di v 1,..., v n se esistono

Dettagli

15 luglio Soluzione esame di geometria - Ing. gestionale - a.a COGNOME... NOME... N. MATRICOLA... ISTRUZIONI

15 luglio Soluzione esame di geometria - Ing. gestionale - a.a COGNOME... NOME... N. MATRICOLA... ISTRUZIONI 15 luglio 01 - Soluzione esame di geometria - Ing. gestionale - a.a. 01-01 COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura ore. ISTRUZIONI Ti sono

Dettagli

LA PROGRAMMAZIONE LINEARE

LA PROGRAMMAZIONE LINEARE LA PROGRAMMAZIONE LINEARE Franca Rinaldi Dipartimento di Matematica e Informatica Università degli Studi di Udine A.A. 2005 / 2006 1 Introduzione In un problema di programmazione lineare (PL) si vuole

Dettagli

Domande d esame. Ricerca Operativa. G. Liuzzi. Giovedí 14 Maggio 2015. 1 Istituto di Analisi dei Sistemi ed Informatica IASI - CNR

Domande d esame. Ricerca Operativa. G. Liuzzi. Giovedí 14 Maggio 2015. 1 Istituto di Analisi dei Sistemi ed Informatica IASI - CNR 1 Giovedí 14 Maggio 2015 1 Istituto di Analisi dei Sistemi ed Informatica IASI - CNR Geometria di R n 1 Dare la definizione di Poliedro e Vertice di un Poliedro 2 Dare la definizione di Poliedro e di Politopo

Dettagli

GAAL: Capitolo dei prodotti scalari

GAAL: Capitolo dei prodotti scalari GAAL: Capitolo dei prodotti scalari Teorema di Rappresentazione rappresentabile Aggiunto Autoaggiunto Unitariamente diagonalizzabile Teorema spettrale reale Accoppiamento Canonico Forme bilineari Prodotti

Dettagli

Ricerca Operativa. G. Liuzzi. Lunedí 20 Aprile 2015

Ricerca Operativa. G. Liuzzi. Lunedí 20 Aprile 2015 1 Lunedí 20 Aprile 2015 1 Istituto di Analisi dei Sistemi ed Informatica IASI - CNR Rilassamento di un problema Rilassare un problema di Programmazione Matematica vuol dire trascurare alcuni (tutti i)

Dettagli

A m n B n p = P m p. 0 1 a b c d. a b. 0 a 0 c Il risultato e lo stesso solo nel caso in cui c = 0 e a = d.

A m n B n p = P m p. 0 1 a b c d. a b. 0 a 0 c Il risultato e lo stesso solo nel caso in cui c = 0 e a = d. Matematica II, 220404 Il prodotto di matrici e un operazione parziale che prende in entrata una matrice A ed una matrice B, tali che il numero delle colonne di A sia uguale al numero delle righe di B,

Dettagli

Massimi e minimi vincolati

Massimi e minimi vincolati Massimi e minimi vincolati Data una funzione G C 1 (D), dove D è un aperto di R 2, sappiamo bene dove andare a cercare gli eventuali punti di massimo e minimo relativi. Una condizione necessaria affinché

Dettagli