OTTIMIZZAZIONE LINEARE MULTICRITERIO

Похожие документы
Programmazione Lineare

PROGRAMMAZIONE LINEARE E DUALITA'

Geometria della programmazione lineare

Teoria della Programmazione Lineare. Teoria della Programmazione Lineare p. 1/8

Ricerca Operativa A.A. 2007/ Analisi di sensitività

Geometria della Programmazione Lineare

Ottimizzazione Multi Obiettivo

Parte V: Rilassamento Lagrangiano

Introduzione alla programmazione lineare

Programmazione Non Lineare

Introduzione al Metodo del Simplesso. 1 Soluzioni di base e problemi in forma standard

Alcune nozioni di calcolo differenziale

Esercizi di Programmazione Lineare - Dualità

Esercizi di ottimizzazione vincolata

Metodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte I)

RICERCA OPERATIVA. Tema d esame del 04/03/2008 (Simulazione)

Possibile applicazione

Appunti sui Codici di Reed Muller. Giovanni Barbarino

Soluzione grafica di problemi PM in 2 variabili

0.1 Condizione sufficiente di diagonalizzabilità

Soluzione dei Problemi di Programmazione Lineare

Introduzione ai grafi

Prerequisiti didattici

Corso di Laurea in Fisica. Geometria. a.a Canale 3 Prof. P. Piazza Magiche notazioni

I teoremi della funzione inversa e della funzione implicita

2.6 Calcolo degli equilibri di Nash

Spazi vettoriali euclidei.

Problemi di Flusso: Il modello del Trasporto

Teoria della Programmazione Lineare

4.11 Massimi e minimi relativi per funzioni di più variabili

Il metodo del simplesso

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n

ALGEBRE DI BOOLE. (d) x, y X x y oppure y x.

LEZIONE 12. v = α 1 v α n v n =

Introduzione soft alla matematica per l economia e la finanza. Marta Cardin, Paola Ferretti, Stefania Funari

LEZIONE 12. Y = f(x) = f( x j,1 f(e j ) = x j,1 A j = AX = µ A (X),

Matematica per l Economia Sottoinsieme L-Z Dipartimento di Economia Universitá degli Studi di Bari 3) FUNZIONI. Giovanni Villani

Gestione della produzione e della supply chain Logistica distributiva

NOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE

Forme differenziali lineari e loro integrazione

Similitudine (ortogonale) e congruenza (ortogonale) di matrici.

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da

Rilassamento Lagrangiano

Spazi Vettoriali ed Applicazioni Lineari

Fissiamo nel piano un sistema di riferimento cartesiano ortogonale O, x, y, u.

Prodotto scalare e ortogonalità

Il Teorema di Kakutani

Ottimizzazione su grafi: massimo flusso (parte 1) Ottimizzazione su grafi:massimo flusso (parte 1) p. 1/33

COMPITO DI RICERCA OPERATIVA. max 5 2x 1 + 3x 2 x 3 = 2 + x 1 5x 2 x 4 = 5 + x 2. x 5 = 1 + x 1 x 2

Rilassamento Lagrangiano

Ricerca Operativa. G. Liuzzi. Lunedí 20 Aprile 2015

3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI

Esercizi sulla Programmazione Lineare. min. cx Ax b x 0

Si consideri il seguente tableau ottimo di un problema di programmazione lineare

1 Funzioni reali di una variabile reale

5.5 Metodi dei piani di taglio

Metodi e Modelli per l Ottimizzazione Combinatoria Cover inequalities

Calcolo differenziale 2: Massimi e minimi. Studio di una funzione. (M.S.Bernabei & H. Thaler)

Elementi di Algebra Lineare Applicazioni lineari

Geometria analitica del piano pag 12 Adolfo Scimone

PROGRAMMAZIONE DINAMICA

Gli insiemi N, Z e Q. I numeri naturali

0.1 Coordinate in uno spazio vettoriale

UNIVERSITÀ DEGLI STUDI ROMA TRE Corso di Studi in Ingegneria Informatica Ricerca Operativa 1 Seconda prova intermedia 20 giugno 2014

3.6 Metodi basati sui piani di taglio

Sistemi compatibili (Il metodo di Fourier-Motzkin) Claudio Arbib Università degli Studi di L Aquila

LEZIONE 15. (15.1.2) p(x) = a 0 x n + a 1 x n a n 1 x + a n = a h x n h.

5.5 Metodi generali per la soluzione di problemi

2.2 Alberi di supporto di costo ottimo

NORMA DI UN VETTORE. Una NORMA VETTORIALE su R n è una funzione. : R n R +

Teoria della Dualità: I Introduzione

Транскрипт:

OTTIMIZZAZIONE LINEARE MULTICRITERIO

NOTAZIONE Siano x ed y vettori di R n indicati estesamente con x x x x 1 Μ i Μ n, y y1 Μ yi Μ y n e si ponga N = {1,2,, n}. Scriveremo allora: x y ( x è diverso da y ) se e solo se esiste almeno un indice i N per cui x i y i ; x y ( x è maggiore o uguale a y ) se e solo se x i y i, per ogni i N ; x > y ( x è maggiore di y ) se e solo se x i > y i, per ogni i N ; x >= y ( x prevale su y ) se e solo se x y e x y.

NOTAZIONE Il poliedro S = {x R n : Ax = b, x 0}, con A m n e rango (A) = m n, verrà detto regione ammissibile ed ogni punto in esso contenuto decisione ammissibile. Un criterio è una applicazione f: S R che associa ad ogni decisione ammissibile x un valore f(x) atto a misurarne la prestazione (beneficio, costo, peso, etc...). Un criterio si dice lineare se f(x) è una funzione lineare in R n ovvero se può scriversi nella forma c x con c vettore costante conforme ad x. In un problema di programmazione lineare multiobiettivo si vogliono massimizzare p funzioni lineari, o obiettivi, nel poliedro S: maxcx Ax = b; x 0. La notazione è impropria, perché la decisione ottima secondo un criterio, non sarà, in generale, ottima per tutti gli altri. Una definizione condivisibile potrebbe essere la seguente: una decisione x in S è ottima se non esistono altre decisioni di S che aumentano il valore di un qualunque criterio in x senza diminuire il valore di almeno un altro criterio.

PARETO-OTTIMALITA Sia z = Cx e z * = Cx * ; diremo allora che la decisione x è dominata dalla decisione x * se z * >= z; per indicare il fatto che x * domina x scriveremo x * f x. DEFINIZIONE: (Pareto-ottimalità). x S si dice Pareto-ottima o efficiente se non esiste alcun y S tale che y f x. Il problema di ottimizzazione si riduce ad un problema di ricerca di almeno una soluzione Pareto-ottima in S; in simboli, cerchiamo un elemento dell insieme: {x S: non esiste y S per cui Cy >= Cx} DEFINIZIONE: (Frontiera efficiente). L insieme dei punti Pareto-ottimi di S è un sottoinsieme di S detto sua frontiera efficiente.

PARETO-OTTIMALITA Al poliedro S (data la matrice C degli obiettivi) può essere associato un insieme Ω (spazio degli obiettivi) definito come segue: Ω {z = Cx: x S}. L insieme Ω, immagine di S mediante la trasformazione lineare C, è anch esso un poliedro; è possibile anche mostrare che le immagini dei vertici, degli spigoli, delle facce di S sono tutti e soli i vertici, gli spigoli, le facce di Ω. Un punto di S è Pareto-ottimo se e solo se la sua immagine in Ω, sia essa z *, è tale che nel quadrante nonnegativo di origine z *, { z: z z*}, non cadono punti di Ω ad eccezione di z *. z 2 z* z 1 Sulla frontiera efficiente possiamo fare le seguenti affermazioni: 1. contiene almeno un vertice; 2. non è, in genere un insieme convesso; 3. è un insieme connesso; 4. è una unione di facce di S (intendendo anche i vertici e gli spigoli come facce del poliedro).

UN ESEMPIO - I Sia dato il problema: f1 = - x1 + 2x2 max ; f = 2x - x x + x 7; - x + x 3; x - x 3; 2 0 x, x 4. Lo spazio delle decisioni è il poligono convesso S: x 2 F E S O A x 1 La frontiera efficiente di S è la spezzata che unisce ordinatamente i punti B, C, D, E. D C B Per ottenere lo spazio degli obiettivi consideriamo la trasformazione ϕ: ϕ: z = - x + 2x 1 z = 2x - x 2. ; e la sua inversa ϕ -1 : x x 1 2 = 1 z 3 2 z 3 1 1 2 + z 3 1 + z 3 2 2

UN ESEMPIO - II Sostituendo a x 1 ed x 2 le corrispondenti espressioni in funzione di z 1 e z 2 si ottiene lo spazio Ω degli obiettivi Ω z + 2 z 12; 2z + z 12; z z z + z 7; z + 2 z 0; 2z + z 0. 9; z + z 9; x 2 F O E S D A C B x 1 a z 2 b O Ω c d e z 1 Notare come le due funzioni obiettivo abbiano i rispettivi punti di massimo in due distinti vertici di S e come dove sia massima una, l altra assuma un valore relativamente basso e comunque lontano dal proprio ottimo: x = 1, x = 4 z = 7, z = 2; x = 4, x = 1 z = 2, z = 7. f

DETERMINAZIONE EFFICIENTE DELLA FRONTIERA EFFICIENTE A = {a 1,, a n } insieme finito di alternative f : A R p funzione obiettivo vettoriale ; z i = f (a i ), i hp: i j z i z j PROBLEMA: Determinare la frontiera efficiente Algoritmo naïf : O(n 2 p) Algoritmi più efficienti (Preparata e Shamos, 1988): O (n log n) (ottimale), p = 2, 3 O (n (log n) p-2 ), p 4 3) Complessità media O(n) se le coordinate dei punti z i sono indipendenti e hanno un identica distribuzione continua

Sia dato l insieme: TEOREMA DI GEOFFRION Λ = p { l : l R, l > 0, e' l = 1} e si consideri il problema di programmazione lineare P(l) definito come segue: max ë Cx x S ë Λ E ovvio che la soluzione ottima di P(l) dipenderà dal parametro l. Ci proponiamo ora di dimostrare che tutte le soluzioni Pareto-ottime di un problema di programmazione lineare multiobiettivo risultano soluzioni di un problema P(l) con l opportuno. Teorema (Geoffrion). x S è Pareto-ottima se e solo se esiste un vettore l Λ tale che x è soluzione ottima di P(l).

Premettiamo il seguente TEOREMA DI GEOFFRION Dimostrazione Lemma. Sia ξ S e sia z * il massimo della funzione obiettivo nel problema di programmazione lineare : maxe y allora x è Pareto-ottima se e solo se z * = 0. Dimostrazione del teorema. y = Cx Cî x S y 0 i) Supponiamo l Λ e sia x una soluzione ottima per P(l). Se x non è Paretoottima esiste un x S tale che Cx >= Cx; premoltiplicando ambo i membri della disequazione per l, e ricordando che l > 0, si ha: l Cx > l Cx Ciò è assurdo, perché per ipotesi l Cx è il massimo e non può essere maggiorato strettamente sulla regione ammissibile.

ii) TEOREMA DI GEOFFRION Dimostrazione Scriviamo il duale del problema di programmazione lineare esibito nell enunciato: w* = min ìb ñcî ì A ñ C 0 ñ e Se x è Pareto-ottimo risulta, dal lemma precedente, z * = 0 e quindi w * = 0. Da quest ultima osservazione segue che, se m m, r r è una soluzione ottima duale: m b = r C x (1) Sia ora x S; allora Ax = b m Ax = m b. Per l ammissibilità duale risulta m Ax r Cx e dunque: r Cx m Ax = m b = r Cx poiché r e > 0, se si pone l = r / e r il vettore l così trovato è tale che: (2) (a) l > 0 (b) e l = 1 (c) l Cx=(r / e r ) Cx= (1 / e r )r C x (1 / e r )r Cx = l Cx per la (2) Q.E.D.

ESTENSIONE AL CASO CONVESSO Sia dato il problema di ottimizzazione multiobiettivo max f(x) x S, dove S R n, f(x) = ( f 1 (x),, f p (x)). Sia Λ = { p l : l R, l> 0, e' l = 1} TEOREMA: Se la regione ammissibile S è convessa, e se le f i sono concave, i = 1,, p, allora per ogni soluzione Pareto-ottima x* esiste un l Λ tale che x* è soluzione ottima del problema P( l): max λ 1 f 1 (x) + + λ p f p (x) x S.