investigacion de operaciones unidad 3

27
Instituto Tecnológico de Acapulco Materia: Investigación de Operaciones Maestro: Juan Manuel Rodríguez Vázquez Alumno: Pedro Camacho Martínez Unidad: 3 Programación no lineal

Upload: peter-c-biafra

Post on 05-Aug-2015

1.510 views

Category:

Documents


5 download

TRANSCRIPT

Page 1: Investigacion de Operaciones Unidad 3

Instituto Tecnológico de Acapulco

Materia: Investigación de Operaciones

Maestro: Juan Manuel Rodríguez Vázquez

Alumno: Pedro Camacho Martínez

Unidad: 3 Programación no lineal

Grupo: 10-11/709

Fecha: 05/11/2012

Page 2: Investigacion de Operaciones Unidad 3

INDICE

UNIDAD 3. PROGRAMACIÓN NO LINEAL

3.1 Conceptos básicos de problemas de programación no lineal

3.2 Ilustración gráfica de problemas de programación no lineal

3.3 Tipos de problemas de programación no lineal

3.4 Optimización clásica

3.4.1 Puntos de inflexión

3.4.2 Máximos y mínimos

Fuentes de información

Ejercicios de anexo

Page 3: Investigacion de Operaciones Unidad 3

UNIDAD 3 PROGRAMACIÓN NO LINEAL

3.1 Conceptos básicos de problemas de programación no lineal.

Programación no lineal (PNL) es el proceso de resolución de un sistema de igualdades y desigualdades sujetas a un conjunto de restricciones sobre un conjunto de variables reales desconocidas, con una función objetivo a maximizar, cuando alguna de las restricciones o la función objetivo no son lineales.

 

Una suposición importante de programación lineal es que todas sus funciones (función objetivo y funciones de restricción) son lineales. Aunque, en esencia, esta suposición se cumple para muchos problemas prácticos, con frecuencia no es así. De hecho muchos economistas han encontrado que cierto grado de no linealidad es la regla, y no la excepción, en los problemas de planeación económica, por lo cual, muchas veces es necesario manejar problemas de programación no lineal, lo cual  vamos a analizar enseguida.

 

De la manera general el problema de programación no lineal consiste en encontrar:

X=(X1, X2, X3, X4, XN) para

 

Maximizar f(X), sujeta a

Gi(X)<= bi  para i=1,2…..m,

Y    X=>0,

 

Donde  f(X) y gi(x) son funciones dadas de n variables de decisión.

  

Se puede expresar un problema de programación no lineal (PNL)de la siguiente manera:

Encuentre los valores de las variables  que

 

Como en la programación lineal z es el funcional del problema de programación no lineal y

 

son las restricciones del problema de programación no lineal.

Page 4: Investigacion de Operaciones Unidad 3

Un problema de programación no lineal es un problema de programación no lineal no restringido.

El conjunto de puntos , tal que  es un número real, es, entonces, es el conjunto de los números reales.

Los siguientes subconjuntos de  (llamados intervalos) serán de particular interés:

 

Y en forma análoga a las definiciones de la programación lineal.  

La región factible para el problema de programación no lineal es el conjunto de puntos  que satisfacen las m restricciones de (1).

  

 

 

 

Por supuesto, si  son funciones lineales, entonces (1) será un problema de programación lineal y puede resolverse mediante el algoritmo simplex

3.2 Ilustración gráfica de problemas de programación no lineal

Cuando un problema de programación no lineal tiene sólo una o dos variables, se puede re-presentar gráficamente de forma muy parecida al ejemplo de la Wyndor Glass Co. de progra-mación lineal, de la sección 3.1. Se verán unos cuantos ejemplos, ya que una representación gráfica de este tipo proporciona una visión global de las propiedades de las soluciones ópti-mas de programación lineal y no lineal. Con el fin de hacer hincapié en las diferencias entre programación lineal y no lineal, se usarán algunas variaciones no lineales del problema de la Wyndor Glass Co.

 

La figura 13.5 muestra lo que ocurre con este problema si los únicos cambios que se hacen al modelo de la sección 3.1 son que la segunda y tercera restricciones funcionales se sustituyen por la restricción no lineal 9x{ + 5x2 < 216. Compare las figuras 13.5 y 3.3. La solución óptima sigue siendo (a^ , x2) = (2,6). Todavía se encuentra sobre la frontera de la región factible, pero no es una solución factible en un vértice (FEV). La solución óptima pudo haber sido una solución FEV con una función objetivo diferente (verifique Z = 3xx + x2), pero que no necesite

Page 5: Investigacion de Operaciones Unidad 3

serlo significa que ya no se puede aprovechar la gran simplificación utilizada en programación lineal que permite limitar la búsqueda de una solución óptima para las soluciones FEV

 

Ahora suponga que las restricciones lineales de la sección 3.1 se conservan sin cambio, pero que la función objetivo se hace no lineal. Por ejemplo, si

 

 

Page 6: Investigacion de Operaciones Unidad 3

entonces la representación gráfica en la figura 13.6 indica que la solución óptima es xx – x2 = 5, que de nuevo se encuentra en la frontera de la región factible. (El valor óptimo de Z es Z = 857; así, la figura 13.6 muestra el hecho de que el lugar geométrico de todos los puntos para los que Z = 857 tiene en común con la región factible sólo este punto, mientras que el lu-gar geométrico de los puntos con Z más grande no toca la región factible en ningún punto.) Por otro lado, si

 

 

 

entonces la figura 13.7 ilustra que la solución óptima es (* l5 x2 ) = (3,3), que se encuentra dentro de la frontera de la región factible. (Se puede comprobar que esta solución es óptima si se usa cálculo para derivarla como un máximo global no restringido; como también satisface las restricciones, debe ser óptima para el problema restringido.) Por lo tanto, es necesario que

 

 

 

 

un algoritmo general para resolver problemas de este tipo tome en cuenta todas las soluciones en la región factible, y no sólo aquellas que están sobre la frontera.

  

Page 7: Investigacion de Operaciones Unidad 3

Otra complicación que surge en programación no lineal es que un máximo local no nece-sariamente es un máximo global (la solución óptima global). Por ejemplo, considere la función de una sola variable graficada en la figura 13.8. En el intervalo 0 < x < 5, esta función tiene tres máximos locales — x=0,x=2,x=4—pero sólo uno de éstos—x – 4—es un máximo global. (De igual manera, existen mínimos locales en x = 1,3 y 5, pero sólo x = 5 es un mínimo global.)

 

En general, los algoritmos de programación no lineal no pueden distinguir entre un máximo local y un máximo global (excepto si encuentran otro máximo local mejor), por lo que es determinante conocer las condiciones bajo las que se garantiza que un máximo local es un máximo global en la región factible. Recuerde que en cálculo, cuando se maximiza una fun-ción ordinaria (doblemente diferenciable) de una sola variable f(x) sin restricciones, esta ga-rantía está dada cuando

 

 

 

Una función de este tipo cuya curvatura siempre es “hacia abajo” (o que no tiene curvatura) se llama función cóncava.1 De igual manera, si se sustituye < por >, de manera que la función tiene siempre una curvatura “hacia arriba” (o no tiene curvatura), se llama función convexa.2 (Así, una función lineal es tanto cóncava como convexa.) En la figura 13.9 se pueden ver ejemplos de esto. Note que la figura 13.8 ilustra una función que no es cóncava, ni convexa pues alterna sus curvaturas hacia arriba y hacia abajo.

 

Las funciones de variables múltiples también se pueden caracterizar como cóncavas o convexas si su curvatura es siempre hacia abajo o hacia arriba. Estas definiciones intuitivas se fundamentan en términos precisos que, junto con cierta profundización en los conceptos, se presentan en el apéndice 2. El apéndice 2 proporciona una prueba conveniente para verifi-car si una función de dos variables es cóncava, convexa o ninguna de las dos.

 

La siguiente es una forma conveniente de verificar esto para una función de más de dos variables cuando la función consiste en una suma de funciones más pequeñas cada una de sólo

 

Page 8: Investigacion de Operaciones Unidad 3

 

 

 

 

una o dos variables. Si cada función más pequeña es cóncava, entonces la función completa es cóncava. De manera similar, la función completa es convexa si cada función más pequeña es convexa.

 

 

 

Page 9: Investigacion de Operaciones Unidad 3

que es la suma de las dos funciones más pequeñas dadas en los paréntesis cuadrados. La primera función más pequeña 4*! - x\ es una función de la variable xx nada más, por lo que puede verse que es cóncava si se observa que su segunda derivada es negativa. La segunda función más pequeña -(x2 – x¿ )2 es una función de x2 y por lo que se puede aplicar la prueba para funciones de dos variables dada en el apéndice 2. De hecho, este apéndice usa esta función en particular para ilustrar la prueba y encuentra que la función es cóncava. Como las dos funciones más pequeñas son cóncavas, la función completa f (jVj ,x2,x3) debe ser cóncava.

 

Si un problema de programación no lineal no tiene restricciones, el hecho de que la función objetivo sea cóncava garantiza que un máximo local es un máximoglobal. (De igual manera, una función objetivo convexa asegura que un mínimo local es un mínimo global.) Si existen restricciones, entonces se necesita una condición más para dar esta garantía, a saber, que la región factible sea un conjunto convexo.Como se analiza en el apéndice 2, un conjunto convexo es sencillamente un conjunto de puntos tales que, para cada par de puntos de la colección, el segmento de recta que los une está totalmente contenido en la colección. Así, la región factible en el problema original de la Wyndor Glass Co. (vea la figura 13.6 o 13.7) es un conjunto convexo. De hecho, la región factible para cualquier otro problema de programación lineal es un conjunto convexo. De igual manera, la región factible de la figura 13.5 también es un conjunto convexo.

 

En general la región factible para un problema de programación no lineal es un conjunto convexo siempre que todas las funciones g¡ (x)[para las restricciones g¿ (x) < b{ ] sean conve-xas. Para el ejemplo de la figura 13.5, las dos gt (x) son convexas, ya que gx (x) = xx (una fun-ción lineal es automáticamente cóncava y convexa) y g2 (x) = 9x\ + 5x\ (tanto 9x\ como 5x2 son funciones convexas, por lo que su suma es una función convexa). Estas dos funciones convexas g¡ (x) conducen a que la región factible de la figura 13.5 sea un conjunto convexo.

 

Ahora se analizará qué pasa cuando sólo una de estas funciones g¡ (x) es una función cón-cava. En particular, suponga que el único cambio que se hace al ejemplo de la figura 13.5 es

 

Page 10: Investigacion de Operaciones Unidad 3

 

 

son funciones cóncavas. La nueva región factible mostrada en la figura 13.10 no es un conjunto convexo. <Por qué? Porque contiene pares de puntos, como (0, 7) y (4, 3), tales que parte del segmento de recta que los une no está en la región factible. En consecuencia, no se puede garantizar que un máximo local sea un máximo global. De hecho, este ejemplo tiene dos máximos locales (0, 7) y (4, 3), pero sólo (0, 7) es un máximo global.

 

Entonces, para garantizar que un máximo local sea un máximo global para un problema de programación no lineal con restricciones (x) < b¡ (i = 1,2,…, m) y x > 0, la función obje-tivo /(x) debe ser cóncava y cada gí (x) debe ser convexa. Un problema de este tipo se llama problema de programación convexa .

3.3 Tipos De Problemas De Programación No Lineal

Los problemas de programación no lineal se presentan de muchas formas distintas. Al con-trario del método símplex para programación lineal, no se dispone de un algoritmo que re-suelva todos estos tipos especiales de problemas. En su lugar, se han desarrollado algoritmos para algunas clases (tipos especiales) de problemas de programación no lineal. Se introduci-rán las clases más importantes y después se describirá cómo se pueden resolver algunos de estos problemas.

 

Si la función objetivo f es lineal y el espacio restringido es un politopo, el problema es de Programación lineal y puede resolverse utilizando alguno de los bien conocidos algoritmos de programación lineal.   

 

Si la función objetivo es cóncava (problema de maximización), o convexa (problema de minimización) y el conjunto de restricciones es convexo, entonces se puede utilizar el método general de Optimización convexa   

 

Existe una variedad de métodos para resolver problemas no convexos. Uno de ellos consiste en utilizar formulaciones especiales de problemas de programación lineal. Otro método implica el uso de técnicas de Ramificación y poda, cuando el problema se divide en subdivisiones a resolver mediante aproximaciones que forman un límite inferior del coste total en cada subdivisión. Mediante subdivisiones sucesivas, se obtendrá una solución cuyo coste es igual o inferior que el mejor límite inferior obtenido por alguna de las soluciones aproximadas. Esta solución es óptima, aunque posiblemente no sea única. El algoritmo puede ser parado antes, con la garantía de que la mejor solución será mejor que la solución encontrada en un porcentaje acotado. Ello se utiliza en concreto en problemas importantes y especialmente difíciles y cuando el problema cuenta con costes inciertos o valores donde la incertidumbre puede ser estimada en un grado de fiabilidad apropiado.   

 

Page 11: Investigacion de Operaciones Unidad 3

Las condiciones de Karush-Kuhn-Tucker proporcionan las condiciones necesarias para que una solución sea óptima.   

 

Los tipos de  problemas de programación no lineal son:

1.       Optimización no restringida.2.       Optimización linealmente restringida.3.       Programación cuadrática4.       Programación convexa.5.       Programación separable.6.       Programación no convexa.7.       Programación geométrica.8.       Programación fraccional.9.       Problema de complementariedad.

  ALGORITMOS SIN RESTRICCIÓN

En esta sección se presentarán dos algoritmos para el problema no restringido: el algoritmo de búsqueda directa y el algoritmo degradiente.  

   

 Método de búsqueda directa  

Los métodos de búsqueda directa se aplican principalmente a funciones estrictamente unimo- dales de una variable. Aunque puede parecer trivial el caso, la sección 21.1.2 muestra que la optimización de funciones de una variable juega un papel clave en el desarrollo de los algorit-mos de varias variables, más generales.  

La idea de los métodos de búsqueda directa es identificar el intervalo de incertidum- bre que comprenda al punto de solución óptima. El procedimiento localiza el óptimo estrechando en forma progresiva el intervalo de incertidumbre hasta cualquier grado de exactitud que se desee.  

En esta sección se presentan dos algoritmos estrechamente relacionados: los métodos de búsqueda dicótomo y de sección dorada (o áurea). Ambos buscan la maximización de una función unimodal/(x) en el intervalo a ^ x < b, que se sabe que incluye el punto óptimo x*. Los dos métodos comienzan con /0 = (a, b) que representa el intervalo inicial de incertidumbre.  

Paso general i. Sea /, _ , = (xD xR) el intervalo actual de incertidumbre (en la iteración 0, xL = a y xR = b). A continuación se definen xx y x2tales que  

xj^ ^ ^ x2 ^ xr  

El siguiente intervalo de incertidumbre, /z, se define como sigue:  

1. Si f(xx) > /(x2), entonces xL < x* < x2. Se definen xR = x2 e /, = (xL, x2) (véase la figura 21.2[a]).

2. Si f(xx) < f(x2\ entonces xx < x* < xR. Se definen xL = xx e I¡ = (xh xR) (véase la figura 21.1 [b]). .

3. Si f{x\) = /(jc2), entonces xx < x* < x2. Se definen xL = x2 e /, = (xb x2).

  

La manera en que se determinan xx y x2 garantiza que /, < /,_ p como se demostrará en breve. El algoritmo termina en la iteración ksilk< A,donde A es un grado de exactitud definido por el usuario.                                                                                                                                                                                        *  

Page 12: Investigacion de Operaciones Unidad 3

La diferencia entre los métodos dicótomo y de sección dorada estriba en la forma en que se calculan xx y x2. La tabla siguiente presenta las fórmulas.  

  

 

En el método dicótomo los valores jc, y x2 se encuentran simétricos respecto del punto medio del actual intervalo de incertidumbre. Esto significa que 

 

La aplicación repetida del algoritmo garantiza que la longitud del intervalo de incertidumbre se acercará al nivel de exactitud deseado, A. 

En el método de la sección dorada la idea es de mayor involucramiento. Se puede apreciar que cada iteración del método dicótomo requiere calcular los dos valores/(jc,) y f(x2), Pe” ro termina por descartar alguno de ellos. Lo que propone el método de la sección dorada es ahorrar cálculos mediante el reuso del valor descartado en la iteración inmediata siguiente. Para definir 0 < a < 1 

 

Cuando el intervalo de incertidumbre /, en la iteración i es igual a (jc¿, x2) o a (xu xR). Considere el caso en que /, = (jcl, x2), lo cual significa que xx está incluido en /,. En la iteración /+1, seleccione x2 igual a jc, de la iteración /, lo cual lleva a la siguiente ecuación: 

x2(iteración i+l) = x{(iteración i) 

Page 13: Investigacion de Operaciones Unidad 3

 

Comparado con el método dicótomo, el método de la sección dorada converge más rápida-mente hacia el nivel deseado de exactitud. Adicionalmente, cada iteración en el método de la sección dorada requiere la mitad de los cálculos, en virtud de que recicla siempre un conjunto de los cálculos correspondientes a la iteración inmediata anterior. 

EJEMPLO

 

El máximo valor de f(x) ocurre en x = 2. La siguiente tabla muestra los cálculos para las iteraciones 1 y 2, usando el método dicotomo y el de la sección dorada. Supondremos que A = 0.1. 

Page 14: Investigacion de Operaciones Unidad 3

Al continuar de la misma forma, el intervalo de incertidumbre terminará por estrecharse hasta la tolerancia A deseada. 

  

La plantilla ch21DichotomousGoldenSection.xls de Excel está diseñada para manejar cualquiera de estos dos métodos en forma automática. Los datos son/(*), a,b y A. La función f{x) se captura en la celda E3 como sigue: 

= IF(C3< = 2,3*C3, (-C3+20)/3) 

 OPTIMIZACIÓN NO RESTRINGIDA

 

Los problemas de optimización no restringida no tienen restricciones, por lo que la función objetivo es sencillamente

Maximizar f(x)

 

sobre todos los valores x= (x1, x2,…,xn). Según el repaso del apéndice 3, la condición necesa-ria para que una solución específica x = x* sea óptima cuando f(x) es una función diferenciable es

  

 

Cuando f (x) es cóncava, esta condición también es suficiente, con lo que la obtención de x* se reduce a resolver el sistema de las necuaciones obtenidas al establecer las n derivadas parciales iguales a cero. Por desgracia, cuando se trata de funciones no lineales f (x), estas ecuaciones suelen ser no lineales también, en cuyo caso es poco probable que se pueda obtener una solución analítica simultánea. ¿Qué se puede hacer en ese caso? Las secciones 13.4 y 13.5 describen procedimientos algorítmicos de búsqueda para encontrar x* primero para n = 1 y luego para n > 1. Estos procedimientos también tienen un papel importante en la solución de varios tipos de problemas con restricciones, que se describirán en seguida. La razón es que muchos algoritmos para problemas restringidos están construidos de forma que se adaptan a versiones no restringidas del problema en una parte de cada iteración.

Page 15: Investigacion de Operaciones Unidad 3

Cuando una variable Xj tiene una restricción de no negatividad, x- > 0, la condición necesaria (y tal vez) suficiente anterior cambia ligeramente a

 

 

para cada j de este tipo. Esta condición se ilustra en la figura 13.11, donde la solución óptima de un problema con una sola variable es x = 0 aun cuando la derivada ahí es negativa y no cero. Como este ejemplo tiene una función cóncava para maximizar sujeta a una restricción de no negatividad, el que su derivada sea menor o igual a 0 en # = 0, es una condición necesaria y suficiente para que x= 0 sea óptima.

 

Un problema que tiene algunas restricciones de no negatividad y que no tiene restricciones funcionales es un caso especial (m = 0) de la siguiente clase de problemas.

 OPTIMIZACIÓN LINEALMENTE RESTRINGIDA

 

Los problemas de optimización linealmente restringida se caracterizan por restricciones que se ajustan por completo a la programación lineal, de manera que todas las funciones de restricción g¡ (x) son lineales, pero la función objetivo es no lineal. El problema se simplifica mucho si sólo se tiene que tomar en cuenta una función no lineal junto con una región factible de programación lineal. Se han desarrollado varios algoritmos especiales basados en una extensión del método símplex para analizar la función objetivo no lineal.

 

Un caso especial importante descrito a continuación es la programación cuadrática. 

PROGRAMACIÓN CUADRÁTICA

 

De nuevo los problemas de programación cuadrática tienen restricciones lineales, pero ahora la función objetivo /(x) debe ser cuadrática.Entonces, la única diferencia entre éstos y un

 

Page 16: Investigacion de Operaciones Unidad 3

 

 

problema de programación lineal es que algunos términos de la función objetivo incluyen el cuadrado de una variable o el producto de dos variables.

  

 PROGRAMACIÓN CONVEXA

 

La programación convexa abarca una amplia clase de problemas, entre ellos como casos especiales, están todos los tipos anteriores cuando /(x) es cóncava. Las suposiciones son

1. f(x) es cóncava.2. Cada una de las g(x) es convexa.

 

Page 17: Investigacion de Operaciones Unidad 3

PROGRAMACIÓN SEPARABLE

 

La programación separable es un caso especial de programación convexa, en donde la suposición adicional es

Todas las funciones f(x) y g(x) son funciones separables.

Una función separable es una función en la que cada término incluye una sola variable, por lo que la función se puede separar en una suma de funciones de variables individuales. Por ejemplo, si  f(x) es una función separable, se puede expresar como

 

 

son cada tina funciones de una sola variable x1 y x2, respectivamente. Usando el mismo razonamiento, se puede verificar que la función considerada en la figura 13.7 también es una función separable.

 

Es importante distinguir estos problemas de otros de programación convexa, pues cualquier problema de programación separable se puede aproximar muy de cerca mediante uno de programación lineal y, entonces, se puede aplicar el eficiente método símplex.

 

 

 

son cada tina funciones de una sola variable x1 y x2, respectivamente. Usando el mismo razonamiento, se puede verificar que la función considerada en la figura 13.7 también es una función separable.

 

Es importante distinguir estos problemas de otros de programación convexa, pues cualquier problema de programación separable se puede aproximar muy de cerca mediante uno de programación lineal y, entonces, se puede aplicar el eficiente método símplex.

 

 PROGRAMACIÓN NO CONVEXA

 

La programación no convexa incluye todos los problemas de programación no lineal que no satisfacen las suposiciones de programación convexa. En este caso, aun cuando se tenga

Page 18: Investigacion de Operaciones Unidad 3

éxito en encontrar un máximo local, no hay garantía de que sea también un máximo global. Por lo tanto, no se tiene un algoritmo que garantice encontrar una solución óptima para todos estos problemas; pero sí existen algunos algoritmos bastante adecuados para encontrar máximos locales, en especial cuando las formas de las funciones no lineales no se desvían demasiado de aquellas que se supusieron para programación convexa. En la sección 13.10 se presenta uno de estos algoritmos.

 

Ciertos tipos específicos de problemas de programación no convexa se pueden resolver sin mucha dificultad mediante métodos especiales. Dos de ellos, de gran importancia, se pre-sentarán más adelante.

 PROGRAMACIÓN GEOMÉTRICA

Cuando se aplica programación no lineal a problemas de diseño de ingeniería, muchas veces la función objetivo y las funciones de restricción toman la forma

 

 

 

En tales casos, las ci y a ty representan las constantes físicas y las x} son las variables de diseño. Estas funciones por lo general no son ni cóncavas ni convexas, por lo que las técnicas de programación convexa no se pueden aplicar directamente a estos problemas de programación geo- métrica. Sin embargo, existe un caso importante en el que el problema se puede transformar en un problema de programación convexa equivalente. Este caso es aquel en el que todos los coeficientes c¿ en cada función son estrictamente positivos, es decir, las funciones son polinomios positivos generalizados (ahora llamados posinomiales), y la función objetivo se tiene que minimizar. El problema equivalente de programación convexa con variables de decisión yx, y2,…, yn se obtiene entonces al establecer

 

 

en todo el modelo original. Ahora se puede aplicar un algoritmo de programación convexa. Se ha desarrollado otro procedimiento de solución para resolver estos problemas de progra-mación posinomial, al igual que para problemas de programación geométrica de otros tipos.1

 PROGRAMACIÓN FRACCIONAL

Suponga que la función objetivo se encuentra en la forma de una fracción, esto es, la razón o cociente de dos funciones,

 

 

Page 19: Investigacion de Operaciones Unidad 3

Estos problemas de programación fraccional surgen, por ejemplo, cuando se maximiza la ra-zón de la producción entre las horas-hombre empleadas (productividad), o la ganancia entre el capital invertido (tasa de rendimiento), o el valor esperado dividido entre la desviación es-tándar de alguna medida de desempeño para una cartera de inversiones (rendimiento/riesgo). Se han formulado algunos procedimientos de solución especiales1 para ciertas formas de f1(x) y f2 (x)

 

 Cuando se puede hacer, el enfoque más directo para resolver un problema de programación fraccional es transformarlo en un problema equivalente de algún tipo estándar que disponga de un procedimiento eficiente. Para ilustrar esto, suponga que f(x) es de la forma de programación fraccional lineal

 

 

 

donde c y d son vectores renglón, x es un vector columna y c0 y dQ son escalares. También suponga que las funciones de restricción g¡ (x)son lineales, es decir, las restricciones en forma matricial son Ax < b y x > 0.

 

Con algunas suposiciones débiles adicionales, el problema se puede transformar en un problema equivalente de programación lineal si se establece

 

  

 

que se puede resolver con el método símplex. En términos generales, se puede usar el mismo tipo de transformación para convertir un problema de programación fraccional con /¡(x) cóncava, f2 (x) convexa y g¡ (x) convexas, en un problema equivalente de programación convexa.

3.4 Optimización clásicaOptimización es el proceso de hallar el máximo o mínimo relativo de una función,

Page 20: Investigacion de Operaciones Unidad 3

generalmente sin la ayuda de gráficos.

Conceptos claves

A continuación se describirá brevemente algunos conceptos necesarios para

comprender apropiadamente el tema de optimización.

-Funciones crecientes y decrecientes

Se dice que una función f(x) es creciente (decreciente) en x=a, si en la vecindad

inmediata del punto [a,f(a)] el gráfico de la función crece (cae) al moverse de izquierda

a derecha. Puesto que la primera derivada mide la tasa de cambio y la pendiente de

una función, una primera derivada positiva en x=a indica que la función es creciente

“a”; una primera derivada negativa indica que es decreciente.

-Concavidad y convexidad

Una función f (x) es cóncava en x = a, si en alguna pequeña región cercana al punto

[a, f(a)] el gráfico de la función se ubica completamente debajo de su línea tangente.

Una función es convexa en x = a, si en un área cercana a [a, f(a)] el gráfico esta

complemente arriba de su línea tangente. Una segunda derivada positiva en x = a

denota que la función es convexa en x = a. Análogamente, una segunda derivada

negativa en x = a denota que la función es cóncava en “a”.

- Extremo relativo

Un extremo relativo es un punto en el cual una función esta a un máximo o mínimo.

Para ello, la función debe estar en un punto en el cual no esta creciendo ni

decreciendo, y por ende, su primera derivada debe ser igual a cero o indefinida. Un

punto en el dominio de una función donde la derivada iguala a cero o es indefinida es

llamado punto o valor critico.

3.4.1 Puntos de Inflexión

Un punto de inflexión es un punto en el grafico donde la función cruza su línea

tangente y cambia de cóncavo a convexo y viceversa. Los puntos de inflexión pueden

ocurrir solo donde la segunda derivada iguala a cero o es indefinida. Es decir, f′′(a)=0.

3.4.2 Máximos y mínimos

Puntos minimax. 

El punto minimax de la función lagrangiana es otro concepto relacionado con la solución de un

problema de optimización. Si bien su definición no le hace útil a la hora de la resolución directa del

problema, sí constituye un paso intermedio muy importante en la obtención del problema dual, que

Page 21: Investigacion de Operaciones Unidad 3

estudiaremos más adelante. En esta sección definimos dicho punto y estudiamos su relación con

otro concepto, el punto de silla de la lagrangiana. 

  

La relación del punto minimax con la solución del problema de programación no lineal se obtiene

de forma inmediata sin mas que tener en cuenta que: 

 Min L (x, ë ) = f (x) − Max ët [g(x) − b]R m+R m+ 

Si gi (x) – bi ≤ 0, entonces ëi [gi(x) - bi] ≤ 0, luego 

 Max ëi ( gi (x) − bi ) = 0R m+ (se alcanza en ë = 0). Por tanto, si x ∈ X, MinL (x, ë ) = f (x) .R

m+ Si gi (x) – bi > 0, entonces Sup ëi [gi(x) - bi] = ∞, por lo que en este caso no se alcanza el R m+

mínimo de la Lagrangiana. 

 Por tanto, 

 Max Min L (x, ë ) = Max f (x) D        R m+                                        X 

 Así pues, si (x0, ë0) es un punto minimax, x0  es una solución óptima del problema original. 

Pasamos ahora a dar los teoremas que relacionan los conceptos de punto de silla de L y punto

minimax. Veremos que dicha relación es casi una equivalencia, en el sentido de que todo  punto

minimax  es  punto  de  silla,  y  todo  punto  de  silla  es  un  punto  minimax considerado sobre

conjuntos mas restringidos. 

  

Como hemos expuesto anteriormente, para obtener el teorema recíproco es necesario restringir los

conjuntos de definición del punto minimax. Previamente, hemos visto que la primera parte de la

igualdad debe ser de la forma 

Page 22: Investigacion de Operaciones Unidad 3

  

 Definimos, por tanto, 

N = {ë ∈ R m +  / ∃ Max ( f ( x ) − ët [g(x) − b ])},  N ⊂ R m + 

Entonces, la segunda parte de la igualdad se debe expresar como sigue: 

Min Max L (x, ë ) 

Por tanto, el punto minimax que buscamos ahora es de la forma: 

  

  

Para el problema de mínimo, el punto minimax toma la forma: 

    

tomando  además  la  función  lagrangiana  correspondiente  a  este  problema.  Con  esta

definición, los teoremas 16 y 17 serían válidos de forma análoga para esta formulación. 

4.1.- Dualidad en Programación Matemática. 

El concepto de dualidad nace estrechamente ligado al de punto minimax que se desarrolló en la

sección anterior. Así, dado nuestro problema original, recordemos la definición de punto minimax:

se trata de un par (x0, ë0) que verifica: 

 L (x0 , ë0 ) = Max Min L (x, ë ) = Min Max L (x, ë ) , 

donde 

L(x, ë) = f(x) – ët[g(x) 

que es, precisamente, el problema de partida, que llamaremos a partir de ahora Problema 

Primal (PP). 

Page 23: Investigacion de Operaciones Unidad 3

Por  otro  lado,  el  segundo  término  de  la  igualdad  del  punto  minimax  se  puede expresar

como: 

 

Min 

 

õ (ë ), 

 tomando   además   la   función   lagrangiana   correspondiente   a   este  problema.   Con   esta definición, los teoremas 16 y 17 serían válidos de forma análoga para esta formulación. 

Page 24: Investigacion de Operaciones Unidad 3

ANEXOS