investigacion de operaciones

36
INSTITUTO TECNOLÓGICO SUPERIOR DE MOTUL INVESTIGACION DE OPERACIONES ING. JOSE AURELIO LARA MARTIN UNIDAD 3 PROGRAMACION NO LINEAL NOMBRE: Moo Méndez Aldo M. Tuyub Xihuiz Jhonatan Villanueva Can Yulissa A. Xul Cauich Jorge L. CUARTO SEMESTRE GRUPO “A”

Upload: juan-johny-antonio-uicab

Post on 04-Jul-2015

5.263 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: Investigacion de Operaciones

INSTITUTO TECNOLÓGICO SUPERIOR DE MOTUL

INVESTIGACION DE OPERACIONES

ING. JOSE AURELIO LARA MARTIN

UNIDAD 3

PROGRAMACION NO LINEAL

NOMBRE:

Moo Méndez Aldo M.

Tuyub Xihuiz Jhonatan

Villanueva Can Yulissa A.

Xul Cauich Jorge L.

CUARTO SEMESTREGRUPO “A”

MOTUL YUCATAN 14 ABRIL DEL 201

Page 2: Investigacion de Operaciones

Resumen

Programación no lineal es un proceso de sistema de igualdades y

desigualdades sujeta a un conjunto de variables reales desconocidas, con una

función objetivo a maximizar, cuando alguna de las funciones objetivo o

restricciones no son lineales. Los problemas de programación lineal se resuelven

por medio de algoritmos se demuestra cómo resolver los problemas no lineales de

optimización no restringida, Optimización linealmente restringida, Programación no

cuadrática, Programación convexa, Programación separable, Programación no

convexa, Programación geométrica, Programación fracciona y Problemas de

complejidad, cada una tiene una forma de resolverse aunque algunas se

relacionan entre, varios de estos se pueden resolver por el método simplex.

Optimización clásica sirve para determinar puntos de máximos y mínimos por

medio de un cálculo diferencial en donde, lo que realmente se busca son los

máximos y mínimos pero globales, donde se tiene que comprobar si nuestra

funciones se cumple con los requisitos máximos globales y mínimos globales.

En el tema de los problemas no restringidos nos muestra como buscar los

máximos y los mínimos en el subtema del método de LaGrange, esta además de

buscar máximos y mínimos, sus funciones son de varias variables sujetas a

restricciones, al igual que este método reduce el problema con n variables a uno

sin restricción.

3

Page 3: Investigacion de Operaciones

Índic

eCapitulo 1 Generalidades...........................................................................................................1

Introducción.......................................................................................................................................1

Planteamiento del proyecto...............................................................................................................1

Objetivo General................................................................................................................................1

Objetivos específicos..........................................................................................................................2

Preguntas de investigación................................................................................................................2

Justificación........................................................................................................................................2

Alcances y limitaciones......................................................................................................................3

Capitulo 2 Marco teórico.............................................................................................................4

2.1 Programación no lineal (PNL).......................................................................................................4

2.2 Planteamiento de problemas de Programación no lineal............................................................5

2.2.1. Optimización no restringida.....................................................................................................5

2.2.3. Optimización linealmente restringida......................................................................................6

2.2.4. Programación no cuadrática....................................................................................................6

2.2.5. Programación convexa.............................................................................................................7

2.2.6. Programación separable.....................................................................................................7

2.2.7. Programación no convexa........................................................................................................8

2.2.8. Programación geométrica........................................................................................................8

2.2.9. Programación fraccional...........................................................................................................9

2.2.10. Problemas de complejidad...................................................................................................10

2.3 Optimización clásica...................................................................................................................11

2.3.1 MÁXIMOS Y MINIMOS.............................................................................................................12

2.3.2 Punto de inflexión...................................................................................................................14

2.4 Problemas no restringidos..........................................................................................................14

2.4.1 Método de LaGrange...............................................................................................................15

Capitulo 3. Procedimiento................................................................................................................23

Descripción de las actividades..........................................................................................................23

4

Page 4: Investigacion de Operaciones

Capitulo 4. Conclusiones y recomendaciones..................................................................................24

Conclusión........................................................................................................................................24

Recomendaciones............................................................................................................................24

Bibliografía.......................................................................................................................................25

Índice de figuraFigura 1…………………………………………………………………………………………………………………………………………13

5

Page 5: Investigacion de Operaciones

Capitulo 1 Generalidades

Introducción

En este proyecto leerá sobre el tema de programación no lineal, el cual s un

modelo matemático que se aplica cuando alguna función dada, no se puede

resolver por medio de la programación lineal, esta es un proceso de

desigualdades e igualdades sujetas a restricciones de variables reales

desconocidas, con una función objetivo a maximizar, cuando una o mas de las

restricciones o la función no son lineales todo esto no dará como resultado los

puntos óptimos para la función objetivo. Aunque los problemas de

programación lineal son muy comunes y cubren un amplio rango de

aplicaciones, en la vida real uno se tiene que enfrentar con cierta

frecuencia a otro tipo de problemas que no son lineales. Cuando el conjunto

de restricciones, la función objetivo, o ambos, son no lineales, se dice que

se trata de un tipo de problema de programación no lineal (PPNL).

Planteamiento del proyectoEn programación lineal encontramos muchos métodos de resolver, en el

cual encontramos el simplex, el de la M, esquina noreste entre otras, pero en

ocasiones estas funciones no son lineales, así que en estos casos para resolver

las funciones se aplica la programación no lineal.

Objetivo General

Es el de dar a conocer las aplicaciones del programación no lineal, todas

los requerimientos necesarios para llevar a cabo este y dar algunos ejemplos

sobre este tema.

1

Page 6: Investigacion de Operaciones

Objetivos específicos

Se realizaran investigaciones, en libros, internet, revistas y

entre otras fuentes de información

Se analizara la información obtenida de los diversa fuentes y se

dividirá por importancia.

Se leerá y comprenderá la información para poderla expresar mejor

en el proyecto

Preguntas de investigación

¿Por qué?

Para saber del tema de programación no lineal.

¿Cuándo?

La realización de este trabajo inicio el día 11 de abril del 2011 y finalizamos el día 14 de abril del 2011.

¿Cómo lo hicimos?

Realizamos una investigación en libros de investigación de operaciones, en donde encontramos los temas que necesitábamos de programación lineal.

Justificación

En ocasiones en los libros encontramos información sobre programación no lineal pero no es muy clara, entonces en este proyecto se mejorara el entendimiento para los futuros lectores.

2

Page 7: Investigacion de Operaciones

Alcances y limitaciones

Alcances:

Libros didácticos los cuales contenían los temas,

Internet con información en la que nos podíamos basar y guiar para

los temas de nuestra investigación.

Limitaciones:

Tiempo para corregir nuestro error.

Conocimientos necesarios para la realización correcta del

documento.

Coordinación en el equipo.

Lugares de residencia de los miembros del equipo.

Comunicación.

3

Page 8: Investigacion de Operaciones

Capitulo 2 Marco teórico

2.1 Programación no lineal (PNL) 

El papel fundamental que juega la programación lineal en la investigación

de operaciones se refleja con exactitud en el hecho de que es el teme central. Una

suposición importante de programación lineal es que todas sus funciones (función

objetivo y funciones de restricción) son lineales. Aunque, en esencia esta

suposición se cumple para muchos problemas prácticos, es frecuente que no sea

así. De hecho, muchos economistas han encontrado que cierto grado de no

linealidad es la regla, y no la excepción, en los problemas de planeación no lineal,

que es el área que se examinara en seguida.

De una manera general, el problema de programación no lineal consiste en

encontrar x= (x1, x2,…., xn) para:

Maximizar f (x) ,

En donde f(x) y las g(x) son funciones dadas de n variables de decisión.

No se dispone de un algoritmo que resuelva todos los problemas

específicos que se ajustan a este formato. Sin embargo, se han hecho grandes

logros en los que se refiere a algunos casos especiales importantes de este

problema, haciendo algunas suposiciones sobre las funciones, y la investigación

sigue muy activa.

El problema de programación no lineal puede enunciarse de una forma muy

simple:

Max f ( x) Cuando x∈ X

4

Page 9: Investigacion de Operaciones

2.2 Planteamiento de problemas de Programación no lineal.

Los problemas de programación no lineal se presentan de muchas formas

distintas. Se han desarrollado algoritmos para algunas clases (tipos especiales) de

problemas de programación no lineal.

2.2.1. Optimización no restringida

Los problemas de optimización no restringida no tiene restricciones, por lo

que la función objetivo es sencillamente

Maximizar f (x).

Sobre todos los valores x= (x1, x2, …, xn). La condición necesaria para que

una solución especifica x = x* sea óptima cuando f (x) es una función diferenciable

es

∂ y∂ x

=0 en x = x*, para j = 1, 2, …, n.

Cuando f (x) es cóncava, esta condición también es suficiente, con lo que la

obtención de x* se reduce a resolver el sistema de las n ecuaciones obtenidas al

establecer las n derivadas parciales iguales a cero. Cuando se trata de funciones

no lineales f (x), estas ecuaciones suelen ser no lineales también, es poco

probable que en estos casos se pueda obtener analíticamente su solución

simultánea.

Cuando una variable xj tiene una restricción de no negatividad, x j ≥ 0, la

condición necesaria (y tal vez) suficiente anterior cambia ligeramente a

∂ f∂ x j {≤0 enx=x¿ si x j

¿

¿0enx=x¿ si x j¿

Para cada j de este tipo. Donde la solución óptima de un problema con una

sola variable es x = 0 aun cuando la derivada ahí es negativa y no cero. Como

este ejemplo tiene una función cóncava para maximizar sujeta a una restricción de

5

Page 10: Investigacion de Operaciones

no negatividad, el que su derivada sea menor o igual a 0 en x = 0, es una

condición necesaria y suficiente para que x = 0 sea óptima.

Un problema que tiene algunas restricciones de no negatividad y que no

tiene restricciones funcionales es un caso especial (m = 0) de la siguiente clase de

problemas.

2.2.3. Optimización linealmente restringida

Estos problemas se caracterizan por restricciones que se ajustan por

completo a la programación lineal, de manera que todas las funciones de

restricción gj(x) son lineales, pero la función objetivo es no lineal. El problema se

simplifica mucho si solo se tiene que tomar en cuenta una función no lineal junto

con una región no factible de programación lineal. Se han desarrollado varios

algoritmos especiales basados en una extensión del método símplex para analizar

la función objetivo no lineal.

2.2.4. Programación no cuadrática

Los problemas de programación no cuadrática tienen restricciones lineales,

pero ahora la función objetivo f (x) debe ser cuadrática. Algunos términos de la

función objetivo incluyen el cuadrado de una variable o el producto de dos

variables.

Se han desarrollado muchos algoritmos para este caso, con la suposición

adicional de que f (x) es cóncava.

2.2.5. Programación convexa

6

Page 11: Investigacion de Operaciones

La programación no convexa abarca una amplia clase de problemas entre

los que se encuentra, como los tipos anteriores cuando f (x) es cóncava. Las

suposiciones son que

1. f (x) es cóncava.

2. Cada una de las g(x) son cóncavas.

Estas suposiciones son suficientes para asegurar que un máximo local es

un máximo global.

2.2.6. Programación separable

La programación separable es un caso especial de programación convexa,

en donde la suposición adicional es

3. Todas las funciones f (x) y gi(x) son funciones separables.

Una función separable es una función en la que cada término incluye una

sola variable, por lo que la función se puede separar en una suma de funciones de

variables individuales.

Por ejemplo si f (x) es una función separable, se puede expresar como

f ( x )=∑j=1

n

f j (x j ) ,

En donde cada f j (x j )incluye sólo los términos con x j.

Cualquier problema de programación separable se puede aproximar muy de

cerca mediante uno de programación lineal y, entonces, se puede aplicar el

eficiente método simplex.

2.2.7. Programación no convexa

La programación no convexa incluye todos los problemas de programación

no lineal que no satisfacen las suposiciones de programación convexa. Aun

cuando se tenga éxito en encontrar un máximo local, no hay garantía de que sea

7

Page 12: Investigacion de Operaciones

también un máximo global. No se tiene un algoritmo para garantizar un resultado

óptimo para todos estos problemas, pero si hay algunos bastante adecuados para

encontrar los máximos locales, es decir cuando las formas de las funciones no

lineales se desvían demasiado de aquellas que se supieran para programación

convexa.

Ciertos tipos específicos de problemas de programación no convexa se

pueden resolver mediante métodos especiales.

2.2.8. Programación geométrica

Cuando se aplica programación no lineal a problemas de diseño de

ingeniería, muchas veces la función objetivo y las funciones de restricción toman

la forma

g ( x )=∑i=1

n

c iP i ( x )

En donde

Pi ( x )=x1ai 1x2

a i2…xna∈¿

En estos casos, las ci y aij representas las constantes físicas y las xj las

variables de diseño. Por lo general estas funciones no son ni cóncavas ni

convexas por lo que no se pueden aplicar directamente las técnicas de

programación convexa. Pero, existe un caso en el que el problema se puede

transformar en un problema de programación convexa equivalente. Este caso es

aquel en el que todos los coeficientes c i en cada función son estrictamente

positivos, en otras palabras, las funciones son polinomios positivos generalizados

(llamados posinomiales), y la función objetivo se tiene que minimizar. El problema

equivalente de programación convexa con variables de decisión y1, y2, … yn se

obtiene entonces al establecer

x j=e jy , para i=1 ,2 ,…,n

8

Page 13: Investigacion de Operaciones

En todo el modelo original, y ahora se puede aplicar un algoritmo de

programación convexa.

2.2.9. Programación fraccional

Supongamos que la función objetivo se encuentra en la forma de una

fracción, esto es, la razón o cociente de dos fracciones

f ( x )=f 1 ( x )f 2 ( x )

.

Se han formulado algunos procedimientos de solución especial para ciertas

formas de f 1 ( x ) y f 2 ( x ) .

El enfoque más directo para resolver un problema de programación

fraccional es transformarlo en un problema equivalente de algún tipo estándar que

disponga de un procedimiento estándar.

Suponga que f ( x ) es de la forma de programación fraccional lineal

f ( x )=cx+c0dx+d0

.

En donde c y d son vectores renglón, x es un vector columna y c0 y d0 son

escalares. También suponga que las funciones de restricción g i(x) son lineales, es

decir, las restricciones en forma matricial son Ax ≤ b y x ≥ 0.

Con algunas suposiciones débiles adicionales, el problema se puede

transformar en un problema equivalente de programación lineal haciendo.

y= xdx+d0

y t= 1dx+d0

,

De manera que x = y/t. este resultado conduce a

Maximizar Z=cy+c0 t ,

Sujeta a

Ay−bt ≤0

dy+d0t=1

Y

y ≥0 ,t ≥0

9

Page 14: Investigacion de Operaciones

Que se puede resolver con el método simplex. Se puede usar el mismo tipo

de transformación para convertir un problema de programación fraccional con f 1 ( x )

cóncava, f 2 ( x )convexa y gi ( x )convexas, en un problema equivalente de

programación convexa.

2.2.10. Problemas de complejidad

Dadas las variables w1,w2 ,…wp , y z1 , z2 ,…z p ,el problema de complejidad

encuentra una solución factible para el conjunto de restricciones

w=F ( z ) ,w≥0 , z≥0 ,

Que también satisface la restricción de complementariedad,

wT z=0.

Donde, w y z son vectores columna, F es una función con valores

vectoriales dada y el superíndice T denota la transpuesta. El problema no tiene

función objetivo, así que no es técnicamente un problema de programación no

lineal completo. Se le llama problema de complementariedad por las relaciones

complementarias que establecen que una de las dos

w i=0o z i=0 (oambas ) para cada i=1 ,2 ,…, p .

Un caso especialmente importante es el problema de complementariedad

lineal, en el que

F ( z )=q+Mz ,

En donde q es un vector columna dada y M es una matriz de p x p dada. Se

dispone de algoritmos eficientes para resolver este problema bajo algunas

suposiciones adecuadas sobre las propiedades de la matriz M.

10

Page 15: Investigacion de Operaciones

2.3 Optimización clásica

Es el uso de cálculo diferencial para determinar puntos máximos y mínimos

(extremos) para funciones restringidas y no restringidas. Los métodos expuestos

pueden no ser adecuados para los cálculos numéricos eficientes.

Un problema de optimización sin restricciones tiene el aspecto.

Max .(OMin.) f (X)

s . a X € IR n

El conjunto factible es todo IRn. La condición Xϵ IR n no supone ninguna

restricción habitualmente la omitiremos, escribiendo simplemente.

Max .(oMin .) f (X )

Este tipo de problemas ya han sido estudiados parcialmente por el alumno

en las Matemáticas II, en donde se estudia cómo hallar los máximos o mínimos

locales de una función. (Aunque en un problema de optimización lo que realmente

buscamos son los máximos y mínimos globales).

La forma de buscar los máximos y mínimos globales es comprobar

previamente si nuestra función cumple algún requisito que garantice la existencia

de mínimo global o máximo global.

En este sentido, el hecho de que la función sea coerciva, anticoerciva,

cóncava o convexa puede ser de gran ayuda.

En todo lo que sigue supondremos que las funciones que manejamos son

continuas y que tienen derivadas parciales continuas, al menos hasta el segundo

orden, es decir, que son de clase C2en IRn.

11

Page 16: Investigacion de Operaciones

2.3.1 MÁXIMOS Y MINIMOS

En esta investigación se presenta el método de optimización clásica

relacionado con los máximos y mínimos de funciones no lineales. También se

muestra una explicación del método de optimización simplex para funciones

lineales por el cual se pueden obtener los máximos y mínimos de una función

restringida.

Un problema de optimización combinatoria siempre se le involucra un

conjunto de instancias, donde cada una de ellas cuenta con un conjunto finito de

posibles soluciones (característica imprescindible de los problemas continuos).

Por otra parte la teoría de optimización clásica se usa para la obtención de

los máximos y mínimos de funciones no lineales restringidas y no restringidas, en

los que se hace uso del cálculo diferencial.

MÁXIMOS Y MINIMOS: Mínimo (fuerte): Un punto extremo X 0 de una

función f (X 0) define un mínimo de la función si f (X 0+h) > f (X 0), donde X 0 es

cualquier punto de la función y h en valor absoluto es suficientemente pequeña.

Máximo (fuerte): Un punto extremo X 0 de una función f (X 0 ) define un

máximo de la función si f (X 0 +h) < f (X 0), donde X 0 es cualquier punto de la

función y h en valor absoluto es suficientemente pequeña.

Una función puede contener varios máximos y mínimos, identificados por

los puntos extremos de la función. En la figura se puede observar esto, los puntos

X1 , X3 y X6 son máximos, de la figura notamos que f (X6) es el mayor que f (x1) y

f(x3), a este punto se le conoce como máximo global de la función y a los

restantes como máximos locales. Lo mismo se puede ver para los mínimos, en los

que también existe un mínimo global f (X2) y un mínimo local f (X 4) . Como es de

lógico, solo puede existir un solo global y posiblemente varios locales.

12

Page 17: Investigacion de Operaciones

Figura 1

Figura 1.- Es la representación de máximos y mínimos en una función con una sola variable [Taha 1991].

Una condición necesaria pero no suficiente para que X 0 sea un punto

extremo, es que para una función con más de una variable, el gradiente ∇ f (X 0) =

0. Si es cierto esto entonces X 0 será conocido como punto estacionario.

Una condición suficiente para que un punto estacionario sea extremo es

que

La matriz Hessiana H obtenida en X 0del sistema de ecuaciones sea positiva

cuando X 0 es un punto extremo de mínimo. Y negativa cuando X 0 es un punto

extremo del máximo.

Un máximo débil implica un numero finito de máximos alternativos (ver

figura) y se define como X 0 es un máximo débil, si f (X 0 + h) <= f (X 0). Un análisis

similar es para los mínimos débiles.

Un punto de inflexión se encuentra cuando la evaluación del gradiente da

cero y no es un extremo, esto se debe de cumplir la condición de la matriz

Hessiana.

13

Page 18: Investigacion de Operaciones

2.3.2 Punto de inflexión.

Un punto de inflexión es un punto donde los valores de x de una función

continua pasan de un tipo de concavidad a otro. La curva "atraviesa" la tangente.

Matemáticamente la derivada segunda de la función f en el punto de inflexión es

cero, o no existe.

En el cálculo de varias variables a estos puntos de inflexión se les conoce

como puntos de ensilladura.

2.4 Problemas no restringidos.

Un punto extremo de una función f (X ) define un máximo o un mínimo de la

función. Matemáticamente, un punto X 0=(x i ,… x j ,… xn) es un máximo si,

f ¿

Para toda h=(hi ,…h j ,…hn) tal que |h j| es suficientemente pequeña para

toda j.

En otras palabras, X 0 es un máximo si el valor de f en cada punto en el

entorno de X 0 no excede a f (X0). En forma similar, X 0 es un mínimo si parah, tal

como se definio anteriormente.

f ¿

14

Page 19: Investigacion de Operaciones

2.4.1 Método de LaGrange

En los problemas de optimización, el método de los multiplicadores de

Lagrange, es un procedimiento para encontrar los máximos y mínimos de

funciones de varias variables sujetas a restricciones. Este método reduce el

problema restringido con n variables a uno sin restricciones de n + k variables,

donde k es igual al número de restricciones, y cuyas ecuaciones pueden ser

resueltas más fácilmente. Estas nuevas variables escalares desconocidas, una

para cada restricción, son llamadas multiplicadores de Lagrange. El método dice

que buscar los extremos condicionados de una función con k restricciones, es

equivalente a buscar los extremos sin restricciones de una nueva función

construida como una combinación lineal de la función y las restricciones, donde

los coeficientes de las restricciones son los multiplicadores.

La demostración usa derivadas parciales y la regla de la cadena para

funciones de varias variables. Se trata de extraer una función implícita de las

restricciones, y encontrar las condiciones para que las derivadas parciales con

respecto a las variables independientes de la función sean iguales a cero.

Pueden ser utilizados para estudiar el efecto de variación pequeño en las

restricciones sobre el valor óptimo de f. también se indicó que estos coeficientes

son constantes. Estas propiedades pueden ser utilizadas para resolver los

problemas restringidos por restricciones de igualdad.

Sea

λ=∇Y 0 J−1=∂ f

∂ g

Por consiguiente,

∂ f−λ∂ g=0

15

Page 20: Investigacion de Operaciones

Esta ecuación satisface las condiciones necesarias para puntos

estacionarios, ya que la expresión para ∂ f /∂g se calcula tal que ∇c f=0. Sin

embargo, se obtiene una forma más conveniente para presentar estas ecuaciones

tomando sus derivadas parciales con respecto a todas las x j. Lo anterior da

∂∂ x j

( f−λ g )=0 , j=1 ,2 ,…,n

Las ecuaciones resultantes junto con las ecuaciones de restricciones g=0

proporcionan los valores factibles de x y λ que satisfacen las condiciones

necesarias para puntos estacionarios.

El procedimiento anterior define el método conocido como LaGrange para

identificar los puntos estacionarios de problemas de optimización con restricciones

de igualdad. Este procedimiento puede desarrollarse formalmente como sigue. sea

L (X , λ )=f (X )− λg (X )

La función L se llama la función de LaGrange y los parámetros λ,

multiplicadores deLaGrange.

Las ecuaciones:

∂ L∂λ

=0 y∂ L∂ X

=0

Proporcionan las mismas condiciones necesarias dadas anteriormente y,

por tanto, la función de LaGrange puede utilizarse directamente para generar las

condiciones necesarias. Esto significa esto significa que la optimización de f (X )

sujeto a g (X )=0es equivalente a la optimización de la función de LaGrange se

establecerán sin demostración. Defínase:

16

Page 21: Investigacion de Operaciones

HB=( 0|PPT|Q )(m+n) x (m+n)

Donde

P=(∇g1(X )⋮

∇ gm(X ))mx n y Q=‖∂2L(X ,)∂ x i∂x j

‖m x n

, para toda i y j

La matriz HB se conoce como matriz hessiana en la frontera.

Dado el punto estacionario (X 0 , λ0), para la función de LaGrange L(X , λ) y

la matriz hessiana en la frontera HB evaluada en (X 0, λ0), entonces X 0 es:

1. Un punto máximo si, comenzado con el menor principal del

determinante de orden (2m+1), los últimos (n−m) menores principales del

determinante de HB forman una configuración de signos alternos

comenzando con (−1)m+1.

2. Un punto mínimo si, comenzando con el menor principal del

determinante de orden (2m+1), los últimos (n−m) menores principales del

determinante de HB tienen el signo de (−1)m.

Las condiciones anteriores son suficientes para identificar un punto

extermo, pero no necesarias. En otras palabras, un punto estacionario puede ser

un punto extremo sin satisfacer las condiciones anteriores.

Existen otras condiciones que son tanto necesarias como suficientes para

identificar puntos extremos. La desventaja en este caso es que este

procedimiento es computacionalmente infactible para la mayoría de los propósitos

prácticos. Defina:

17

Page 22: Investigacion de Operaciones

∆=( 0 p

PTQ−μI )

Evaluado en el punto estacionario (X 0, λ0), donde P y Q son como se

definieron antes y μ es un parámetro desconocido. Considere el determinante |∆|;

entonces cada una de las (n−m) raíces ui del polinomio.

|∆|=0

Deben ser,

1. Negativas si X 0 es un punto máximo.

2. Positivas si X 0 es un punto mínimo.

Ejemplo. 1

La función de LaGrange es:

L (X , λ )=x12+x2

2+ x32−λ1 (x1+x2+3 x3−2 )− λ2(5 x1+2 x2+ x3−5)

Esto proporciona las siguientes condiciones necesarias:

∂L∂ x1

=2 x1−λ1−5 λ2=0

∂L∂ x2

=2 x2−λ1−2λ2=0

∂L∂ x3

=2 x3−3 λ1− λ2=0

∂ L∂λ1

=− (x1+x2+3 x3−2 )=0

18

Page 23: Investigacion de Operaciones

∂L∂ λ2

=−(5 x1+2x2+x3−5 )=0

La solución para estas ecuaciones simultáneas proporciona,

X 0=(x1 , x2 , x3 )= (.81 , .35 ,.28 )

λ=(λ1 , λ2)=( .0867 , .0367 )

Esto muestra que estos coeficientes son independientes de la selección del

vector dependiente Y en el método jacobiano. Para mostrar que el punto dado es

mínimo, considere

HB=(0 0 1 1 30 0 5 2 11 5 2 0 01 2 0 2 03 1 0 0 2

)Ya que n=3 y m=2, se deduce que n−m=1. Por consiguiente, es necesario

verificar el determinante de HB=460>0 , X0 es un punto mínimo.

Un método que es conveniente algunas veces para resolver ecuaciones

resultantes a partir de las condiciones necesarias es seleccionar valores

numéricos sucesivos de λ y luego resolver las ecuaciones dadas para determinar

X . Esto se repite hasta que para algunos valores de λ, la X resultante satisface

todas las restricciones activas en forma de ecuación. Sin embargo, este

procedimiento llega a ser muy tedioso computacionalmente cuando aumenta el

numero de restricciones.

19

Page 24: Investigacion de Operaciones

Ejemplo. 2

Considere el problema

Minimizar z=x12+x2

2+x32

Sujeto a

4 x1+x22+2x3−14=0

La función de LaGrange es

L (X , λ )=x12+x2

2+ x32−λ(4 x1+ x2

2+2 x3−12)

Esto proporciona las siguientes condiciones necesarias:

∂L∂ x1

=2 x1−4 λ=0

∂L∂ x2

=2 x2−2 λx2=0

∂L∂ x3

=2 x3−2 λ=0

∂ L∂λ

=−(4 x1+x22−2 x3−14)=0

Cuya solución es

(X 0 , λ0 )=(2 ,2 ,1 ,1)

(X 0, λ0)2=(2 ,−2 ,1 ,1)

(X 0 , λ0)3=(2.8 ,0 ,1.4 ,1.4)

20

Page 25: Investigacion de Operaciones

Aplicando las condiciones de suficiencia se obtiene,

HB=(0 4 2 x2 24 2 0 02x2 0 2−2 λ 02 0 0 2

)Ya que m=1 y n=3, entonces el signo de los últimos (3−1 )=2 menores

principales del determinante debe ser el de (−1)m=−1 a fin de que un punto

estacionario sea un mínimo. Por consiguiente, para (X 0 , λ0)1=(2 ,2 ,1 ,1),

|0 4 44 2 04 0 0|=−32<0 y |0 4 4 2

4 2 0 04 0 0 02 0 0 2

|=−64<0

Para (x0 , λ0)2=(2 ,−2 ,1,1 ) ,

| 0 4 −44 2 0

−4 0 0 |=−32<0 y | 0 4 −4 24 2 0 0

−4 0 0 02 0 0 2

|=−64<0

Finalmente, para (X 0, λ0)3= (2.8 ,0 ,1.4 ,1.4 ) ,

|0 4 04 2 00 0 −0.8|=12.8>0 y |0 4 0 2

4 2 0 00 0 −0.8 02 0 0 2

|=32>0Esto muestra que (X 0)1 y (X 0)2 son puntos mínimo. El hecho de que (X 0)3 no

satisfagan las condiciones de suficiencia de un maximo o un mínimo no es

necesariamente significa que no sea un punto extremo. Esto, como se explicó

anteriormente, se deduce a partir de las condiciones dadas que, aunque

21

Page 26: Investigacion de Operaciones

suficiente, pueden no ser fatisfechas para cada punto extremo. En tal caso, es

necesario usar la otra condicion de suficiencia.

Para ilustrar el uso de la otra condiciones de suficiencia que emplea las

raíces del polinomio, considere.

∆=(0 4 2x2 24 2−μ 0 02x2 0 2−2 λ−μ 02 0 0 2−μ

)Ahora, para (X 0, λ0)1=(2,2 ,1 ,1 ) ,

|∆|=9μ2−26 μ+16=0

Esto da μ=2 o sea 8 /9. Ya que todas las μ>0 (X0)1=(2 ,2 ,1 ) es un punto

mínimo. Finalmente, para (X o , λ0)2= (2,−2 ,1 ) ,

|∆|=9μ2−26 μ+16=0

El cual es el mismo que en el caso anterior. Entonces, (X 0)2=(2 ,−2 ,1) es

un punto mínimo. Finalmente, para (X 0, λ0)3= (2.8 ,0 ,1.4 ,1.4 ) ,

|∆|=5μ2−6 μ−8=0

Esto proporciona π=2 y −0.8 . lo anterior significa que (X 0)3=(2.8 ,0 ,1.4 ) no

es un punto extremo.

Capitulo 3. Procedimiento.

22

Page 27: Investigacion de Operaciones

Realizamos lo siguiente: juntarnos en equipo, buscar y recopilar

información sobre los temas que contiene esta unidad en diferentes fuentes, ya

sea, en internet, libros, revistas y entre otros; luego de recopilar toda la

información es necesario leer, entender sobre los temas que investigamos ya que

no solo es copiar, pegar información, si no sabes delo que trata los temas que

hemos investigado y eso de nada nos podría servir. Luego de seleccionar lo más

importante de cada tema lo pasamos en el proyecto de un forma muy entendible

para nosotros.

Descripción de las actividades.Juntarse.- Reunión de los miembros del equipo para la coordinación de

tareas para cada uno de estos.

Investigar.- Lectura de información en libros, revistas e internet.

Analizar.- Observamos la información obtenida, y tomamos lo más

importante que debe ir en el proyecto.

Capitulo 4. Conclusiones y recomendaciones.

Conclusión

23

Page 28: Investigacion de Operaciones

La programación no lineal es un proceso matemático que se realiza cuando

una función dada no cumple con algunos requisitos para realizarlo con

programación lineal. Y Se puede concluir del planteamiento de programación no

lineal que sus aplicaciones se resuelven mediante la utilización de algoritmos, y

algunos han sido desarrollado para algunas clases especiales de estos. La

optimización clásica es el uso de cálculo diferencial que sirve como una base para

programación no lineal en donde esta incluido los máximos y mínimos para

funciones restringidas y no restringidas de un problema. Problemas no

restringidos, su tarea es encontrar o definir un máximo o un mínimo de una

función, donde usa diferentes métodos por ejemplo el de LaGrange donde sus

funciones son de varias variables sujetas a restricciones.

Recomendaciones.

Cabe mencionar que para poder resolver y entender estos diferentes

métodos hay que leer sobre lo que estemos proporcionando en este documento

puesto que contiene pequeñas información y ejemplos no muy detallados sobre el

tema.

Bibliografía

Frederick S. Hillier, G. J. (1997). Introducción a La Investigación De Operaciones.

Mexico D.F: Mc Graw Hill.

G.D. Eppen, F. G. (2000). Investigacion de Operaciones en la Ciencia Administrativa.

Prentice Hall.

24

Page 29: Investigacion de Operaciones

TAHA. (1992). INVESTIGACION DE OPERACIONES. MEXICO D.F.: ALFAOMEGA.

Taha, H. A. (2004). Investigación De Operaciones. Mexico : Prentice Hall.

25