el problema de optimización lineal con restricciones[1].docx
TRANSCRIPT
Índice
Introducción 1
El problema de optimización lineal con restricciones 2
Función de LaGrange 2-3-4
Las condiciones de Karush-Kuhn-Tucker 4-5-6-7-8
Tipos de programación 9
Programación cuadrática 9-10-11-12-13
Programación separable 14
Programación geométrica 15-16-17-18
Métodos de penalización 18-19-20-21-22-23-24-25-26-27
Conclusiones 28
Bibliografías 29
Introducción
En muchos problemas las restricciones se pueden incluir dentro de la función
objetivo, por lo que la dimensionalidad el problema se reduce a una variable. Algunos
problemas sin restricciones, inherentes incluyen una única variable. Las técnicas de
optimización con y sin restricciones, generalmente incluyen pasos de búsqueda
unidireccional en sus algoritmos.
Antes de la aparición de los ordenadores de alta velocidad los métodos de
optimización estaban prácticamente lineados a los métodos indirectos en los cuales el
cálculo del extremo potencial estaba restringido al uso de derivadas y las condiciones
necesarias de optimalizad. Los modelos ordenadores han hecho posible los métodos
directos, esto es la búsqueda de un óptimo por comparación sucesiva de los valores de
la función en una secuencia de puntos sin la necesidad de hacer intervenir derivadas
analíticas.
Para llevar a cabo métodos directos de minimización numérica solamente se
usa el valor de la función objetivo. En optimización sin restricciones se minimizan
una función objetivo que depende de variables reales sin restricciones sobre los
valores se esas variables.
En la práctica los problemas de optimización casi nunca son sin restricciones,
lo usual es que se minimice un costo sujeto a satisfacer ecuaciones de restricciones,
estas ecuaciones normalmente están basadas en modelos que describen la interacción
entre el control y otras variables físicas.
1
El Problema de Optimización Lineal con Restricciones
Es la selección del mejor elemento con respecto a algún criterio de un
conjunto de elementos disponibles.
En el caso más simple, un problema de optimización consiste en maximizar o
minimizar una función real eligiendo sistemáticamente valores de entrada tomados de
un conjunto permitido y computando el valor de la función. La generalización de la
teoría de la optimización y técnicas para otras formulaciones comprende un área
grande de las matemáticas aplicadas. De forma general, la optimización incluye el
descubrimiento de los mejores valores de alguna función objetivo dado un dominio
definido, incluyendo una variedad de diferentes tipos de funciones objetivo y
diferentes tipos de dominios.
Función de Lagrange
Método para trabajar con funciones de varias variables que nos interesa
maximizar o minimizar, y está sujeta a ciertas restricciones.
En los problemas de optimización, los multiplicadores de Lagrange,
nombrados así en honor a Joseph Louis Lagrange, son un método para trabajar con
funciones de varias variables que nos interesa maximizar o minimizar, y está sujeta a
ciertas restricciones. Este método reduce el problema restringido en n variables en
uno sin restricciones de n + 1 variables cuyas ecuaciones pueden ser resueltas.
2
Este método introduce una nueva variable escalar desconocida, el
multiplicador de Lagrange, para cada restricción y forma una combinación lineal
involucrando los multiplicadores como coeficientes. Su demostración involucra
derivadas parciales, o bien usando diferenciales totales, o sus parientes cercanos, la
Regla de la cadena. El fin es, usando alguna función implícita, encontrar las
condiciones para que la derivada con respecto a las variables independientes de una
función sea igual a cero.
Se denomina péndulo simple a una existencia ideal constituido por una masa
puntual suspendido de un hilo inextensible y sin peso, capaz de oscilar libremente en
el vacío y sin rozamiento. Al separar la masa de su posición de equilibrio, oscila a
ambos lados de dicha posición, realizando un movimiento armónico simple.
Naturalmente es imposible la realización práctica de un péndulo simple, pero si es
accesible a la teoría.
El péndulo simple o matemático se denomina así en contraposición a los
péndulos reales, compuestos o físicos, únicos que pueden construirse.
Al considerarse un péndulo simple, si se desplaza la partícula desde la
posición de equilibrio hasta que el hilo forme un ángulo Θ con la vertical, y luego se
abandona partiendo del reposo, el péndulo oscilará en un plano vertical bajo la acción
de la gravedad.
Las oscilaciones tendrán lugar entre las posiciones extremas Θ y -Θ,
simétricas respecto a la vertical, a lo largo de un arco de circunferencia cuyo radio es
la longitud, del hilo. El movimiento es periódico, pero no se puede asegurar que sea
armónico.
3
Para determinar la naturaleza de las oscilaciones se debe de escribir la
ecuación del movimiento de la partícula. La partícula se mueve sobre un arco de
circunferencia bajo la acción de dos fuerzas: su propio peso (mg) y la tensión del hilo
(N).
Las Condiciones de Karush-Kuhn-Tucker
Son condiciones necesarias y suficientes para que la solución de un problema
de programación matemática sea óptima. Es una generalización del método de los
Multiplicadores de Lagrange.
Problema general de optimización:
Consideremos el siguiente problema general:
,
,
Donde es la función objetivo a minimizar, son las restricciones de
desigualdad y son las restricciones de igualdad, con y el número de
restricciones de desigualdad e igualdad, respectivamente.
4
Las condiciones necesarias para problemas con restricciones de desigualdad
fueron publicadas por primera vez en la tesis de máster de W. Karush, aunque fueron
renombradas tras un artículo en una conferencia de Harold W. Kuhn y Albert W.
Tucker.
Condiciones necesarias de primer orden:
Supongamos que la función objetivo, por ejemplo, a minimizar, es
y las funciones de restricción son y .
Además, supongamos que son continuamente diferenciables en el punto . Si es
un mínimo local, entonces existe constantes , y
tales que
Condiciones de regularidad o cualificación de las restricciones:
En la condición necesaria anterior, el multiplicador dual puede ser igual a
cero. Este caso se denomina degenerado o anormal. La condición necesaria no tiene
en cuenta las propiedades de la función sino la geometría de las restricciones.
5
Existen una serie de condiciones de regularidad que aseguran que la solución no
es degenerada es decir . Estas incluyen:
Cualificación de la restricción de independencia lineal (CRIL): los gradientes
de las restricciones activas de desigualdad y los gradientes de las restricciones
de igualdad son linealmente independientes en .
Cualificación de la restricción de Mangasarian-Fromowitz (CRMF): los
gradientes de las restricciones activas de desigualdad y los gradientes de las
restricciones de igualdad son linealmente independientes positivos en .
Cualificación de la restricción de rango constante (CRRC): para cada
subconjunto de las restricciones activas de desigualdad y los gradientes de las
restricciones de igualdad, el rango en el entorno de es constante.
Cualificación de la restricción de dependencia lineal constante positiva
(DLCP): para cada subconjunto de restricciones activas de desigualdad y de
gradientes de las restricciones de igualdad, si es linealmente dependiente
positivo en entonces es linealmente dependiente positivo en el entorno de
. ( es linealmente dependiente positivo si existe
distintos de cero tal que )
Condición de Slater para un problema únicamente con restricciones de
desigualdad, existe un punto tal que para todo
Puede verse que CRIL=>CRMF=>DLCP, CRIL=>CRRC=>DLCP, aunque CRMF
no es equivalente a CRRC. En la práctica, se prefiere cualificación de restricciones
más débiles ya que proporcionan condiciones de optimalizad más fuertes.
6
Condiciones suficientes:
Sea la función objetivo y las funciones de restricción
sean funciones convexas y sean las funciones de
afinidad, y sea un punto . Si existen constantes y
tales que
Entonces el punto es un mínimo global.
Optimización en la Toma de decisiones:
Una de las características del ser humano es su capacidad para tomar
decisiones, lo que incluye, básicamente, su capacidad para analizar las alternativas y
evaluarlas en términos de su comportamiento respecto de los objetivos que desea
conseguir. Es una actividad tan cotidiana que prácticamente no le prestamos atención.
En muchos casos hemos ‘automatizado’ ese proceso de toma de decisiones como
fruto de la experiencia. Sin embargo, cuando el problema al que nos enfrentamos es
muy complejo, hay muchas alternativas posibles, y son graves sus consecuencias, por
lo que resulta difícil realizar este proceso de análisis y evaluación.
Los problemas que surgen en las grandes organizaciones, tanto en el sector
privado como en el público, son tan complejos que no pueden resolverse usando
exclusivamente sentido común y experiencia práctica. Se deben tomar decisiones
sobre la manera óptima de usar los recursos disponibles, generalmente escasos, para
lograr unos ciertos objetivos.
7
La Investigación Operativa proporciona modelos y técnicas para abordar estos
problemas, que permiten comprender los sistemas reales y, en general, facilitan
información sobre la decisión o el conjunto de decisiones más adecuado de acuerdo
con los objetivos establecidos y el impacto que pueden tener sobre el funcionamiento
del sistema como un todo.
Una de las ramas de la Investigación Operativa, la denominada Optimización
o Programación Matemática, estudia el uso de modelos matemáticos para ayudar en
el proceso de toma de decisiones. El proceso comienza con la formulación del
modelo que es una representación del sistema real. Un modelo matemático consta de
un conjunto de variables cuyo valor ha de determinarse; un conjunto de restricciones
que reflejan las relaciones entre las variables; y el/los objetivo/s que permiten
comparar la calidad de las soluciones que satisfacen las restricciones. Las
características de las variables, restricciones y objetivos determinan la complejidad
del modelo y la capacidad que tenemos de resolverlo.
La toma de decisiones basada en la optimización procedentes de la solución
optimizada, se conocen los verdaderos beneficios alternativos o los costos de
oportunidad asociados a ella. En cambio, en aquellos casos en los cuales uno o varios
elementos que hacen al negocio o a alguna dimensión del negocio no se incluyen en
el modelo acerca del cual se decide, sino que son considerados individualmente, los
beneficios alternativos o los costos de oportunidad concurrentes a la solución no
reflejarán correctamente el valor que poseen para ese negocio.
Por ejemplo, una solución productiva sustentada en a el menor costo en
términos de tiempo de procesos sean simples o complejos y b en el menor costo
operativo, no necesariamente garantiza que sea una solución sustentable en términos
de la búsqueda de market share o de una estructura financiera determinada y lo
mismo sucede en la situación opuesta.
8
Tipos de Programación
Existen varias clases de programación, dependiendo de los métodos utilizados
y las técnicas empleadas.
Los tipos o técnicas de programación son bastante variados, aunque puede que
muchos de los lectores sólo conozcan una metodología para realizar programas. En la
mayoría de los casos, las técnicas se centran en programación modular y
programación estructurada, pero existen otros tipos de programación. Los
explicaremos a lo largo del artículo.
Programación Cuadrática
La programación cuadrática es un tipo especial en la matemática de optimización de
problemas. Es el problema de optimizar reduciendo al mínimo o maximizando una función
cuadrática de varias variables conforme a apremios lineales en estas variables. El problema de la
programación cuadrática se puede formular como:
suma x pertenece a espacio. n×n matriz Q es simétrico, y c es cualquiera n
vector×1. Reduzca al mínimo con respecto a x Conforme a unos o más apremios
de la forma: constreñimiento de la desigualdad. Ex =d necesidad de la igualdad
Si Q es a matriz positiva, entonces f(x) es unción convexa. En este caso el
programa cuadrático tiene un minimizar global si existe por lo menos un vector x
de satisfacción de los apremios y f(x) se limita abajo en la región factible. Si la
matriz Q es definido positivo entonces este minimizar global es único. Si Q es
cero, después el problema convierte en a programa lineal.
9
De teoría de la optimización, una condición necesaria para un punto x ser un minimizar global está
para que satisfaga Karush-Kuhn-Tucker Condiciones KKT. Las condiciones de KKT son también
suficientes cuando f (x) es convexo. La importancia de la programación cuadrática recae en que,
como es un caso especial de la programación no lineal, se utiliza como una función
modelo para aproximar funciones no lineales a través de modelos locales. La
programación cuadrática trabaja con una clase especial de problemas en el que una
función cuadrática de variables de decisión sujeta a restricciones lineales desde
igualdad requiere ser optimizada, bien sea, ser minimizada o maximizada. Una
función cuadrática, en notación matricial, es una función de la forma
f (x)= ½ x TQx + cTx. Es de gran importancia identificar o poder definir la
característica de la matriz Hessiana, ya que a partir de ésta podemos determinar
ciertas características del problema, que nos serán útiles para encontrar su solución.
Para que utilizamos la Programación Cuadrática
Existen diferentes tipos de problemas de programación cuadrática, los cuales
se pueden clasificar en: Problemas cuadráticos de minimización sin restricciones,
requieren minimizar la función cuadrática f (x) sobre el espacio completo. Problemas
cuadráticos de minimización sujetos a restricciones de igualdad, requieren minimizar
la función objetivo
f(x) sujeta a restricciones lineales de igualdad Ax = b. Problemas cuadráticos de
minimización sujetos a restricciones lineales desde igualdad. Requieren minimizar la
función objetivo f (x) sujeta a restricciones lineales desde igualdad Ax = b, también
puede contener restricciones de igualdad. Problemas de optimización de redes
cuadráticas. Son problemas cuadráticos en los que las restricciones son restricciones
de baja conservación sobre una red pura o generalizada.
10
Problemas cuadráticos convexos. Son cuales quiera de los mencionados
arriba, en el cual la función objetivo a ser minimizada, f (x) es convexa. Problemas
cuadráticos no convexos. Son cuales quiera de los mencionados arriba, en el cual la
función objetivo a ser minimizada, f (x) es no convexa. Problemas de
complementariedad lineal. Son problemas especiales con un sistema de ecuaciones en
variables no negativas, en el cual las variables están formadas en varios pares
llamados pares complementarios. Históricamente, las funciones cuadráticas fueron
prominentes porque proveían modelos locales simples para funciones no lineales
generales. Una función cuadrática, es la función no lineal más simple, y cuando es
usada como una aproximación para una función no lineal general, esta puede capturar
la información importante de la curvatura, lo que una aproximación lineal no puede.
El uso de aproximaciones cuadráticas para resolver problemas con funciones no
lineales generales se remonta mucho tiempo atrás. Entre los métodos más destacados,
tenemos al método de Newton y el método de gradiente conjugado. Para la
programación cuadrática se pueden encontrar mínimos locales, mínimos globales,
puntos estacionarios o de KKT, (son los que satisfacen las condiciones de KKT del
problema).En problemas convexos de programación cuadrática, todo punto KKT o
mínimo local, es un mínimo global
Ejemplo de su aplicación
Resolver el siguiente problema de programación cuadrática por el método de
Wolfe :Aplicando los multiplicadores de Lagrange tenemos: Las primeras derivadas parciales son:
El problema de programación lineal equivalente al original de acuerdo al método Wolfees: Con las
siguientes restricciones de holgura complementaria: Utilizando el método Simplex se tiene que la
solución básica inicial es: En la primera iteración entra y sale X1 es de aclarar que aunque el Simplex
escoge 1 y 2 para entrar a la base antes que lo haga X2, 1 y 2 no son aceptables, ya que Y1 y
Y2 son positivos.
11
El punto extremo luego se recálcala es:
En la tercera iteración no pueden entrar a la base 1 y 2 y Y1 y Y2 son positivas; el
Simplex toma como siguiente candidato a 1 y de salida Y1; el punto extremo después de iterar es:
En la última iteración.
12
(V1 = 0 y V2 = 0) debe entrarX1pero no puede porque 1 es positivo; el siguiente elemento a
entrar a la base es 1 el cual reemplaza aV2 Luego de re calcular el punto extremo es: La solución
anterior corresponde al óptimo:
13
Programación Separable
La programación separable es un caso especial de programación convexa, en
donde la suposición adicional es todas las funciones f(x) y g(x) son funciones
separables.
Una función separable es una función en la que cada término incluye una sola
variable, por lo que la función se puede separar en una suma de funciones de
variables individuales. Por ejemplo, si f(x) es una función separable, se puede
expresar como:
Son cada tina funciones de una sola variable x1 y x2, respectivamente. Usando el
mismo razonamiento, se puede verificar que la función considerada en la figura 13.7
también es una función separable.
Es importante distinguir estos problemas de otros de programación convexa,
pues cualquier problema de programación separable se puede aproximar muy de
cerca mediante uno de programación lineal y, entonces, se puede aplicar el eficiente
método símplex.
14
La Programación Geométrica
Soluciona un caso especial de problemas de Programación No Lineal.
Este método resuelve al considerar un problema dual asociado los siguientes dos
tipos de Programación No Lineal:
1. Problema Geométrico No Restringido:
2. Problema Geométrico Restringido:
Donde es real, para toda
supone para ambos casos son finitas, los exponentes no tienen
restricciones de signo , las funciones toman la forma de un polinomio,
excepto que los exponentes pueden ser negativos; por esta razón y
porque todas las ; se denominan posinomiales. La Programación
Geométrica fue diseñada por Duffin, Peterson y Zener.
15
La lógica de la Programación Geométrica se basa en la desigualdad de
Cauchy desigualdad de media aritmética - geométrica:
El método de solución consiste en calcular las primeras derivadas parciales de
de la función objetivo se obtiene la ecuación:
De las primeras derivadas parciales iguales a cero se escribe la relación:
Donde aij son los coeficientes positivos, m es el número de variables y n el
número de términos. Generalmente, el número de términos determina el número de
factores de peso y el número de variables independientes señala el número de
ecuaciones.
Cuando n = m + 1, se dice que el problema tiene cero grados de dificultad.
Cuando n - (m + 1)> 0, es un problema que no se puede resolver mediante
Programación Geométrica. Finalmente se resuelven los sistemas de ecuaciones
simultáneas planteadas y se obtiene la solución del problema.
16
Ejemplo:
1. Encontrar la cantidad económica de pedido de un producto, es decir, se debe
decidir qué cantidad del artículo conviene almacenar periódicamente; los
costos totales asociados al producto y su almacenamiento se pueden
expresar
CT = CCI + CHP + VC donde;
Donde:
La función objetivo tiene la siguiente formula general:
17
De tal modo que al resolver el anterior sistema de ecuaciones simultáneas
llegamos a que 1 = 2 y la variable Q* debe ser tal que haga que los dos términos
de la función objetivo sean iguales:
Método De Penalización
Si se tiene un problema de Programación Lineal, que no se encuentra expresado
en forma canónica, es recomendable utilizar el Método de Penalización. Las
restricciones e inclusive las variables de holgura son presentadas como una
igualdad o no-negativas, deberán introducirse variables artificiales ( ), que harán
posible resolver el problema. Existen varias maneras de darle solución al problema
planteado, dos de ellas son estos dos métodos de solución alternativa :
a. El Método de Penalización
b. El Método de Doble Fase
18
Para lo cual debe seguirse un método que permita convertir en cero a la
variable artificial para obtener una solución factible. A este método se le conoce
como Método de la M Grande, o la Gran M, Big M Method en la literatura inglesa.
Este método radica en la introducción de la variable artificial que modifica a
la función objetivo, que será a su vez multiplicada por una cantidad M, que
describe un valor muy grande con signo negativo cuando se quiera maximizar y en
caso de minimizar el valor arbitrario será positivo y muy elevado, que amplía el
espacio de soluciones factibles. Se tiene que:
Opt Z = Cx
Sujeto a :
Ax b y/o Ax = b
Tal que Ax = b puede decirse como [ b.] tenemos que para minimizar la función
objetivo:
Mín Z= C x + M
S.a
A x – Y + M = b
x 0, Y 0, M 0.
19
Si se busca maximizar Z:
Max Z = C x – M
S.a
A x + Y – M = b
Se obtiene la solución óptima del problema sí y solo sí el vector M es igual con
cero. El Método Simplex trata en cada iteración mejorar la función objetivo. Si el
problema original no tiene restricciones inconsistentes, el vector M, saldrá de la
base por completo, o sea M = 0, se habrá retornado al problema original y se
obtendrá por el Método Simplex la solución óptima. En caso de haber utilizado el
Método de la M, y haber llegado a la solución óptima; pero el vector M > 0,
entonces el problema original no tiene solución, por las restricciones inconsistentes
del problema.
Método de la M Grande o de Penalización
Los pasos a seguir son:
1. Expresar el problema en forma estándar, teniendo en cuenta que:
Todas las restricciones son ecuaciones, con excepción de la restricción de
no-negatividad,
El valor de , o los valores de la extrema derecha de la tabla deben ser
también no negativos.
Las variables x estarán expresadas en forma no-negativa
La optimización de la función objetivo, puede ser de maximización o
minimización.
20
Recordar que:
Mín Z = max H max H = min (-Z)
1. Reescribir el problema; Haciendo igualdades las desigualdades, tomando en
cuenta las variables de holgura y de exceso donde sean requeridas. De tal
forma que:
I. Introducir las variables artificiales ( ) en las restricciones que tengan la
característica ( b, = b ).
II. Asignar la penalización para cada unidad de las variables en la función
objetivo designada como (–M) para problemas de maximización y (+M) para
minimización, con M>0.
1. Elaborar la primera tabla con todo lo anterior señalado.
2. Mediante el uso de las operaciones de renglón elementales, a fin de expresar
el coeficiente ( –M) en caso de maximizar, ó (+M) en el de minimizar ,
haciendo cero el valor de la variable artificial
3. Continuar con el algoritmo del Método Simplex descrito anteriormente.
A continuación se presenta un problema de programación lineal, que será resuelto
por el Método de Penalización y que posteriormente, éste mismo se resolverá con el
Método de las Dos Fases.
Min Z =
21
Sujeto a las siguientes restricciones:
4
6
18
con 0, siendo j = 1, 2
0, 0, 0, 0, 0, 0.
Asignar la penalización a la función objetivo , que radica en colocar (+M) para
problemas de maximización, e introducir la variable artificial ( ), quedando:
Min Z = + M
Hacer la función objetivo igual a cero, y las restricciones expresadas en forma
de igualdad, considerando las variables de exceso y superfluas.
De manera que:
Mín Z +
22
Con los datos anteriores se elabora la primera tabla
TABLA I
Z
Fo Vb 1 3 -5 0 0 0 -M 0
FP
F2
F3
0 1 0 1 0 0 0 4
0 0 1 0 1 0 0 6
-M 3 2 0 0 -1 1 18
Nótese que no hay solución básica, ya que tiene coeficiente –M, para lo
cual se transformará la fila Vb (Variables básicas), haciendo (M) Vb + Vb para
obtener el coeficiente cero
Quedando la fila Vb de la siguiente manera:
13+3M -5+2M 0 0 -M 0 18M
23
que resultará en la siguiente tabla Entra
Z
Fo Vb 1 3+3M -5+2M 0 0 -M 0 18M
0 1 0 1 0 0 0 4
0 0 1 0 1 0 0 6
0 3 2 0 0 -1 1 18
Sale
La solución básica Zo = 18M; pero al min Z, la condición no se
cumple, ya que existe ( 3+ 3M) en , y que resulta un número muy grande
positivo (la condición de optimalizad que minimice se cumplirá cuando existan
números negativos, y/o ceros en su totalidad en la primera fila, que corresponde a
las variables x, las variables de holgura S, y las superfluas Y), el cual entrará en la
tabla siguiente.
Luego entonces se aplica el algoritmo del método Simplex.
Si;
24
Hacemos
Entonces = 4
Sale con la fila:
10 1 0 0 0 4
Con coeficiente =1 en el traslape de la fila que sale y la columna que
entra , es automáticamente, la fila pivotal.
Se hacen operaciones de renglón,
Fo – ( 3 + 3 M) FP
Y F3 – 3FP
TABLA II Entra
Z
Vb 1 0 -5+2M -3-3M 0 -M 0 -12+6M
0 1 0 1 0 0 0 4
0 0 1 0 1 0 0 6
0 0 2 -3 0 -1 1 6
Sale
25
Se observa que y Z óptimo = ( -12 + 6M )
La optimalizad no se cumple en ( 5 + 2M), que es un número muy
grande positivo, (el doble de él, mas cinco unidades), luego entonces, entra con
se calcula
= 3, por lo tanto sale de la tabla, que en la fila
02 -3 0 -1 1 6
En la cual, el traslape de la fila con la columna resulta ser 2 , que se convertirá
en coeficiente con valor a la unidad (1), haciendo sencillos arreglos matriciales,
multiplicando por 1/2 toda la fila, se producirá la fila pivotal F.P.
01 -3/2 0 -1/2 1/2 3
Haciendo las operaciones de renglón, utilizando la fila pivotal F.P. siguientes
FP + F2 Y ( 5 - 2 M) FP + Fo , tenemos, los siguiente:
26
TABLA II
Z
Fo Vb 1 0 0 -21/2 0 -5/2 5/2-M 3
0 1 0 1 0 0 0 4
0 0 0 3/2 1 1/2 -1/2 3
0 0 1 -3/2 0 -1/2 1/2 3
Se cumple la optimalizad de , (para las variables x, las de
holgura S, y la superflua Y, existen números negativos y/o ceros)que para este caso
fue de minimizar la función objetivo.
Sin dejar de tomar en cuenta que el vector de soluciones óptimas indica que
deben sus componentes ser mayores y/o iguales que cero, para cumplir con el
conjunto de restricciones a los que está sujeta la función objetivo Z.
Luego entonces,
La solución óptima será para:
La función objetivo óptima es:
Con = 3.
27
Conclusiones
La optimización numérica de funciones no lineales requiere la utilización de
técnicas de optimización eficiente y robusta. La eficiencia es importante porque la
solución de estos problemas se lleva a cabo por un procedimiento iterativo. La
robustez habilidad para encontrar la solución es una propiedad deseable dado que el
comportamiento de las funciones no lineales puede ser impredecible:
Pueden presentar máximo y mínimo, mínimos y punto de sillas. En algunas
regiones el avance hacia el óptimo puede ser muy lento, necesitando mucho tiempo
de cálculo. Afortunadamente se posee mucha experiencia utilizando métodos de
optimización numérica lo que permite contar con buenos algoritmos y conocer sus
limitaciones y posibilidades.
28
Bibliografía
www4.ujaen.es/~angelcid/Archivos/Analisis_Mat_II.../Practica6.pdf
ortalevlm.usal.es/INDEX_FILES/BASES/.../MULTILAGRANGEEJ.PD...
es.thefreedictionary.com/optimizar
sl1.mit.edu/mib/dsp/curricula.mit.edu/~dsplan/Docs/.../index.htm
www.mty.itesm.mx/etie/deptos/m/ma00-130/lecturas/m130-15.pdf
29
República bolivariana de Venezuela
Ministerio del poder popular para la defensa
Universidad Experimental Politécnica de las Fuerzas Armadas
Unefa-Chuao
Nocturno
Unidad 5. Método de Optimización Con Restricciones
Integrantes
Yanes Zuryn
Guevara Rafael
Fernandez Maria
Martines Luis
Caracas 11 de Diciembre del 2013