metodos de optimizacion

17
INSTITUTO UNIVERSITARIO POLITÉCNICO “SANTIAGO MARIÑO” EXTENSIÓN PORLAMAR Realizado por: Br. David Enrique Valdiviezo C.I: 21.326.272 Profesor: Ing. Rodríguez Diógenes Métodos de Optimización Porlamar, Junio 2014

Upload: devdavid

Post on 10-Jun-2015

257 views

Category:

Presentations & Public Speaking


1 download

DESCRIPTION

Métodos de Optimizacion

TRANSCRIPT

Page 1: Metodos de optimizacion

INSTITUTO UNIVERSITARIO POLITÉCNICO “SANTIAGO MARIÑO”

EXTENSIÓN PORLAMAR

Realizado por:Br. David Enrique Valdiviezo

C.I: 21.326.272Profesor:

Ing. Rodríguez Diógenes

Métodos de Optimización

Porlamar, Junio 2014

Page 2: Metodos de optimizacion

EXTREMOS NO RESTRICTOS CON DOS VARIABLES

Una derivada parcial de una función de diversas variables, es su derivada

respecto a una de esas variables manteniendo las otras como constantes.

Las derivadas parciales de primer y segundo orden son implementadas

para hallar el punto critico de funciones vectoriales y geométricas

Page 3: Metodos de optimizacion

EJERCICIO DE EXTREMOS NO RESTRICTOS CON DOS VARIABLES

Determinar los extremos de la función:

Solución

Primero, de acuerdo a los pasos del procedimiento, necesitamos encontrar las derivadas

parciales de la función de primer y segundo orden con respecto a las variables .

Comenzamos primer hallando la derivada parcial de primer orden con respecto a :

Derivada parcial con respecto a :

Derivada parcial con respecto a :

() =

Page 4: Metodos de optimizacion

Una vez obtenidas las derivadas parciales de primer orden, procedemos a hallar las derivadas parciales de segundo orden:

Para encontrar los valores de y igualaremos a 0 los valores de la ecuación de primer orden:

= 0

= 0

lo que nos deja un sistema de ecuación por resorber por el método de reducción quedando de la siguiente manera :

= 0 }

= 0 }

Page 5: Metodos de optimizacion

Para resolver la ecuación por método de reducción podemos multiplicar la segunda ecuación por 4 para anular

las o la primera ecuación por 2 para anular las en este caso lo multiplicaremos por 4:

------------------------

Ahora para hallar el valor de la debemos reemplazar el valor de la en cualquiera de las ecuaciones:

Page 6: Metodos de optimizacion

El punto crítico lo encontramos en (1,3). Una vez ubicado el punto crítico, es necesario determinar su naturaleza para ello debemos aplicar la prueba D en las derivadas parciales de segundo orden:

D =

D =

D = 32 – 4

D = 28 > 0

Ahora sustituimos los valores que se encontraron para y en la función original:

+ + -2 (1) (3) -10 (3) – 2 (1)

= 4 + 18 - 6 - 30 - 2

= 22 – 38

= -16

Lo que significa que la función () = tiene un valor mínimo relativo en el punto (1 , 3) y ese valor mínimo es -16.

Page 7: Metodos de optimizacion

METODO DE LAGRANGE

El método Langrangiano son unas técnicas o métodos que se utilizan para trabajar con

las funciones de varias variables que necesitas maximizar o que necesitamos minimizar, las

cuales poseen una serie de condiciones o restricciones, es un método que reduce los

problemas restringidos en las variables “n” es uno sin ningún tipo de restricciones de “n + 1”

variables en las cuales las ecuaciones se pueden resolver. Por este método se pudo crear

una nueva forma o variable que era desconocida, que se llamó El multiplicador de Lagrange,

nombre que se le coloca en honor a su creador al piamontés Giuseppe Lodovico Lagrangia

(Joseph Louis Lagrange).

Page 8: Metodos de optimizacion

EJERCICIO DE METODO DE LAGRANGE

Determinar el punto P(x, y, z) más cercano al origen en el plano 2x + y - z - 5 = 0.

Solución

El problema nos pide determinar el valor mínimo de la función

Sujeta a la restricción

2x + y - z - 5 = 0.

Como tiene un valor mínimo siempre que la función

Tenga un valor mínimo, podemos resolver el problema si encontramos el valor mínimo de la función sujeta a la restricción 2x + y - z - 5 = 0 nuestro problema se reduce al de determinar los puntos (x, y) donde la función

Page 9: Metodos de optimizacion

Nuestro problema se reduce a determinar los puntos (x, y) donde la función

Teniendo los valores mínimos. Como el dominio de es todo el plano el criterio de la primera derivada nos

dice que cualquier mínimo que pudiera tener, debe ocurrir en puntos donde

Esto nos conduce a

y la solución es

Page 10: Metodos de optimizacion

Podemos aplicar un argumento geométrico junto con el criterio de la segunda derivada para mostrar

que estos valores minimizan La coordenada del punto correspondiente en el plano es

por tanto el punto que buscamos es

Punto mas cercano

La distancia de al origen es 5 / 26 L 2.04.

Page 11: Metodos de optimizacion

MATRIZ JACOBIANA

La matriz jacobiana es una matriz formada por las derivadas parciales de

primer orden de una función. Una de las aplicaciones más interesantes de

esta matriz es la posibilidad de aproximar linealmente a la función en un

punto. En este sentido, el Jacobiano representa la derivada de una función

multivariable.

Page 12: Metodos de optimizacion

EJERCICIO DE MATRIZ JACOBIANA

Calcular la matriz jacobiana de

Solución

Como en nuestro caso tenemos una función la matriz jacobiana será de orden 2x3, y sus

elementos vienen dados por:

Observando que en nuestro caso los componentes de son :

y

Page 13: Metodos de optimizacion

Calculamos ya los elementos de la matriz jacobiana

(pues actúan como constante)

(pues actúan como constante)

(pues actúan como constante)

(pues no aparece en la expresión de )

(pues al derivar respecto actúa como constante)

(pues al derivar respecto actúa como constante)

De este modo la matriz jacobiana de nuestra función es

Page 14: Metodos de optimizacion

CONDICIONES DE KUHN TUCKER

Las condiciones de optimalidad de Karush Kuhn Tucker (KKT) permiten

abordar la resolución de modelos de Programación No Lineal que

consideran tanto restricciones de igualdad como desigualdad. En

términos comparativos las condiciones de KKT son más generales que el

Método de Lagrange el cual se puede aplicar a problemas no lineales

que consideran exclusivamente restricciones de igualdad.

Page 15: Metodos de optimizacion

EJERCICIO DE CONDICIONES DE KUHN TUCKER

Minimizar la función de costo, sujeto a una restricción de igualdad.

Maximizar : K = 5x2 – 80x + y2 – 32y

Sujeto a : x + y ≥ 30

Paso 1: Multiplicando la función objetivo por –1 y estableciendo el Lagrangiano,

C = -5x2 + 80x - y2 + 32y + λ (x + y – 30)

Paso 2: Donde las condiciones de Kuhn-Tucker son,

Cx = -10x + 80 + λ ≤ 0 Cy = -2y + 32 + λ ≤ 0 Cλ= x + y – 30 ≥ 0

x ≥ 0 y ≥ 0 λ≥ 0

x( -10x + 80 + λ) = 0 y(-2y + 32 + λ) = 0 λ( x + y – 30) = 0

Page 16: Metodos de optimizacion

Paso 3: Se testean o revisan las condiciones de Kuhn-Tucker,

(a) Si λ= 0 x, y > 0 entonces de las condiciones de Kuhn-Tucker llevan a:

Si λ= 0 entonces de x ( -10x + 80 + λ) = 0 se tiene que:

x =8, y = 16

Sin embargo, estos resultados violan Cλ= x + y – 30 ≥ 0 ya que: 8 + 6 – 30 ≤ 0.

(b) Si λ > 0, x, y > 0 todas las primeras derivadas parciales son estrictas igualdades:

Page 17: Metodos de optimizacion

Donde:

∣A = 12 ∣ A1 = 109 ∣ ∣ A2 = 252 ∣ ∣A3 = 440 ∣ ∣

Y se obtiene que:

x = 9 y = 21 λ= 36.67

Los cuales dan la solución óptima, ya que ninguna condición de Kuhn-Tucker es

violada.