new matem matemática superior aplicadaática superior aplicada · 2017. 9. 9. · 20/11/2009...

11
Matemática Superior Aplicada Profesor: Dr. Alejandro S. M. Santa Cruz Auxiliares de Cátedra: Dr. Juan Ignacio Manasaldi ( [email protected] ) Ing. Amalia Rueda: ( [email protected] ) [email protected]

Upload: others

Post on 24-Oct-2020

3 views

Category:

Documents


0 download

TRANSCRIPT

  • Matemática Superior Aplicada

    Profesor: Dr. Alejandro S. M. Santa Cruz

    Auxiliares de Cátedra:

    Dr. Juan Ignacio Manasaldi ([email protected])

    Ing. Amalia Rueda: ([email protected])

    [email protected]

    mailto:[email protected]

  • 02/10/2020 Matemática Superior Aplicada - UTN - FRRo 2

    • Utiliza una aproximación lineal para obtener una

    dirección de descenso de f(x).

    • Dirección de descenso: El vector d es una dirección

    de descenso de una función f(x) si existe un δ > 0

    tal que:

    y

    f ( x d ) f ( x ) (0, )

    0

    f x + d f xlim 0

    Optimización Multidimensional No RestringidaMétodo del Gradiente

  • 02/10/2020 Matemática Superior Aplicada - UTN - FRRo 3

    • La búsqueda se realiza lo largo de la dirección d,

    minimizando el límite citado anteriormente.

    • Si f(x) es diferenciable en x con gradiente no nulo

    la dirección de descenso con mayor pendiente es:

    f ( x )d

    f ( x )

    Optimización Multidimensional No RestringidaMétodo del Gradiente

  • 02/10/2020 Matemática Superior Aplicada - UTN - FRRo 4

    Método del GradienteAlgoritmo

  • 02/10/2020 Matemática Superior Aplicada - UTN - FRRo 5

    EjemploProblema: Minimizar (x1 – 2)

    4 + (x1 – 2x2)2 , punto de inicio: (0.00, 3.00).

    4 2

    1 2 1 1 2, 2 2f x x x x x

    3

    1 1 1 2

    1 2

    2

    4 2 2 2

    4 2

    f

    x x x xf

    f x x

    x

  • 02/10/2020 Matemática Superior Aplicada - UTN - FRRo 6

    Ejemplo

  • 02/10/2020 Matemática Superior Aplicada - UTN - FRRo 7

    x=[0.5,0.5];

    delta=1;

    h=1e-5;

    n=length(x);

    while delta>1e-4,

    for i=1:n

    ep=zeros(size(x));

    ep(i)=h;

    gradf(i)=(fex(x+ep)-fex(x-ep))/2/h;

    end

    direc=-gradf/norm(gradf);

    clear alpha f

    alpha(1)=0.1;

    alpha(2)=0.2;

    alpha(3)=0.3;

    f(1)=fex(x+alpha(1)*direc);

    f(2)=fex(x+alpha(2)*direc);

    f(3)=fex(x+alpha(3)*direc);

    i=3;

    while abs(alpha(i)-alpha(i-1))>1e-6 ft=f(i-2:i)'; at=alpha(i-2:i)'; a=[ones(3,1),at,at.^2]; coeff=a\ft; i=i+1; alpha(i)=-coeff(2)/2/coeff(3); f(i)=fex(x+alpha(i)*direc);

    end x=x+alpha(i)*direc; delta=abs(alpha(i));end

  • 02/10/2020 Matemática Superior Aplicada - UTN - FRRo 8

    0

    0.5

    1

    1.5

    2

    0

    0.5

    1

    1.5

    21

    1.5

    2

    2.5

    3

    3.5

    0.4 0.5 0.6 0.7 0.8 0.9 1 1.1 1.2 1.3 1.40.4

    0.5

    0.6

    0.7

    0.8

    0.9

    1

    1.1

    1.2

    1.3

    1.4

    2

    2 2

    1

    1( ) exp 1

    4

    xf x x

  • Optimización Multidimensional – Método Simplex

    2

    2 2

    1

    1( ) exp 1

    4

    xf x x

  • Función de Rosenbrock ‘banana’ :

    Optimización Multidimensional – Método Simplex

    2 22

    1 2 2 1 1, 100 1f x x x x x

  • Función de Himmelblau: 2 2

    2 2

    1 2 1 2 1 2, 11 7f x x x x x x

    Optimización Multidimensional – Método Simplex