neurona_aprendizaje en matlab

56
 ESCOM I P N 2005 1 UNIDAD VI UNIDAD VI  Redes de propagación  Redes de propagación hacia delante y hacia delante y aprendizaje supervisado aprendizaje supervisado 6.3 RED de Retro-propagación 6.3.1 Modelo y Arquitectura de la Red. 6.3.2 Algoritmo deAprendizaje.

Upload: tricio-hidalgo

Post on 06-Jul-2015

234 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 1/56

 

ESCOM I P N 2005 1

UNIDAD VI UNIDAD VI 

 Redes de propagación Redes de propagaciónhacia delante yhacia delante y

aprendizaje supervisadoaprendizaje supervisado6.3 RED de Retro-propagación

6.3.1 Modelo y Arquitectura de la Red.6.3.2 Algoritmo de Aprendizaje.

Page 2: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 2/56

 

ESCOM I P N 2005 2

6.36.3

 RED De Retro RED De Retro--propagación propagación

6.3.1 Modelo Y Arquitectura

De La Red

Page 3: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 3/56

 

ESCOM I P N 2005 3

 M ultilayer Perceptron M ultilayer Perceptron

R ± S1 ± S2 ± S3

 Network 

Page 4: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 4/56

 

ESCOM I P N 2005 4

 Arquitectura general de una red de Arquitectura general de una red de

 propagación hacia atrás propagación hacia atrás

Page 5: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 5/56

 

ESCOM I P N 2005 5

Page 6: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 6/56

 

ESCOM I P N 2005 6

 ARQUITECTURA DE LA RBP  ARQUITECTURA DE LA RBP 

� Esta red puede utilizarse para ³Aproximar unafunción´. Puede aproximar cualquier funcióncon un numero finito de discontinuidades.

Page 7: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 7/56

ESCOM I P N 2005 7

 Introducción Introducción

� En 1986, Rumelhart, Hinton y Williamsformalizaron un método para que una red

neuronal aprendieraaprendiera la relación queexiste entre los patrones de entrada a lared y las salidas correspondientes,

utilizando más niveles de neuronas que

los que utilizó Rosenblatt paradesarrollar el Perceptron.

 

Page 8: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 8/56

ESCOM I P N 2005 8

 Introducción Introducción

� La red Back-Propagation está basada enla generalización de la regla delta.

� Al igual que el Perceptron, ADALINE yMADALINE, la red Back-Propagationse caracteriza por tener una arquitecturaen niveles y conexiones estrictamente

hacia adelante entre las neuronas.

� Utilizan aprendizaje supervisado.

 

Page 9: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 9/56

ESCOM I P N 2005 9

¿ En que consiste la RBP?¿ En que consiste la RBP?

Consiste en un aprendizaje de

un conjunto predefinido de paresde entradas-salidas dados como

ejemplo, empleando un ciclo

 propagación-adaptación de dosfases.

 

Page 10: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 10/56

ESCOM I P N 2005 10

F  ASES F  ASES 

Primero.- se aplica un patrón de entrada

como estímulo para la primera capa de las

neuronas de la red, se va propagando através de todas las capas superiores hasta

generar una salida.

Después se compara el resultado obtenido en lasneuronas de salida con la salida que se desea obtener y

se calcula un valor del error para cada neurona de salida.

 

Page 11: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 11/56

ESCOM I P N 2005 11

F  ASES F  ASES 

Segundo.- estos errores setransmiten hacia atrás, partiendo dela capa de salida, hacia todas lasneuronas de la capa intermedia quecontribuyan directamente a la salida,recibiendo el porcentaje de error  

aproximado a la participación de laneurona intermedia en la salidaoriginal.

 

Page 12: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 12/56

ESCOM I P N 2005 12

La importancia de este algoritmo

consiste en su capacidad de auto

adaptar los pesos de las neuronasde las capas intermedias para

aprender la relación que existe

entre un conjunto de patronesdados como ejemplo y sus salidas

correspondientes.

 Importancia Importancia

 

Page 13: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 13/56

ESCOM I P N 2005 13

Ya entrenada la red se podráaplicar esa misma relación (terminado

el entrenamiento

), a nuevos vectoresde entrada con ruido o incompletos,dando una salida activa si la nuevaentrada es parecida a las

presentadas durante elaprendizaje.

G eneralizaciónG eneralización

 

Page 14: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 14/56

ESCOM I P N 2005 14

 Regla Delta G eneralizada Regla Delta G eneralizada

� Es una extensión de la regla deltapropuesta por Widrow (1960).

� Se usa en redes con capas intermediascon conexiones hacia delante y cuyascélulas tienen funciones de activacióncontinuas. Estas funciones continuas son

no decrecientes y derivables (la funciónsigmoidal pertenece a este tipo defunciones).

 

Page 15: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 15/56

ESCOM I P N 2005 15

 Superficie de error  Superficie de error 

El algoritmo utiliza una superficie deerror asociada a la red, buscando elestado de mínimo error a través delcamino descendente de la superficie

del error.

 

Page 16: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 16/56

ESCOM I P N 2005 16

 Superficie de error  Superficie de error 

 

Page 17: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 17/56

ESCOM I P N 2005 17

 Estructura y aprendizaje Estructura y aprendizaje�Capa de entrada con n neuronas.

�Capa de salida con m neuronas.

�Al menos una capa oculta de neuronas.Cada neurona de una capa recibe entradas

de todas las neuronas de la capa anterior y

envía su salida a todas las neuronas de la

capa posterior. No hay conexiones hacia

atrás ni laterales entre neuronas de la

misma capa.

 

Page 18: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 18/56

ESCOM I P N 2005 18

Control de la convergenciaControl de la convergencia� La velocidad de aprendizaje se

controla mediante E. Normalmente,debe ser un número entre 0.05 y 0.25.

Velocidad de convergencia

� El valor de E se aumenta a medidaque disminuye el error.

� Añadir un momento (sumar unafracción del ajuste de peso anterior alajuste actual).

 

Page 19: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 19/56

ESCOM I P N 2005 19

Si una red deja de aprender:

� Realizar un cambio en el número deneuronas ocultas.

� Volver a empezar con un conjunto

distinto de pesos.

 

Page 20: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 20/56

ESCOM I P N 2005 20

 BPN vs . PERCEPTRON  BPN vs . PERCEPTRON � La salida de BPN puede tomar valores entre

0 y 1; el perceptrón sólo toma 0 o 1.

� Perceptrón y BPN normalmente empiezan

con un conjunto de pesos aleatorios.� El método de la regla delta generalizada

para ajustar pesos es el mismo que el de la

regla delta utilizada en el perceptrón y ADALINE.

� BPN usa neuronas con función de activacióncontinua.

 

Page 21: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 21/56

ESCOM I P N 2005 21

 M  ATLAB M  ATLABRED

BACKPROPAGATION

 

Page 22: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 22/56

ESCOM I P N 2005 22

 M ODELO DE UNA NEURONA M ODELO DE UNA NEURONA

� SE PUEDEN CREAR Y SIMULAR CON:

initff y simuff.

� LAS FUNCIONES DE ENTRENAMIENTO

SON:

 ± trainbp (normal),

 ± trainbpx (rápida),

 ± trainlm (más rapida, mucha memoria de PC).

 

Page 23: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 23/56

ESCOM I P N 2005 23

F UNCION DE F UNCION DE 

TRANS F  ERENCIATRANS F  ERENCIA� La función lonsig:

 ± La función logsig(n) genera salidas 0 y 1

 para entradas a la red neuronal que van

desde un valor negativo a positivo, infinito.

� También se pueden utilizar las funciones:

tansig(n) y purelin(n).

 

Page 24: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 24/56

ESCOM I P N 2005 24

� Si la ultima capa de una RBP tiene

neuronas con funciones sigmoides

entonces las salidas de la red estaránlimitadas a un rango pequeño.

� Pero si se utilizan funciones lineales,

entonces la salida de la red podrá tomar 

cualquier valor.

F UNCION DE F UNCION DE 

TRANS F  ERENCIATRANS F  ERENCIA

 

Page 25: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 25/56

ESCOM I P N 2005 25

 DERIVADAS DE LAS F  . T  . DERIVADAS DE LAS F  . T  .´ ´  S  S 

� En una RBP es importante el poder  

calcular las derivadas de cualquier  

función de transferencia utilizada.

� Las derivas de las funciones lonsig,

tansig y purelin son: deltalog, deltatan

y deltalin.

Tansig(µdelta¶)

ans=deltatan

 

Page 26: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 26/56

ESCOM I P N 2005 26

 ... ...

� La función ³simuff ³.- Simula una redfeedforward.

� ³Simuff´ toma las entradas de la red, P; los pesos, W; el umbral, b, y la función detransferencia para tres capas, y regresa lassalidas de cada capa. Por ejemplo para simular 

dos capas:� [a1, a2]=simuff(p, W1, b1, µtansig¶, W2, b2,

 purelin¶)

 

Page 27: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 27/56

ESCOM I P N 2005 27

 ... ...

� Para calcular las salidas de una red de una, dos y

tres capas:

� a=simuff(p, W, b, µtansig¶)� [a1, a2]=simuff(p, W1,B1, µlogsig¶, W2, b2,

µpurelin¶)

� [a1, a2, a3]=simuff(p, W1,B1, µtansig¶, W2, b2,µlogsig¶, W3, b3, µpurelin¶)

� a2=simuff(p, W1, b1, µtansig¶, W2, b2, µpurelin¶)

 

Page 28: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 28/56

ESCOM I P N 2005 28

 INICIALIZACIÓN  INICIALIZACIÓN 

� Para crear una red de dos capas con ocho

neuronas ocultas tansig y cuatro neuronas de

salida purelin, se tiene:

� [W1,b1,W2,b2]=initff(P,8, µtansig¶, 4 µpurelin¶)

 ± donde es importante que P contenga los limites

mínimo y máximo de cada entrada para que así los

mejores W y b sean calculados.

 

Page 29: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 29/56

ESCOM I P N 2005 29

 INICIALIZACIÓN  INICIALIZACIÓN 

[W1,b1,W2,b2]=initff(P,5,¶tansig¶);

� Por ejemplo, una red de una capa con cinco neuronas

 puede tener dos entradas, una de las cuales siempre

tiene valores en el intervalo [-10,+10], y la otra en

[0,5].

� [W1,b1,W2,b2]=initff(P, [-10 10; 0 5], µtansig¶);

 

Page 30: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 30/56

ESCOM I P N 2005 30

 INICIALIZACIÓN  INICIALIZACIÓN 

� Initff .- Puede automáticamente establecer el

numero de neuronas en la capa de salida al

número de columnas de la matriz objetivo T.

� [W1,b1,W2,b2]=initff(P,8,¶tansig¶,T,¶purelin¶);

 

Page 31: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 31/56

ESCOM I P N 2005 31

 Regla de Aprendizaje de la BP  Regla de Aprendizaje de la BP 

� Utilizada para entrenar redes no lineales

multicapa se usa para llevar a cabo:

� La Aproximación de funciones,

� La asociación de patrones, y

� La clasificación de patrones.

 

Page 32: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 32/56

ESCOM I P N 2005 32

 Regla de Aprendizaje de la BP  Regla de Aprendizaje de la BP 

� Las derivadas del error (llamadas vectores

delta) son calculadas para la capa de salida

de la red, y entonces propagadas hacia atrása través de la red hasta que los vectores

delta están disponibles para cada capa

oculta. Los cuales son calculados con lasfunciones:

� deltalin, deltalog, y deltatan.

 

Page 33: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 33/56

ESCOM I P N 2005 33

 Regla de Aprendizaje de la BP  Regla de Aprendizaje de la BP 

� deltalin(a,e) regresa el vector delta parauna capa de salida de neuronas lineales con

un vector de salida a y un vector de errorese.

� deltalin(a,d,W) regresa el vector delta parauna capa oculta de neuronas lineales, con unvector de salida a, presedido de una capacon un vector delta d y una matriz de pesosW.

 

Page 34: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 34/56

ESCOM I P N 2005 34

 Regla de Aprendizaje de la BP  Regla de Aprendizaje de la BP 

� deltalog(a,e) Regresa deltas para una capade salida logsig.

� deltalog(a,d,W) Regresa deltas para unacapa de oculta logsig.

� deltatan(a,e) Regresa deltas para una capa

de salida tansig.� deltatan(a,d,W) Regresa deltas para unacapa de oculta tansig.

  

Page 35: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 35/56

ESCOM I P N 2005 35

 Regla de Aprendizaje de la BP  Regla de Aprendizaje de la BP 

� El cambio realizado en los pesos y los

umbrales son calculados por learnbp.

� El cambio lo realiza utilizando el vector 

delta de la capa, y su vector de la capa

de entrada p, de acuerdo a la regla:

 Dl r b

 D pl r W  T 

!(

!(

 

Page 36: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 36/56

ESCOM I P N 2005 36

6.36.3 RED De Retro RED De Retro--propagación propagación

6.3.2 Algoritmo de Aprendizaje

y Entrenamiento

 

Page 37: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 37/56

ESCOM I P N 2005 37

F uncionamiento del AlgoritmoF uncionamiento del Algoritmode Aprendizajede Aprendizaje

1. Inicialice los pesos de la red con

valores pequeños aleatorios.

2. Presentar un patrón de entrada yespecificar la salida deseada.

3. Calcule los valores de ajuste de las

unidades de salida en base al error observado.

 

Page 38: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 38/56

ESCOM I P N 2005 38

F uncionamiento del AlgoritmoF uncionamiento del Algoritmode Aprendizajede Aprendizaje

4. Empezando por el nivel de salida, repitalo siguiente por cada nivel de la red,hasta llegar al primero de los nivelesocultos:

1. Propague los valores de ajuste de regresoal nivel anterior.

2. Actualice los pesos que hay entre los dos

niveles.5. El proceso se repite hasta que el error 

resulta aceptablemente pequeño paracada uno de los patrones aprendidos.

 

Page 39: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 39/56

ESCOM I P N 2005 39

F uncionamiento del AlgoritmoF uncionamiento del Algoritmo

de Entrenamientode Entrenamiento

�El método es exactamente el mismo

que el de la regla delta utilizada en elPerceptrón y  ADALINE.

obtenida sal d eseada sal  .. !H 

 

Page 40: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 40/56

ESCOM I P N 2005 40

 Algoritmo de retropropagación Algoritmo de retropropagaciónPrimer Paso

,0pa !

,1,,2,0)( 1111 !! M m par ammmmm

-baf a

,Maa !

 

Page 41: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 41/56

ESCOM I P N 2005 41

 Algoritmo de retropropagación Algoritmo de retropropagación

Segundo Paso

,121ssss !pp!

-M M 

,2 atnFs !�

 M 

 M 

 M 

.1,2,,1,11-!!

M m par a smT 

mm

m

mWnFs

 

Page 42: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 42/56

ESCOM I P N 2005 42

 Algoritmo de retropropagación Algoritmo de retropropagaciónTercer Paso

,1 1 T m-m

m

mk k  asWW !

mm

mk k  s1 !

 

Page 43: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 43/56

ESCOM I P N 2005 43

Suponer que se quiere utilizar una

RNA (1-2-1)para aproximar laf unción:.22

41)( ee¹

 º

 ¸©ª

¨! p para p sin p g 

 

Page 44: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 44/56

ESCOM I P N 2005 44

 Entrenamiento Entrenamiento

? A ? A.48.00,13.0

48.00,17.009.00,

47.0

27.00 2121 !¼

½

»¬«

!!¼

½

»¬«

! bbW W 

1.0!Si  p = 1 y entonces:

,0 1pa !!

 

Page 45: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 45/56

ESCOM I P N 2005 45

 Entrenamiento Entrenamiento

La salida de la primera capa es:

? A

¼½

»

¬

«!

¼¼¼¼

½

»

¬¬¬¬«

!

¹

¹

 º

 ¸

©

©

ª

¨

¼½

»

¬

«

!¹¹ º

 ¸

©©ª

¨

¼½

»

¬

«

¼½

»

¬

«

!!

368.0

321.0

1

1

1

1

54.0

75.0log

13.0

48.0

141.0

27.0

log)(

54.0

75.0

10111

e

e sig 

 sig baWf a

 

Page 46: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 46/56

ESCOM I P N 2005 46

 Entrenamiento Entrenamiento

Mientras que la salida para la

segunda capa es :

? A ? A ? A446.048.0368.0

321.017.009.0)( 21222 !¹¹ º

 ¸©©ª

¨ ¼½»¬«!! purel inbaWf a

Y se calcula el error de la red que

será de:

261.1446.014

14

1 2 !À¿¾

°¯®

¹ º

 ¸©ª

¨!

À¿¾

°¯®

¹ º

 ¸©ª

¨!!

T T  sina p sinat e

 

Page 47: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 47/56

ESCOM I P N 2005 47

 Entrenamiento EntrenamientoEtapa 2 retropopagación de la sensibilidad.

Se necesita derivar las funciones de

transferencia de las capas de la Red:

11

2

1.

11

1

1

11

11

1)( aa

eee

e

ed n

d n f  

nnn

n

n!¹

 º

 ¸©ª

¨

¹ º

 ¸©ª

¨

!

 º

 ¸©ª

¨

!

12.

!! nd n

d n f  

 

Page 48: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 48/56

ESCOM I P N 2005 48

 Entrenamiento EntrenamientoEl punto de inicio se encuentra enla segunda etapa :

? A 522.2261.112261.122 2

2.

2

2

2!!¼

½

»

¬

«

!!

n f  atnFs

La sensibilidad de la primera capa se calcula

al retropropagar la sensibilidad desde la

segunda capa:

  

Page 49: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 49/56

ESCOM I P N 2005 49

 Entrenamiento Entrenamiento

La etapa final del algoritmo

conlleva la actualización de los

pesos :

? A

? A

.0997.0

0495.0429.0

227.0233.000218.0

522.217.0

09.0

368.0368.010

0321.0321.01

522.2

17.0

09.0

10

01

1

2

1

2

1

1

1

12211

1

¼½»¬«!¼

½»¬«¼

½»¬«!

!¼½

»¬«

¼½

»¬«

!

½

»¬«

¼

¼

½

»

¬

¬«

!!

aa

aa s

T WnFs

 

Page 50: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 50/56

ESCOM I P N 2005 50

 Entrenamiento EntrenamientoLa etapa final del algoritmo conlleva la

actualización de los pesos y umbrales,

para la capa de salida:

? A ? A? A? A.0772.0171.0

368.0321.0522.21.017.009.001 12

2

2

!

!!!T 

asWW

? A ? A ? A732.0522.21.048.001 2

2

2 !!! sbb

 

Page 51: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 51/56

ESCOM I P N 2005 51

 Entrenamiento Entrenamiento

Y para las capas ocultas:

? A .420.0

265.0

10997.0

0495.0

1.041.0

27.001

01

1

1

¼½

»

¬

«

!¼½

»

¬

«

¼½

»

¬

«

!!

asWW

¼½

»

¬

«

!¼½

»

¬

«

¼½

»

¬

«

!

! 140.0

475.0

0997.0

0495.0

1.013.0

48.0

01

1

1

1

sbb

 

Page 52: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 52/56

ESCOM I P N 2005 52

 Entrenamiento Entrenamiento

Estos resultados completan la

primera iteración del algoritmo de

la retropropagación. Secontinuará iterando hasta que la

diferencia entre la respuesta de la

red y la función objetivo alcancealgún nivel aceptable.

 

Page 53: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 53/56

ESCOM I P N 2005 53

Consideraciones sobre el algoritmo deConsideraciones sobre el algoritmo de

aprendizajeaprendizaje� Este algoritmo encuentra un valor  

mínimo de error (local o global)

mediante pasos descendentes(gradiente descendente).

� Cada punto de la superficiecorresponde a un conjunto de valoresde los pesos de la red.

 

Page 54: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 54/56

ESCOM I P N 2005 54

Consideraciones sobre el algoritmo deConsideraciones sobre el algoritmo de

aprendizajeaprendizaje� Con el gradiente descendente, siempre

que se realiza un cambio en todos los

pesos de la red, se asegura eldescenso por la superficie del error  

hasta encontrar el valle más cercano, lo

que puede hacer que el proceso deaprendizaje se detenga en un mínimo

local de error.

 

Page 55: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 55/56

ESCOM I P N 2005 55

 Superficie de error  Superficie de error 

 

Page 56: Neurona_aprendizaje en Matlab

5/8/2018 Neurona_aprendizaje en Matlab - slidepdf.com

http://slidepdf.com/reader/full/neuronaaprendizaje-en-matlab 56/56

ESCOM I P N 2005 56

UNIDAD VI UNIDAD VI 

 Redes de propagación Redes de propagaciónhacia delante yhacia delante y

aprendizaje supervisadoaprendizaje supervisado

6.4 Solución de problemas con

MATLAB