redes neuronales aprendizaje asociativo

58
FEBRERO DE 200 3 M en C. José Luis Calderó n O. 1

Upload: escom

Post on 11-May-2015

11.998 views

Category:

Education


8 download

TRANSCRIPT

Page 1: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 1

Page 2: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 2

¿Qué es una Asociación? • Es cualquier relación entre la

entrada de un sistema y su salida de tal forma que cuando el patrón A se presenta al sistema este responderá con un patrón B.

Page 3: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 3

Estimulo / Respuesta

• Cuando dos patrones son relacionados por una asociación, el patrón de entrada es conocido como estimulo y el patrón de salida referido como respuesta.

Page 4: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 4

Estímulo• Los pensamientos son activados

por estimulación externa• El mismo pensamiento es

estimulado por un infinito numero de factores

• Si existe suficiente estimulación se piensa en un concepto

Page 5: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 5

Estímulos /Respuesta

Just Do it...

Soy totalmente Soy totalmente Palacio...Palacio...

A que no puedes comer solo una...

En su cuenta se va dar cuenta...

Duermes o descansas...

Con toda confianza es...

Page 6: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 6

Estímulos/ Respuesta

Page 7: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 7

Los Pensamientos

• Los pensamientos permanecen aun después de que la estimulación se ha ido...

• El factor olvido comienza a operar...

Page 8: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 8

Condicionamiento Clásico

• Ivan Petrovich Pavlov (1849-1936)

• Fisiología, Psicopatología animal,

• Reflejos condicionados.

• Premio novel en fisiología (1904)

                                           

Page 9: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 9

Aprendizaje Asociativo Pavloviano/clasico

Condicionamiento– comida (E. No

Condicionado)– Salivación a la comida

(Respuesta)– campana (E.

Condicionado)– Salivación al oír la

campana (Respuesta)

Page 10: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 10

Condicionamiento• C. Observacional: copiar acciones de otros,

“lo que el mono vee, es lo que hace”

• C. Operacional: Involucra una acción y una respuesta. “aprieta el boton y obten comida”.

• C. Clasico: Involucra un estímulo y una respuesta (I. Pavlov)

Page 11: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 11

Reglas del Aprendizaje Asociativo

•Regla de Hebb–Regla de Hebb con degradación

•Regla de la Red INSTAR•Regla de la red OUTSTAR•Regla de Kohonen

Page 12: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 12

Aprendizaje Hebbiano

• Donald O. Hebb (1904-1985)

• Padre de Psicobiologia Cognoscitiva

• The Organization of Behaviour (1942)

Page 13: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 13

Postulado de Hebb

• “Cuando un axón de una neurona A esta suficientemente cerca para excitar a una neurona B, y toma parte en su activación repetidamente o persistentemente, ocurre un crecimiento o cambio metabólico en una o en ambas celdas, de tal forma que la celda A se vuelve mas eficiente al disparar B”

The Organization of Behavior (1949)

Page 14: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 14

Lo que se traduce en ...• Si dos neuronas en ambos lados de una

sinapsis (conexión) son activadas simultáneamente, entonces la fuerza de la sipnasis es selectivamente incrementada (el peso w aumenta).

• Si dos neuronas en ambos lados de una sinapsis son activadas asincronamente, entonces la sinapsis es selectivamente debilitada o eliminada.

Page 15: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 15

– Hebb propuso la primera regla de aprendizaje neuronal en 1943. Su idea fue que dos neuronas cuya salida fuere alta al mismo tiempo deberían desarrollar una fuerte conexión entre ellas.

• Limitaciones

– Esta regla no tiene un mecanismo para decrementar los pesos o hacerlos estables. El resultado es que los pesos crecen indefinidamente.

Descripción

Page 16: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 16

Regla de Hebb No supervisada

• Incrementa justamente el peso Wij entre la entrada de la neurona Pj y la salida ai en proporción a su producto.

Donde: Es la razón de aprendizaje

Toldnew apWW

Page 17: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 17

Red Asociativa Simple

p1 stimulus0 no stimulus

=

a1 response0 no response

=

)( bwphardlima

Page 18: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 18

Asociador de Frutas (Bananas)

p0 1 shape detected0 shape not detected

= p1 smell detected0 smell not detected

=

Estimulo No condicionado Estimulo Condicionado

Page 19: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 19

Regla de Hebb Autosupervisada

Forma Vectorial:

Secuencia de entrenamiento:

)()()1()( qpqaqWqW Tjiijij

)()()1()( qpqaqWqW T

)(,),2(),1( Qppp

Page 20: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 20

Ejemplo 1: Reconocimiento de Frutas

Pesos Iniciales:

Secuencia de Entrenamiento:

= 1

0)0(,10 ww

1)1(,0)1(0 pp

1)2(,1)2(0 pp

)()()1()( qpqaqwqw

Page 21: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 21

Limitantes en la Regla de Hebb

• Los pesos crecen arbitrariamente grandes

• No tiene algún mecanismo para disminuirlo.

0 10 20 300

10

20

30

Page 22: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 22

– La regla de Hebb pura permite construir asociaciones. Sin embargo, esta no proporciona algún mecanismo para olvidar o para limitar el tamaño de los pesos.

– Al agregar la razón de degradación a la regla de Hebb ambos efectos son logrados.

Regla de Hebb con degradación

Page 23: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 23

– La degradación se implementa agregando un termino extra en la ecuación de la actualización de pesos.

– El termino es negativo y proporcional a los actuales pesos sinapticos.

– Este parámetro toma valores entre cero y uno.

Regla de Hebb con degradación

Page 24: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 24

Regla de Hebb con Degradación

• Esta regla mejora a la anterior al degradar W.

• Donde: es la razón de degradación; constante positiva con valores entre 0 y 1. Esta constante evita que W crezca sin limite.

)()()1()1()( qpqaqWqW T

Page 25: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 25

Razón de Degradación • Si tiende a 1; La ley de aprendizaje

olvida rápidamente las entradas anteriores y recuerda los patrones más recientes

• El valor máximo de la matriz de pesos es:

Se requiere que el estimulo sea repetido o la asociación se ira perdiendo

max

ijWEsta impide que la matriz de pesos crezca sin limite

Page 26: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 26

Regla de Hebb con Degradación

0 10 20 300

2

4

6

8

10

Page 27: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 27

Ejemplo 2: Asociador de Bananas

Primera Iteración (falla la señal):

w 1 w 0 a 1 p 1 0.1w 0 –+ 0 0 1 0.1 0 –+ 0= = =

w 2 w 1 a 2 p 2 0.1w 1 –+ 0 1 1 0.1 0 –+ 1= = =

= 0.1 = 1

)5.0)1()0()1(()1( 00 pwpwhardlima

0)5.01001()1( hardlima

No responde :(

Page 28: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 28

Ejemplo 2: Asociador de Bananas

• Segunda Iteración (señal activa):

Responde :)

w 1 w 0 a 1 p 1 0.1w 0 –+ 0 0 1 0.1 0 –+ 0= = =

)5.0)2()1()2(()2( 00 pwpwhardlima

1)5.01011()2( hardlima Banana

)1(1.0)2()2()1()2( wpaww

1)0(1.0110)2( w

Page 29: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 29

El Problema de la regla de Hebb con degradación

Si ai = 0, entonces

Si = 0, se transforma

0 10 20 300

1

2

3

La asociación se anulara si el estimulo nos se presenta ocasionalmente

Por lo tanto el el peso decae en 10% en cada iteración cuando no hay estimulo

)1()9.0()( qwqw ijij

)1()1()( qwqw ijij

Page 30: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 30

Regla INSTAR

Page 31: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 31

Red INSTAR

• Reconocimiento de patrones

• Similar arquitectura al perceptrón

• Realiza distintas funciones con diferente análisis

Page 32: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 32

Regla INSTAR• Un problema con la regla de Hebb

con degradación es que requiere que el estimulo se repita o la asociación se ira perdiendo.

• La regla INSTAR minimiza el olvido

• Proporciona vectores de pesos normalizados si los vectores de entrada están normalizados

In this configuration the to neuron responds to a pattern of the from neuron

Page 33: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 33

• La regla INSTAR permite a una neurona aprender un nuevo vector mediante el ajuste de sus pesos equivalente a la entrada actual con una razón proporcional a la salida de la neurona.

• Asi, cualquier circunstancia que cause que una INSTAR tenga un alto resultado de salida en el aprendizaje de la INSTAR del vector actual en sus entradas.

Descripción

Page 34: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 34

• Posteriormente, la presentación de la misma entrada causara que la instar tenga una salida significativa. Notese que esto causara que el aprendizaje se incremente de nuevo pero que los pesos serán re entrenados al mismo vector de entrada.

• De esta manera el aprendizaje es estable.

Page 35: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 35

Regla INSTAR

• La regla solo modifica W cuando la neurona esta activa

• Si ai(q) = 1

)1()()()1()( qWqpqaqWqW T

)()1()1()( qpqWqW

Se considera

Page 36: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 36

Representación Gráfica de la Regla INSTAR

• Cuando la INSTAR esta activa el vector de pesos se mueve hacia el vector de entrada.

• La distancia en que se mueve el vector de pesos depende de

Page 37: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 37

Representación Gráfica de la Regla INSTAR

• Si = 0 ; el nuevo vector de pesos es igual al anterior (no se mueve)

• si = 1 ; el nuevo vector de pesos es igual al vector de entrada (máximo movimiento)

Page 38: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 38

Representación Gráfica de la Regla INSTAR

• Si = 0.5 el vector de pesos se encuentra al mitad entre el vector anterior de pesos y el vector de entrada.

Page 39: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 39

Ejemplo 1: INSTAR

p0 1 orange detected visually

0 orange not detected

=

pshapetex ture

weight

=

Clasificador de Frutas

Page 40: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 40

Diagrama de la red

Page 41: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 41

Regla de KOHONEN

Page 42: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 42

Regla de Kohonen

)]1()([)1()( qWqpqWqW

La regla de Kohonen permite a una neurona almacenar los vectores de entrada de tal forma que este pueda ser reconocido después. Mediante el ajuste de los pesos de una neurona equivalente a su vector de entrada actual.

Page 43: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 43

–Note que para una capa de neuronas con salidas restringidas a uno o cero, el aplicar la regla INSTAR es equivalente a aplicar la regla de Kohonen a neuronas con salida uno. En estos casos, la regla de Kohonen es mas eficiente.

Page 44: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 44

Regla OUTSTAR

Page 45: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 45

RED OUTSTAR

In this configuration the from neuron activates a pattern of the to neurons

Page 46: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 46

Regla OUTSTAR

• Regla OUTSTAR

)()]1()([)1()( qpqWqaqWqW

Page 47: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 47

• Los pesos de una capa OUTSTAR se pueden pensar como una memoria a largo plazo de tantos vectores como entradas tenga la capa . A menudo las capas OUTSTAR son lineales. Si Este es el caso, el ajuste de una sola entrada de la capa OUTSTAR a uno resulta en que la entrada a la red (y por lo tanto la salida) de la capa se haga equivalente a los pesos de la entrada activada.

Descripción

Page 48: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 48

• Así, el vector almacenado en los pesos de entrada puede ser regresado al activar esa entrada. La regla de aprendizaje de la OUTSTAR permite a los pesos de entrada aprender el vector en la capa lineal de salida, cada vez que la entrada tome un valor grande.

Page 49: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 49

Ejemplo 1: OUTSTAR

W0

1 0 0

0 1 00 0 1

=

p0

shape

tex tureweight

=p

1 if a pineapple can be seen0 otherwise

=ppi neap ple

1–1–

1

=

)( 00 WppWsatlinsa

Page 50: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 50

Red OUTSTAR del ejemplo

Page 51: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 51

Funciones del Aprendizaje Asociativo

MATLAB / NEURAL NETWORK TOOLBOX

Page 52: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 52

Regla de Aprendizaje Hebbiana

• dW = learnh (p, a, lr);

• W = W + dW;

• donde:

• lr es la razón de aprendizaje ()

Page 53: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 53

Regla de Aprendizaje Hebbiana con Degradación

• dW = learnhd (W, p, a, lr, dr);• W = W + dW;

• donde:

• lr es la razón de aprendizaje ()

• dr es la razón de degradación ()

Page 54: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 54

Regla de Aprendizaje INSTAR

• dW = learnis (W, p, a, lr);

• W = W + dW;

• donde:

• lr es la razón de aprendizaje

Page 55: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 55

Regla de Aprendizaje de KOHONEN

• a = comp (-dist (W,p));

• dW = learnk (W, p, a, lr);

• W = W + dW;

• donde:

• lr es la razón de aprendizaje

Page 56: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 56

Regla de Aprendizaje OUTSTAR

• a = purelin (w*p);

• dW = learnos (W, a, p, lr);

• W = W + dW;

• donde:

• lr es la razón de aprendizaje

Page 57: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 57

Dudas ???

Page 58: REDES NEURONALES Aprendizaje  Asociativo

FEBRERO DE 2003 M en C. José Luis Calderón O. 58

Hasta la próxima !!!