aprendizaje asociativo hebbiano

43
Aprendizaje Asociativo

Upload: escom

Post on 21-Dec-2014

2.237 views

Category:

Education


4 download

DESCRIPTION

 

TRANSCRIPT

Page 1: Aprendizaje Asociativo Hebbiano

Aprendizaje Asociativo

Page 2: Aprendizaje Asociativo Hebbiano

Aprendizaje Asociativo

ESTIMULO RESPUESTA

Page 3: Aprendizaje Asociativo Hebbiano

Red Asociativa Simple

a hardlim wp b+ hardlim wp 0.5– = =

p1 stimulus0 no stimulus

= a1 response0 no response

=

Page 4: Aprendizaje Asociativo Hebbiano

Asociador de Fruta

p0 1 shape detected

0 shape not detected

= p1 smell detected0 smell not detected

=

Estimulo No Condicionado Estimulo Condicionado

Page 5: Aprendizaje Asociativo Hebbiano

1.1.1 Regla de Hebb No Supervisada

w ij q w ij q 1– ai q p j q +=

W q W q 1– a q pT q +=

En forma de Vector:

p 1 p 2 p Q

Secuencia de Entrenamiento:

Page 6: Aprendizaje Asociativo Hebbiano

Ejemplo: Identificador

w0

1 w 0 0= =

Pesos Iniciales:

p0

1 0= p 1 1= p0

2 1= p 2 1=

Secuencia de Entrenamiento:

w q w q 1– a q p q +=

a 1 hardlim w0

p0

1 w 0 p 1 0.5–+ hardlim 1 0 0 1 0.5–+ 0 (no response)

=

= =

Primera Iteración (Vista No presente):

w 1 w 0 a 1 p 1 + 0 0 1+ 0= = =

= 1

Page 7: Aprendizaje Asociativo Hebbiano

Ejemplo (nnd13uh)

a 2 hardlim w0

p0

2 w 1 p 2 0.5–+ hardlim 1 1 0 1 0.5–+ 1 (banana)

== =

Segunda Iteración (Aspecto presente):

w 2 w 1 a 2 p 2 + 0 1 1+ 1= = =

Tercera Iteración (Vista No presente):

a 3 hardlim w0

p0

3 w 2 p 3 0.5–+ hardlim 1 0 1 1 0.5–+ 1 (banana)

=

= =

w 3 w 2 a 3 p 3 + 1 1 1+ 2= = =

A partir de este momento, la Fruta será detectada si cualquiera de los sensores está presente.

Page 8: Aprendizaje Asociativo Hebbiano

Problemas con la Regla de Hebb

Los Pesos pueden crecer sin medida.

No existe un mecanismo para disminuir los Pesos.

Page 9: Aprendizaje Asociativo Hebbiano

Regla de Hebb con Degradación

W q W q 1– a q pT q W q 1– –+=

W q 1 – W q 1– a q pT q +=

Ésta Regla impide que la matriz de pesos crezca sin medida, lo cual se demuestra al igualar ai y pj a 1:

wi jm ax

1 – wi jm ax ai pj+=

wi jm ax

1 – wi jm ax +=

wi jm ax

---=

Page 10: Aprendizaje Asociativo Hebbiano

Ejemplo: Asociador de Fruta

a 1 hardlim w0

p0

1 w 0 p 1 0.5–+ hardlim 1 0 0 1 0.5–+ 0 (no response)

=

= =

Primera Iteración (No vista):

w 1 w 0 a 1 p 1 0.1w 0 –+ 0 0 1 0.1 0 –+ 0= = =

a 2 hardlim w0

p0

2 w 1 p 2 0.5–+ hardlim 1 1 0 1 0.5–+ 1 (banana)

== =

Segunda Iteración (vista presente):

w 2 w 1 a 2 p 2 0.1w 1 –+ 0 1 1 0.1 0 –+ 1= = =

= 0.1 = 1

Page 11: Aprendizaje Asociativo Hebbiano

Ejemplo (nnd13hd) (nnd13edr)Tercera Iteración (No vista):

a 3 hardlim w0

p0

3 w 2 p 3 0.5–+ hardlim 1 0 1 1 0.5–+ 1 (banana)

=

= =

w 3 w 2 a 3 p 3 0.1w 3 –+ 1 1 1 0.1 1 –+ 1.9= = =

0 10 20 300

10

20

30

0 10 20 300

2

4

6

8

10

Regla de Hebb Hebb Con Degradación

wi jm ax

---

10.1------- 10= = =

Page 12: Aprendizaje Asociativo Hebbiano

Problema en Hebb con Degradación

• La asociación se degradará si el estimulo no se presenta ocasionalmente.

wij q 1 – w ij q 1– =

Si ai = 0, Entonces,

Si = 0.1, esto se convierte

wi j q 0.9 wi j q 1– =

Por lo cual el Peso se degrada un 10% en cada iteracióndonde no exista estimulo.

0 10 20 300

1

2

3

Page 13: Aprendizaje Asociativo Hebbiano

1.1.2 REGLA INSTAR

Page 14: Aprendizaje Asociativo Hebbiano

Red de Reconocimiento simple

Vector de entrada.

Instar.

Reconoce patrones.

Page 15: Aprendizaje Asociativo Hebbiano

Instar (Operación)

a hardlim Wp b+ hardlim wT1 p b+ = =

La instar estará activa cuando

wT1 p b–

Para vectores normalizados, el producto punto mayor ocurre cuando el ángulo entre el vector de pesos y el vector de entradas

es cero -- El vector de entrada es igual al vector de pesos.

Las filas de una matriz de pesos representa los patronesa ser reconocidos.

Page 16: Aprendizaje Asociativo Hebbiano

Reconociendo un Vector

b w1 p–=

Si el umbral es

El instar solo será activado cuando =0.

b w1 p–>

Si el umbral es

el instar estará activo para un determinado rango de ángulos.

Si b se incrementa, habrá más patrones (sobre un amplio rango de ) los cuales activarán el instar.

w1

Page 17: Aprendizaje Asociativo Hebbiano

Red INSTAR

Reconocimiento de patrones,Similar arquitectura al perceptron,Realiza el reconocimiento de un vector,Todos los vectores tienen la misma longitud (normales).

Page 18: Aprendizaje Asociativo Hebbiano

Regla INSTAR

Un problema con la regla de Hebb con degradación es que requiere que el estimulo se repita o la asociación se ira perdiendo.

La regla INSTAR minimiza el olvido.

Proporciona vectores de pesos normalizados si los vectores de entrada están normalizados

Page 19: Aprendizaje Asociativo Hebbiano

Regla Instar (nnd13is, nnd13gis)

w ij q wij q 1– ai q p j q +=

Hebb con Decay

Solo ocurrirán modificaciones al aprendizaje y al olvidocuando la neurona este activa - Regla Instar:

wi j

q wi j

q 1– ai

q pj

q ai

q w q 1– –+=i j

w ij q wij q 1– ai q pj q wi j q 1– – +=

w q i w q 1– i ai q p q w q 1– i– +=

o si es igual a

En forma de Vector:

Page 20: Aprendizaje Asociativo Hebbiano

Representación Gráfica

w q i w q 1– i p q w q 1– i– +=

Para el caso donde el instar está activo (ai = 1):

orw q i 1 – w q 1– i p q +=

Para el caso donde el instar está inactivo (ai = 0):w q i w q 1– i=

Page 21: Aprendizaje Asociativo Hebbiano

EN RESUMEN

Page 22: Aprendizaje Asociativo Hebbiano

Regla de Hebb no supervisada

Incrementa justamente el peso Wij entre la entrada de la neurona Pj y la salida ai en proporción a su producto.

Donde: Es la razón de aprendizaje. q Es el numero de iteración.

Page 23: Aprendizaje Asociativo Hebbiano

Regla de Hebb con Degradación

Esta regla mejora a la anterior al degradar W.

Donde: es la razón de degradación; constante positiva con valores entre 0 y 1. Esta constante evita que W crezca sin limite.

Page 24: Aprendizaje Asociativo Hebbiano

Razón de Degradación

Si tiende a 1; La ley de aprendizaje olvida rápidamente las entradas anteriores y recuerda los patrones más recientesEl valor máximo de la matriz de pesos es:

Se requiere que el estimulo sea repetido o la asociación se ira perdiendo

Page 25: Aprendizaje Asociativo Hebbiano

Regla INSTAR

Se considera

Si ai(q) = 1

Page 26: Aprendizaje Asociativo Hebbiano

Representación Gráfica de la Regla INSTAR

Cuando la INSTAR esta activa el vector de pesos se mueve hacia el vector de entrada.

La distancia en que se mueve el vector de pesos depende de

Page 27: Aprendizaje Asociativo Hebbiano

Representación Gráfica de la Regla INSTAR

Si = 0 ; el nuevo vector de pesos es igual al anterior (no se mueve)

si = 1 ; el nuevo vector de pesos es igual al vector de entrada (máximo movimiento)

Page 28: Aprendizaje Asociativo Hebbiano

Representación Gráfica de la Regla INSTAR

Si = 0.5 el vector de pesos se encuentra a la mitad entre el vector anterior de pesos y el vector de entrada.

Se tiene una regla que no solo minimiza el olvido, si no que entrega los vectores de pesos normalizados cuando los vectores de entrada son normalizados.

Page 29: Aprendizaje Asociativo Hebbiano

EJEMPLO

Page 30: Aprendizaje Asociativo Hebbiano

Ejemplop0 1 orange detected visually

0 orange not detected

=

pshapetex ture

weight

=

Page 31: Aprendizaje Asociativo Hebbiano

Ejemplo: Reconocedor de naranjas

W 0 wT

1 0 0 0 0= =

p0

1 0= p 1 11–

1–

=

p0

2 1= p 2 11–

1–

=

Primera Iteración (=1):

a 1 hardlim w0 p0 1 Wp 1 2–+ =

a 1 h ardlim 3 0 0 0 011–

1–

2–+

0 (no response)= =

w 1 1 w 0 1 a 1 p 1 w 0 1– +

0

0

0

01

1–

1–

0

0

0

+0

0

0

= = =

;30 w

Page 32: Aprendizaje Asociativo Hebbiano

Entrenamiento

(orange)

ha 2 hardlim w0

p0

2 Wp 2 2–+ = ardlim 3 1 0 0 0

1

1–

1–

2–+

1= =

w 2 1

w 1 1 a 2 p 2 w 1 1– +0

00

11

1–1–

0

00

+1

1–1–

= = =

a 3 hardlim w0

p0

3 Wp 3 2–+ =

(orange)

hardlim 3 0 1 1– 1–11–

1–

2–+

1= =

w 3 1 w 2 1 a 3 p 3 w 2 1– +

11–

1–

111–

1–

11–

1–

+11–

1–

= = =

Ahora la naranja será detectada con cualquier sensores activo.

Page 33: Aprendizaje Asociativo Hebbiano

REGLA DE KOHONEN

Regla de aprendizaje Asociativo

Page 34: Aprendizaje Asociativo Hebbiano

Regla de Kohonen

Regla de Kohonen.

Se puede utilizar para aplicaciones de reconocimiento.

Page 35: Aprendizaje Asociativo Hebbiano

Regla de Kohonen

w q 1 w q 1– 1 p q w q 1– 1– += for i X q

En la regla de Kohonen el aprendizaje no es proporcional a la salida de la neurona, ai(q) .

El aprendizaje ocurre cuando el índice i de la neurona es un elemento del conjunto X(q).

Esta regla es útil para el entrenamiento de redes como los mapas de características auto-organizativas.

Page 36: Aprendizaje Asociativo Hebbiano

1.1.3 REGLA OUTSTAR

Redes que recuerdan patrones

Asocia estímulos a vectores

de salida

Page 37: Aprendizaje Asociativo Hebbiano

Redes que Recuerdan

La red outstar posee una entrada escalar y un vector de salida.

Page 38: Aprendizaje Asociativo Hebbiano

Operación de la Outstar

W a=

Supongase que se quiere que la outstar recuerde el patrón a* siempre y cuando la entrada p = 1 se presente en la Red. Si

Entonces, cuando p = 1

a satlins Wp satlins a 1 a= = =

y el patrón será recordado correctamente.

Las columnas de una matriz de pesos representan los patrones a recordar.

Page 39: Aprendizaje Asociativo Hebbiano

Regla Outstar

wij q wi j q 1– ai q p j q p j q w ij q 1– –+=

En la regla instar el termino de degradación de los pesos de la regla Hebb es proporcional a la salida de la red. Mientras que en la regla Outstar el termino de degradación de pesos es proporcional a la entrada de la red.

Sí la razón de degradación es igual a la razón de aprendizaje ,

wi j q wi j q 1– ai q w ij q 1– – pj q +=

En forma de Vector:

w j

q w j

q 1– a q w j

q 1– – p j q +=

Page 40: Aprendizaje Asociativo Hebbiano

Ejemplo - Recordando una Piña

Page 41: Aprendizaje Asociativo Hebbiano

Definicionesa satl ins W0p0 Wp+ =

W0

1 0 0

0 1 00 0 1

=

p0

shape

tex tureweight

=

p1 if a pineapple can be seen0 otherwise

=

ppi neap ple1–1–

1

=

Page 42: Aprendizaje Asociativo Hebbiano

Primera Iteración

p01

00

0

= p 1 1=

p02

1–1–

1

= p 2 1=

a 1 satlins00

0

00

0

1+

00

0

(no response)= =

w1 1 w1 0 a 1 w1 0 – p 1 +00

0

00

0

00

0

1+00

0

= = =

= 1

Page 43: Aprendizaje Asociativo Hebbiano

Convergencia

a 2 satlins1–1–

1

00

0

1+

1–

1–

1

(se dan los datos)= =

w1 2 w1 1 a 2 w1 1 – p 2 +0

00

1–

1–1

0

00

1+1–

1–1

= = =

w1 3 w1 2 a 2 w1 2 – p 2 +1–1–

1

1–1–

1

1–1–

1

1+1–1–

1

= = =

a 3 satli ns0

00

1–

1–1

1+

1–

1–1

(los datos son recordados)= =