aprendizaje asociativo hebbiano

Post on 21-Dec-2014

2.241 Views

Category:

Education

4 Downloads

Preview:

Click to see full reader

DESCRIPTION

 

TRANSCRIPT

Aprendizaje Asociativo

Aprendizaje Asociativo

ESTIMULO RESPUESTA

Red Asociativa Simple

a hardlim wp b+ hardlim wp 0.5– = =

p1 stimulus0 no stimulus

= a1 response0 no response

=

Asociador de Fruta

p0 1 shape detected

0 shape not detected

= p1 smell detected0 smell not detected

=

Estimulo No Condicionado Estimulo Condicionado

1.1.1 Regla de Hebb No Supervisada

w ij q w ij q 1– ai q p j q +=

W q W q 1– a q pT q +=

En forma de Vector:

p 1 p 2 p Q

Secuencia de Entrenamiento:

Ejemplo: Identificador

w0

1 w 0 0= =

Pesos Iniciales:

p0

1 0= p 1 1= p0

2 1= p 2 1=

Secuencia de Entrenamiento:

w q w q 1– a q p q +=

a 1 hardlim w0

p0

1 w 0 p 1 0.5–+ hardlim 1 0 0 1 0.5–+ 0 (no response)

=

= =

Primera Iteración (Vista No presente):

w 1 w 0 a 1 p 1 + 0 0 1+ 0= = =

= 1

Ejemplo (nnd13uh)

a 2 hardlim w0

p0

2 w 1 p 2 0.5–+ hardlim 1 1 0 1 0.5–+ 1 (banana)

== =

Segunda Iteración (Aspecto presente):

w 2 w 1 a 2 p 2 + 0 1 1+ 1= = =

Tercera Iteración (Vista No presente):

a 3 hardlim w0

p0

3 w 2 p 3 0.5–+ hardlim 1 0 1 1 0.5–+ 1 (banana)

=

= =

w 3 w 2 a 3 p 3 + 1 1 1+ 2= = =

A partir de este momento, la Fruta será detectada si cualquiera de los sensores está presente.

Problemas con la Regla de Hebb

Los Pesos pueden crecer sin medida.

No existe un mecanismo para disminuir los Pesos.

Regla de Hebb con Degradación

W q W q 1– a q pT q W q 1– –+=

W q 1 – W q 1– a q pT q +=

Ésta Regla impide que la matriz de pesos crezca sin medida, lo cual se demuestra al igualar ai y pj a 1:

wi jm ax

1 – wi jm ax ai pj+=

wi jm ax

1 – wi jm ax +=

wi jm ax

---=

Ejemplo: Asociador de Fruta

a 1 hardlim w0

p0

1 w 0 p 1 0.5–+ hardlim 1 0 0 1 0.5–+ 0 (no response)

=

= =

Primera Iteración (No vista):

w 1 w 0 a 1 p 1 0.1w 0 –+ 0 0 1 0.1 0 –+ 0= = =

a 2 hardlim w0

p0

2 w 1 p 2 0.5–+ hardlim 1 1 0 1 0.5–+ 1 (banana)

== =

Segunda Iteración (vista presente):

w 2 w 1 a 2 p 2 0.1w 1 –+ 0 1 1 0.1 0 –+ 1= = =

= 0.1 = 1

Ejemplo (nnd13hd) (nnd13edr)Tercera Iteración (No vista):

a 3 hardlim w0

p0

3 w 2 p 3 0.5–+ hardlim 1 0 1 1 0.5–+ 1 (banana)

=

= =

w 3 w 2 a 3 p 3 0.1w 3 –+ 1 1 1 0.1 1 –+ 1.9= = =

0 10 20 300

10

20

30

0 10 20 300

2

4

6

8

10

Regla de Hebb Hebb Con Degradación

wi jm ax

---

10.1------- 10= = =

Problema en Hebb con Degradación

• La asociación se degradará si el estimulo no se presenta ocasionalmente.

wij q 1 – w ij q 1– =

Si ai = 0, Entonces,

Si = 0.1, esto se convierte

wi j q 0.9 wi j q 1– =

Por lo cual el Peso se degrada un 10% en cada iteracióndonde no exista estimulo.

0 10 20 300

1

2

3

1.1.2 REGLA INSTAR

Red de Reconocimiento simple

Vector de entrada.

Instar.

Reconoce patrones.

Instar (Operación)

a hardlim Wp b+ hardlim wT1 p b+ = =

La instar estará activa cuando

wT1 p b–

Para vectores normalizados, el producto punto mayor ocurre cuando el ángulo entre el vector de pesos y el vector de entradas

es cero -- El vector de entrada es igual al vector de pesos.

Las filas de una matriz de pesos representa los patronesa ser reconocidos.

Reconociendo un Vector

b w1 p–=

Si el umbral es

El instar solo será activado cuando =0.

b w1 p–>

Si el umbral es

el instar estará activo para un determinado rango de ángulos.

Si b se incrementa, habrá más patrones (sobre un amplio rango de ) los cuales activarán el instar.

w1

Red INSTAR

Reconocimiento de patrones,Similar arquitectura al perceptron,Realiza el reconocimiento de un vector,Todos los vectores tienen la misma longitud (normales).

Regla INSTAR

Un problema con la regla de Hebb con degradación es que requiere que el estimulo se repita o la asociación se ira perdiendo.

La regla INSTAR minimiza el olvido.

Proporciona vectores de pesos normalizados si los vectores de entrada están normalizados

Regla Instar (nnd13is, nnd13gis)

w ij q wij q 1– ai q p j q +=

Hebb con Decay

Solo ocurrirán modificaciones al aprendizaje y al olvidocuando la neurona este activa - Regla Instar:

wi j

q wi j

q 1– ai

q pj

q ai

q w q 1– –+=i j

w ij q wij q 1– ai q pj q wi j q 1– – +=

w q i w q 1– i ai q p q w q 1– i– +=

o si es igual a

En forma de Vector:

Representación Gráfica

w q i w q 1– i p q w q 1– i– +=

Para el caso donde el instar está activo (ai = 1):

orw q i 1 – w q 1– i p q +=

Para el caso donde el instar está inactivo (ai = 0):w q i w q 1– i=

EN RESUMEN

Regla de Hebb no supervisada

Incrementa justamente el peso Wij entre la entrada de la neurona Pj y la salida ai en proporción a su producto.

Donde: Es la razón de aprendizaje. q Es el numero de iteración.

Regla de Hebb con Degradación

Esta regla mejora a la anterior al degradar W.

Donde: es la razón de degradación; constante positiva con valores entre 0 y 1. Esta constante evita que W crezca sin limite.

Razón de Degradación

Si tiende a 1; La ley de aprendizaje olvida rápidamente las entradas anteriores y recuerda los patrones más recientesEl valor máximo de la matriz de pesos es:

Se requiere que el estimulo sea repetido o la asociación se ira perdiendo

Regla INSTAR

Se considera

Si ai(q) = 1

Representación Gráfica de la Regla INSTAR

Cuando la INSTAR esta activa el vector de pesos se mueve hacia el vector de entrada.

La distancia en que se mueve el vector de pesos depende de

Representación Gráfica de la Regla INSTAR

Si = 0 ; el nuevo vector de pesos es igual al anterior (no se mueve)

si = 1 ; el nuevo vector de pesos es igual al vector de entrada (máximo movimiento)

Representación Gráfica de la Regla INSTAR

Si = 0.5 el vector de pesos se encuentra a la mitad entre el vector anterior de pesos y el vector de entrada.

Se tiene una regla que no solo minimiza el olvido, si no que entrega los vectores de pesos normalizados cuando los vectores de entrada son normalizados.

EJEMPLO

Ejemplop0 1 orange detected visually

0 orange not detected

=

pshapetex ture

weight

=

Ejemplo: Reconocedor de naranjas

W 0 wT

1 0 0 0 0= =

p0

1 0= p 1 11–

1–

=

p0

2 1= p 2 11–

1–

=

Primera Iteración (=1):

a 1 hardlim w0 p0 1 Wp 1 2–+ =

a 1 h ardlim 3 0 0 0 011–

1–

2–+

0 (no response)= =

w 1 1 w 0 1 a 1 p 1 w 0 1– +

0

0

0

01

1–

1–

0

0

0

+0

0

0

= = =

;30 w

Entrenamiento

(orange)

ha 2 hardlim w0

p0

2 Wp 2 2–+ = ardlim 3 1 0 0 0

1

1–

1–

2–+

1= =

w 2 1

w 1 1 a 2 p 2 w 1 1– +0

00

11

1–1–

0

00

+1

1–1–

= = =

a 3 hardlim w0

p0

3 Wp 3 2–+ =

(orange)

hardlim 3 0 1 1– 1–11–

1–

2–+

1= =

w 3 1 w 2 1 a 3 p 3 w 2 1– +

11–

1–

111–

1–

11–

1–

+11–

1–

= = =

Ahora la naranja será detectada con cualquier sensores activo.

REGLA DE KOHONEN

Regla de aprendizaje Asociativo

Regla de Kohonen

Regla de Kohonen.

Se puede utilizar para aplicaciones de reconocimiento.

Regla de Kohonen

w q 1 w q 1– 1 p q w q 1– 1– += for i X q

En la regla de Kohonen el aprendizaje no es proporcional a la salida de la neurona, ai(q) .

El aprendizaje ocurre cuando el índice i de la neurona es un elemento del conjunto X(q).

Esta regla es útil para el entrenamiento de redes como los mapas de características auto-organizativas.

1.1.3 REGLA OUTSTAR

Redes que recuerdan patrones

Asocia estímulos a vectores

de salida

Redes que Recuerdan

La red outstar posee una entrada escalar y un vector de salida.

Operación de la Outstar

W a=

Supongase que se quiere que la outstar recuerde el patrón a* siempre y cuando la entrada p = 1 se presente en la Red. Si

Entonces, cuando p = 1

a satlins Wp satlins a 1 a= = =

y el patrón será recordado correctamente.

Las columnas de una matriz de pesos representan los patrones a recordar.

Regla Outstar

wij q wi j q 1– ai q p j q p j q w ij q 1– –+=

En la regla instar el termino de degradación de los pesos de la regla Hebb es proporcional a la salida de la red. Mientras que en la regla Outstar el termino de degradación de pesos es proporcional a la entrada de la red.

Sí la razón de degradación es igual a la razón de aprendizaje ,

wi j q wi j q 1– ai q w ij q 1– – pj q +=

En forma de Vector:

w j

q w j

q 1– a q w j

q 1– – p j q +=

Ejemplo - Recordando una Piña

Definicionesa satl ins W0p0 Wp+ =

W0

1 0 0

0 1 00 0 1

=

p0

shape

tex tureweight

=

p1 if a pineapple can be seen0 otherwise

=

ppi neap ple1–1–

1

=

Primera Iteración

p01

00

0

= p 1 1=

p02

1–1–

1

= p 2 1=

a 1 satlins00

0

00

0

1+

00

0

(no response)= =

w1 1 w1 0 a 1 w1 0 – p 1 +00

0

00

0

00

0

1+00

0

= = =

= 1

Convergencia

a 2 satlins1–1–

1

00

0

1+

1–

1–

1

(se dan los datos)= =

w1 2 w1 1 a 2 w1 1 – p 2 +0

00

1–

1–1

0

00

1+1–

1–1

= = =

w1 3 w1 2 a 2 w1 2 – p 2 +1–1–

1

1–1–

1

1–1–

1

1+1–1–

1

= = =

a 3 satli ns0

00

1–

1–1

1+

1–

1–1

(los datos son recordados)= =

top related