Download - Redes Neuronales
Inteligencia Artificial (capacidad de razonar de un agente no vivo)
Redes Neuronales
Una red neuronal se compone de una unidad llamada neurona. Cada neurona
recibe una serie de entradas a través de interconexiones y emite una salida.
Esta salida viene dada por tres funciones:
1. Función de propagación
2. Función de activación
3. Función de transferencia
Perceptrón
Una de las características que más despertó interés de este modelo fue su
capacidad de aprender a reconocer patrones. El Perceptrón está constituido
por un conjunto de sensores de entradas que reciben los patrones de entradas
a reconocer o clasificar y una neurona de salida que se ocupa de clasificar a
los patrones de entrada en dos clases según la salida de la misma, sea 1 en
caso de estar activada o 0 cuando este desactivada.
Perceptrón Simple
La arquitectura consiste en una red monocapa con una o más neuronas de
salidas conectadas a todas las entradas.
Sirve únicamente para resolver problemas linealmente separables y que sean
de dos clases.
El Perceptrón equivale a un hiperplano de dimensión n-1 capaz de separar las
clases
Si la salida del Perceptrón es +1. La entrada pertenecerá a una clase
(estará situada a un lado del hiperplano).
Si la salida es -1, la entrada pertenecerá a la clase contraria (estará
situada al otro lado del hiperplano).
Las neuronas de entrada son discretas y la función de activación de las
neuronas de la capa de salida es de tipo escalón.
La ecuación del hiperplano es 𝑊1𝑋1 + 𝑊2𝑋2 + 𝜃 = 0
Donde W son los pesos sinápticos y X son las entradas o argumentos de la
función
𝑢 = 𝑊1𝑋1 + 𝑊2𝑋2 +…+𝑊𝑛𝑋𝑛 𝑠𝑒 𝑙𝑙𝑎𝑚𝑎 𝑃𝑜𝑡𝑒𝑛𝑐𝑖𝑎𝑙 𝑠𝑖𝑛á𝑝𝑡𝑖𝑐𝑜
𝜃 ∶ 𝑠𝑒 𝑙𝑙𝑎𝑚𝑎 𝑈𝑚𝑏𝑟𝑎𝑙
Para la determinación de los pesos sinápticos y del umbral vamos a seguir un
proceso adaptativo que consiste en comenzar con unos valores aleatorios
iniciales e ir modificándolos iterativamente cuando la salida de la unidad no
coincida con la salida seseada.
La regla que vamos a seguir para modificar los pesos sinápticos se conoce con
el nombre de regla de aprendizaje del perceptrón simple y viene dada por la
expresión:
𝑊𝑗 𝑘 + 1 = 𝑊𝑗 𝑘 + ∆𝑊𝑗 𝑘 ; 𝑘 = 1,2,3
Siendo
∆𝑊𝑗 𝑘 = 𝑛𝑘 𝑧 𝑘 − 𝑦 𝑘 ∗ 𝑋𝑗 (𝑘)
Esto nos indica que la variación del peso 𝑊𝑗 es proporcional a l producto del
error 𝑍𝑖 𝑘 − 𝑌𝑖 𝑘 por la componente j-ésima del patrón de entrada que hemos
introducido en la iteración k, es decir 𝑋𝑗 (𝑘).
𝑛𝑘 Es la constante de proporcionalidad, es un parámetro positivo que se llama
tasa de aprendizaje puesto que cuanto mayor es, mas se modifica el peso
sináptico y viceversa. Cuando es muy pequeño la red aprende poco a poco.
Cuando se toma constante en todas las iteraciones, 𝑛𝑘 = 𝑛 > 0 tendremos la
regla de adaptación con incremente fijo.
Perceptrón multicapa
Es una RNA formada por múltiples capas, esto le permite resolver problemas
que no son linealmente separables, puede ser totalmente o localmente
conectado.
Las capas pueden clasificarse en tres tipos:
1. Capa de entrada: constituida por aquellas neuronas que introducen los
patrones de entradas en la red. En estas neuronas no se producen
procesamiento
.
2. Capas ocultas: formadas por aquellas neuronas cuyas entradas
provienen de capas anteriores y cuyas salidas pasan a neuronas de
capas posteriores.
3. Capa de salida: neuronas cuyos valores de salida se corresponde con la
salida de toda la red.
God bless
X1
X2
X3
X4
h1
h2
YR 1
YR 2
Iw(4x9) Lw(9x5)
Lww(5x2)
U1(9)
U2(5)
U3(2)
J22