![Page 1: Las Redes Neuronales como complemento al Análisis de Componentes Principales](https://reader036.vdocuments.co/reader036/viewer/2022081516/56814312550346895daf6507/html5/thumbnails/1.jpg)
Las Redes Neuronales como complemento al Análisis de Componentes Principales
Ángel Berihuete
Francisco Álvarez
![Page 2: Las Redes Neuronales como complemento al Análisis de Componentes Principales](https://reader036.vdocuments.co/reader036/viewer/2022081516/56814312550346895daf6507/html5/thumbnails/2.jpg)
C.P.A.(Transformación Karhunen-Loève)
Problema común en el reconocimiento de patrones estadísticos: Extracción de variables.
El espacio de de datos es transformado a un espacio de características.
Los datos están representados por el conjunto de variables que aportan mayor información intrínseca
Producimos una reducción de la dimensionalidad
N.N.
• Distintas topologías de Red Neuronal:
• Perceptrón (multicapa)
• S.O.M.
• Hopfield
• Aprendizajes:
• Supervisado
• No supervisado
Curso de doctorado 99-00
Principios de 1999
![Page 3: Las Redes Neuronales como complemento al Análisis de Componentes Principales](https://reader036.vdocuments.co/reader036/viewer/2022081516/56814312550346895daf6507/html5/thumbnails/3.jpg)
Topología de la red
Aprendizaje de la redSe actualizan los pesos de la red neuronal para conseguir la función deseada.
![Page 4: Las Redes Neuronales como complemento al Análisis de Componentes Principales](https://reader036.vdocuments.co/reader036/viewer/2022081516/56814312550346895daf6507/html5/thumbnails/4.jpg)
Curso de doctorado 00-01
Francisco Álvarez
Andrés Jiménez
Ángel Berihuete
• Problema común en el reconocimiento de patrones estadísticos: Extracción de variables.
• El espacio de de datos es transformado a un espacio de características.
• El conjunto está representado por el conjunto de variables con mayor información intrínseca
• Generamos una reducción de la dimensionalidad
• Distintas topologías de Red Neuronal:
• Perceptrón (multicapa)
• S.O.M.
• Mapas autoorganizados de Kohonen
• Aprendizajes:
• Supervisado
• No supervisado
![Page 5: Las Redes Neuronales como complemento al Análisis de Componentes Principales](https://reader036.vdocuments.co/reader036/viewer/2022081516/56814312550346895daf6507/html5/thumbnails/5.jpg)
¡Estamos de enhorabuena!
Una sola neurona lineal con un aprendizaje del tipo Hebb para sus pesos, puede evolucionar en un filtro para la primera componente principal de los datos. (Oja, 1982)
![Page 6: Las Redes Neuronales como complemento al Análisis de Componentes Principales](https://reader036.vdocuments.co/reader036/viewer/2022081516/56814312550346895daf6507/html5/thumbnails/6.jpg)
Generalización: Algoritmo G.H.A.
Red con dos niveles Red Progresiva Cada neurona en la capa de salida es lineal. l < m El aprendizaje es de tipo Hebbian Los pesos tienden a las componentes
principales de los datos
![Page 7: Las Redes Neuronales como complemento al Análisis de Componentes Principales](https://reader036.vdocuments.co/reader036/viewer/2022081516/56814312550346895daf6507/html5/thumbnails/7.jpg)
Abril de 2001Implementamos el algoritmo en Matlab
213
100
8
56
25
34
255
0
![Page 8: Las Redes Neuronales como complemento al Análisis de Componentes Principales](https://reader036.vdocuments.co/reader036/viewer/2022081516/56814312550346895daf6507/html5/thumbnails/8.jpg)
2 iteraciones 100 iteraciones 2000 iteraciones
¿Cómo aprende la red?
![Page 9: Las Redes Neuronales como complemento al Análisis de Componentes Principales](https://reader036.vdocuments.co/reader036/viewer/2022081516/56814312550346895daf6507/html5/thumbnails/9.jpg)
Reconstruyendo la imagen
21 3 100 256 25 69 101 12
• Ratio de compresión.
• Error mínimos cuadrados.
• Almacenamos la matriz de pesos para un una nueva foto.
![Page 10: Las Redes Neuronales como complemento al Análisis de Componentes Principales](https://reader036.vdocuments.co/reader036/viewer/2022081516/56814312550346895daf6507/html5/thumbnails/10.jpg)
Mejora del algoritmo: Filtro de Entropía
Seleccionamos los datos que tienen mayor entropía relativa dentro de la imagen.
• Menor tiempo de computación.• Obtenemos un error de mínimos cuadrados menor.
![Page 11: Las Redes Neuronales como complemento al Análisis de Componentes Principales](https://reader036.vdocuments.co/reader036/viewer/2022081516/56814312550346895daf6507/html5/thumbnails/11.jpg)
Nuevas líneas de investigación
• Análisis de Componentes Independientes.• Teoría de la información.• Programación en hardware paralelo.