logica difusa e inteligencia artificial
TRANSCRIPT
REDES NEURONALES Y LOGICA DIFUSA APLICADAS A LOS SISTEMAS DE CONTROL
VISION-2009
Universidad San Martín de Porres
Capitán de Fragata
Enrique Arnáez Braschi
Introducción
La Automatización es parte de la continua revolución industrial.
Sus conceptos datan desde el siglo XVIII. Emplean la tecnología vigente para evolucionar al mismo ritmo que el mundo.
Introducción
El concepto de realimentación o
feedback nos es común, inclusive
en campos sociales o económicos.
Bajo este hecho,
podemos indicar que
la Ingeniería de
Control ha ayudado a
otras áreas.
Introducción
Sin embargo, la realidad es que la Ingeniería de Control se ha nutrido de todas ellas :
Matemáticas, física, electricidad, electrónica, mecánica, hidráulica y química entre otras, y últimamente de la informática e inteligencia artificial.
Introducción
En esta exposición, vamos a apreciar
la interacción entre las Redes
Neuronales y la Lógica Difusa con la
Ingeniería de Control, aplicadas al caso
del Péndulo invertido, para lo cual
haremos un breve repaso de los
conceptos más importantes de cada
uno de estos temas.
Sumario
Control Moderno Lógica Difusa Redes Neuronales
Control Difuso Sistema
Modelo de Control de
Espacio de Estados
Estados
Neuro-Control Neuro-Sistema
Péndulo Invertido
Péndulo invertido
Uno de los problemas clásicos del control moderno.
Robert Hutchings Goddard (1882-1945) fue uno de los pioneros en el campo de los cohetes.
Péndulo invertido
Conceptos para la correcta actitud de vuelo vertical de un cohete.
Von Braun Bombas V-1
Péndulo invertido
Sistemas de Control
Estabilidad y controlabilidad.
El resultado de un sistema con controlador hace que las variables de estado lleven sus valores a cero .
Ese caso no es el real para los sistemas industriales.
Las salidas deben tender a valores diferentes que cero o que sigan un patrón determinado de referencia.
Fuzzy Logic
Lotfi A . Zadeh . Matemático, profesor de la Universidad de Berkeley, famoso por introducir en1965 la teoría de conjuntos difusos o lógica difusa (fuzzy logic).
Fuzzy Logic
En 1965 escribe Fuzzy Sets, un artículo que presenta las nociones de la lógica difusa, (esperaba que las aplicaciones serían en lingüística, psicología, sociología, filosofía y campos afines).
1970, empezó a pensar que podía haber algunas aplicaciones en control. En 1972escribe un artículo "A rationale for Fuzzy Control".
Concepto de Origen
El origen está dado en esta apreciación:
“Por qué siempre tratamos de plantear soluciones matemáticas para los modelos, si más fácil es tratar de explicarlo con palabras, las cuales han sido perfeccionadas en un proceso de millones de años?”
Comparación
Partiendo de la apreciación anterior, y tratando de realizar operaciones con palabras, recurrimos a la Lógica Tradicional o ‘Crisp’.
Esta herramienta plantea la segunda apreciación:
Lógica Tradicional o Crisp
Fuzzy Logic
1. El cuadro de la Izquierda es Azul.
2. El Cuadro de la Derecha no es exactamente del mismo color que el de la Izquierda.
Inferencia: Si el cuadro de la derecha no es del mismo color que el de la izquierda, entonces el cuadro de la derecha no es azul.
≠
Algoritmo del Sistema Difuso
Normalización
Funciones de Fuzzificación Membresía
Procesamiento o F. A. M.
Razonamient
o
Defuzzificació
n
Denormalizac
ión
o Modela Sistemas muy complejos.
o Utiliza la experiencia humana.
Entrada de Datos
Reales
Fuzzificación Operaciones Difusas y Condicionales (IF - THEN)
Defuzzificación
Salida con Datos Reales
Componentes de una Función de Membresía
Variable Lingüística Términos Lingüísticos
Fuzzificación
Valores Difusos
xo = 32 Valor Crisp
Reglas Difusas
La condición de inferencia donde radica el conocimiento
‘IF-THEN’
IF [( x is large ) AND ( y is cold )] THEN ( z is good )
Es importante saber que existen varias reglas para cada sistema. Las reglas son construidas basándose en la experiencia obtenida con autoridad, por ejemplo:
Si estoy rápido y la esquina es próxima entonces la presión sobre el pedal del freno es fuerte.
F.A.M. (Fuzzy Associative Memory)
FAM = Reglas en forma de Matriz
En caso que hayan más de 2 variables a relacionar con las reglas difusas, se deberán armar varias FAM de 2 dimensiones. Nunca matrices de más de2 dimensiones.
F.A.M. (Fuzzy Associative Memory)
Entrada 1: Temperatura Caliente - Media - Fría Entrada 2: Velocidad Rápida - Lenta - Parada Salida: Voltaje Positivo – Zero - Negativo
Temp \ Vel R L P
C Neg Zero Pos
M Zero Zero Pos
F Pos Pos Pos
Defuzzificación
Luego de las Operaciones Difusas y de haber usado las regles difusas, tenemos un valor difuso de salida que lo debemos convertir en un valor Crisp. Ese procedimiento se conoce con el nombre de Defuzzificación.
Fuzzificación Defuzzificación
Defuzzificación
Método Centroide
m * z
m dz z ∫ El método centroide también es llamado centro de área, centro de gravedad o método de Sugeno, es el método más usado y más potente.
Trabajo de un Sistema Difuso
Análisis del Sistema.
Determinar las variables de entrada/salida y sus
escalas. Determinar el universo de discursión de
cada variable. Estructurar las funciones de
membresía. Elaborar la Memoria Asociativa
Difusa. Armar la base de Reglas
Difusas. Operaciones Difusas.
Defuzzificación y desescalamiento.
Fuzzy Logic
Fuzzy Logic
Fuzzificación de 2 valores de entrada
Cond. Iniciales: 1º = 0.0175 rad. y -4º/s = -0.0698 rad/seg.
x1 = Posicion Angular x2 = Velocidad Angular 1 1
0.9 0.9
0.8 0.8
0.7 0.7
0.6 0.6
0.5 0.5
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 0.4 -0.2 -0.15 -0.1 -0.05 0 0.05 0.1 0.15 0.2
m 0 00 N , 0 94 Z , 0 06 P 0 47 N , 0 53 Z , 0 00 P q m & q
Reglas y Operaciones Difusas
x1 \ x2 P Z N
P GP P Z
Z P Z N
N Z N GN
m 0 00 N , 0 94 Z , 0 06 P 0 47 N ,0 53 Z , 0 00 P q m & q
Se aplica la función mínimo para la intersección de las entradas.
0 00 GP 0 05 P 0 06 Z FAM 0 00 P 0 53 Z 0 47 N 0 00 Z 0 00 N 0 00 GN
Reglas y Operaciones Difusas
x1 \ x2 P Z N
P GP P Z
Z P Z N
N Z N GN
m 0 00 N , 0 94 Z , 0 06 P 0 47 N ,0 53 Z , 0 00 P q m & q
Se aplica la función mínimo para la intersección de las entradas.
0 00 GP 0 05 P 0 06 Z FAM 0 00 P 0 53 Z 0 47 N 0 00 Z 0 00 N 0 00 GN
Reglas y Operaciones Difusas
x1 \ x2 P Z N
P GP P Z
Z P Z N
N Z N GN
m 0 00 N , 0 94 Z , 0 06 P 0 47 N ,0 53 Z , 0 00 P q m & q
Se aplica la función mínimo para la intersección de las entradas.
0 00 GP 0 05 P 0 06 Z FAM 0 00 P 0 53 Z 0 47 N 0 00 Z 0 00 N 0 00 GN
Defuzzificación
u = Voltaje de entrada 1
0.9
0.8
0.7
0.6 m zdz z * ∫
z 0.5
m dz 0.4 z ∫ 0.3
0.2
0.1
0 -20 -15 -10 -5 0 5 10 15 20
Definición de Redes Neuronales
Las Redes Neuronales (NN) son parte de la Inteligencia Artificial (AI) caracterizadas por su capacidad de aprendizaje, su velocidad mediante el procesamiento masivo en paralelo de datos y por la facilidad del modelado de sistemas o controladores altamente no-lineales.
Comparación de Neuronas
Neurona Humana Red Neuronal
Neurona Artificial
n y f xkw b ∑ k k k 1
x1
w1 x2
Inputs x3 Sum f() Output
wn xn bias
Artificial Neuron
n y f xkw b ∑ k k k 1
Función de Activación
Linear Activation Function Hyperbolic Tangent Activation Function 5 1
4 0.8
3 0.6
2 0.4
1 0.2
0 0
-1 -0.2
-2 -0.4
-3 -0.6
-4 -0.8
-5 -1 -5 0 5 -3 -2 -1 0 1 2 3
x x x - x - e
f (x ) x f (x ) tanh( x) e x - x e e
n y f xkw b ∑ k k k 1
Función de Activación
Logistic Activation Function Thresh Activation Function 1 1
0.9 0.9
0.8 0.8
0.7 0.7
0.6 0.6
0.5 0.5
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0 -5 0 5 -5 0 5
x x
1 1 x ‡ 0 f ( x ) F ( x ) 1 exp( - b x ) 0 x 0
Perceptrón
El Perceptrón busca la clasificación lineal de los patrones a ser entrenados, es decir procura separarlos por una línea en el plano, un ejemplo claro se tiene en la operación lógica AND:
x1 x2 y A 0 0 0 B 0 1 0 C 1 0 0 D 1 1 1 1 v ‡ 1
y ( t ) F ( v ) 0 v 1
Perceptrón: Ejemplo
Tenemos los siguientes Inicializamos el perceptrón patrones y sus respectivos con los siguientes valores:
objetivos:
x1 -0.1 x1 x2 yd
y
0.0 -0.4 0 0.8 x2 -0.5
-0.3 -0.2 0
0.5 1.3 1
1.0 -1.3 1… y lo entrenamos.
Perceptrón: Ejemplo
x1 x2 yd
0.0 -0.4 0 (*)
-0.3 -0.2 0 (*)
0.5 1.3 1 (+)
1.0 -1.3 1 (+)
Perceptrón: Ejemplo
x1 x2 yd
0.0 -0.4 0 (*)
-0.3 -0.2 0 (*)
0.5 1.3 1 (+)
1.0 -1.3 1 (+)
Perceptrón: Ejemplo
Luego del Entrenamiento
x1 -0.1
y
0.8 x2 -0.5
Perceptrón
Todo funcionó bien hasta que alguien probó la simple operación X-OR:
x1 x2 y A 0 0 0 B 0 1 1 C 1 0 1 1 v ‡ 1
y ( t ) F ( v ) D 1 1 0 0 v 1
Redes Neuronales Descartadas
Separabilidad Lineal
Funciones Porcentaje de # de bits Cantidad de Linealmente Trabajo del
Funciones Separables Perceptrón (%)
2 16 14 87
3 256 104 40
4 65536 1882 3
5 10E+09 94572 0.00002
Un perceptrón es capaz de aprender todo lo que pueda representar.
Aplicación de las Redes
Muchos años después se inventó el MLP, y solucionó el problema, VIENE EL AUGE DE LAS NN:
x1 x2 y A 0 0 0 B 0 1 1 1 v ‡ 1 C 1 0 1 y ( t ) F ( v ) D 1 1 0 0 v 1
T T f W s ( V x ) ( x )
Perceptrón de Múltiple Capa (MLP)
Pesos •Trabaja en paralelo.
•Usan al Algoritmos como el de Back-
propagation para darle el Entradas Salidas en base al Reales Reales
error retro-propagado.
•Utiliza patrones de Entrenamiento.
Neuronas Neuronas •Modela Sistemas No- No-LinealesLineales Lineales.
Perceptrón de Múltiple Capa (MLP)
- - h h x · V
- h s h
y h · W -
y s h · W h
y s x · V · W
Algoritmo de Backpropagation
Se escoge una función J e2 de costo a optimizar, y
2 la elección es el error 2 e yd- y cuadrático (MMC)
¶ J Algoritmo de Backpropagation w ( N 1 ) w ( N ) h ¶ w
Algoritmo de Backpropagation
¶ J w ( N 1 ) w ( N ) h
¶ w 2 ¶ J ¶ J ¶ e ¶ F ¶ y
Aplicando la Regla de la Cadena: 2 ¶ w ¶ e ¶ F ¶ y ¶ w
¶ J ¶ y ¶ ( h · w ) 1 2 h ¶ e ¶ w ¶ w 2 ¶ e ¶ F 2 ( yd - y ) Derivada de la Función de Salida
¶ F ¶ y ¶ J ( 1 ) 2 ( y - y ) ( Derivada ) h d ¶ w
Algoritmo de Backpropagation
• La Ecuación anterior se itera hasta obtener un error aceptable (de 3 a 5%).
• Un error menor no permite una buena ‘generalización’.
• Cuando se obtiene el error deseado se guardan los pesos para aplicarlos en el trabajo deseado.
y s x · V · W
Características Principales
1. Son dispositivos no-
lineales. 2. Pueden
aprender un mapeo. 3.
Son adaptables. 4. Las respuestas están basadas en evidencia. 5. Usan contexto, es decir, a más información, la respuesta es más veloz y mejor.
Características Principales
6. Son tolerantes a fallas, o sea, que la falla es degradada.
7. Su diseño y análisis es uniforme. 8. Tienen analogía neuro-biológica. 9. Su procesamiento es masivamente
paralelo, distribuido y realizado con operaciones individuales simples.
10. Aprenden por sí mismas. 11. Tienen capacidad de generalizar
Aplicaciones más Comunes
• Representación de comportamientos de funciones lineales y no-lineales.
• Identificación de Patrones o Sistemas.
• Sistemas de Control.
• Reconocimiento de Imágenes.
• Reconocimiento de Caracteres.
• Reconstrucción de datos.
Aplicaciones más Comunes
• Predicción y Recomendación para la Toma de Decisiones.
• Simulación de Modelos Económicos y Financieros. • Clasificación de Objetos.
• Administración de Anestesia según el Comportamiento de la Presión Arterial.
• Predicciones Climatológicas.
Aplicaciones más Comunes
Aplicaciones más Comunes
Aplicaciones más Comunes
Aplicaciones más Comunes
Neuro Sistema
Diseño de la Red Neuronal
Estructura de Red Neuronal
Entrenamiento
Diseño de la Red Neuronal del Neuro Controlador
Estructura de Red Neuronal del Controlador
Entrenamiento
Prueba del Sistema Completo
Control de Péndulo Estados Invertido
Neuro-Control Neuro-Sistema
Comentarios Finales
El ingenio permite emplear herramientas actuales en teorías antiguas.
El Control Moderno se debe complementar con los avances tecnológicos para optimizar su comportamiento.
La Lógica Difusa facilita el diseño de controladores no-lineales evitando el modelamiento matemático.
Las Redes Neuronales otorgan la capacidad de adaptación mediante su propio aprendizaje.
Comentarios Finales
Es factible emplear una Red Neuronal para que aprenda el comportamiento del Controlador Difuso y potencie el sistema con el razonamiento y la adaptatibilidad.
Los retos de ingeniería deben ser considerados como un estímulo para el ingeniero peruano en vez de verlos como un obstáculo.