método y aplicaciones de redes neuronales artificiales en

136
Método y Aplicaciones de Redes Neuronales Artificiales en la Predicción de Variables Hidrológicas no Lineales Seminario Doctorado Departamento de Ingeniería hidráulica y ambiental Escuela de Ingeniería P.U.C. Año 2005 Dr. Ing. Oscar Dölling

Upload: others

Post on 07-Nov-2021

2 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Método y Aplicaciones de Redes Neuronales Artificiales en

Método y Aplicaciones de Redes Neuronales Artificiales en la

Predicción de Variables Hidrológicas no Lineales

Seminario DoctoradoDepartamento de Ingeniería hidráulica y ambiental

Escuela de Ingeniería P.U.C.

Año 2005

Dr. Ing. Oscar Dölling

Page 2: Método y Aplicaciones de Redes Neuronales Artificiales en

Esquema de Red NeuronalFeedforward

Capa de entrada Capas ocultas Capa de salida

x1

x2

x4

x3

Output

Page 3: Método y Aplicaciones de Redes Neuronales Artificiales en

Esquema de neurona artificial

Hacia otras neuronas con sites

Valor de salidaActivaciónFunción de

Función deValor de ACTIVACIÓN

BASE

Valor del siteFunción del site

Umbral

Suma

1

0

SigmoideFunción

,1

1,

kjVkj acte

o −+=

enlace cada a asociado (Bias) sesgo

resp. jy 1-j capa neurona de número k y i

capa de número1

,1,,1,,

,

.

==

==

−−∑+=

kj

j

n

iijkijkjkj

owVact

θ

θ

Page 4: Método y Aplicaciones de Redes Neuronales Artificiales en

Tipología de Redes neuronales Artificiales (ANNs)

1- (BP1) feedforward con método de aprendizaje backpropagtation momentum, Tangente Hiperbólica (capa oculta) y lineal (capa salida)

2- las redes (BP2) igual a la anterior pero con función de activación Sigmoidal (capas oculta y de salida)

3- la red (SM) igual a la anterior pero con método de aprendizaje estocástico

4- (ELM) Red recurrente con método backpropagation(Red Elman)

5- (RBN) red Radial Basis Function.

Page 5: Método y Aplicaciones de Redes Neuronales Artificiales en

Diseño de ANNs para predicción

Para desarrollar un modelo de predicción, primero debe ser definida la arquitectura de la red de neuronas.

Para ello hay que contestar a ciertos interrogantes, tales como:

1) Que tipo de fenómeno estoy modelando?2) Cuantos neuronas de entrada voy a utilizar?3) Cuantos neuronas de salida son necesarios?4) Cuantas capas ocultas y cuantas neuronas por capa son necesarios y . suficientes?5) Que tipo de enlaces y cuantos son adecuados para armar la red?

Dependen del tipo de problema de predicción y de los datos disponibles

Page 6: Método y Aplicaciones de Redes Neuronales Artificiales en

Aspectos principales a resolver

Ajuste de pesos Tratamiento de información

Nro. Neuronasde entrada

Nro. Neuronasde salida

Evaluación del pronóstico

Nro. neuronasocultas

wij cij

Page 7: Método y Aplicaciones de Redes Neuronales Artificiales en

Metodología de elaboración ANNspara predicción.

Para cubrir convenientemente todos los aspectos mencionados, se elaboró una metodología constituida por las siguientes etapas fundamentales:

� Análisis de Información

� Identificación de modelos candidatos

� Validación de modelos candidatos

� Selección del modelo óptimo

Page 8: Método y Aplicaciones de Redes Neuronales Artificiales en

Identificación de la estructura de la capa oculta. Proposición de modelos candidatos

Aprendizaje de modelos candidatos. Selección de estrategia de entrenamiento

Cálculo de estadísticos y Análisis de Residuos

Evaluación de la capacidad predictiva de los modelos candidatos

Comparación de resultados de lavalidación. Pautas de selección .

Modelo óptimo

Identificación de la estructura de la capa de entrada

Series de Datos de caudales y variablesexplicativas

Tratamiento estadístico de datos

Selección de la estructura de la capa de salida

Armado de duplas entrada-salida

sets de entrenamiento-validación y test

Análisis de Información

Selección del

Modelo óptimo

Validación de candidatos

Identificación de candidatos

Page 9: Método y Aplicaciones de Redes Neuronales Artificiales en

Identificación de laestructura de la capa de entrada

Recopilación de Información

Tratamiento estadístico de datos

Selección de la estructurade la capa de salida

Armado de duplasentrada-salida

sets de entrenamiento-validación y test

Análisis de Información

Page 10: Método y Aplicaciones de Redes Neuronales Artificiales en

Recopilación y tratamiento de la información disponible:

• Conceptualización del proceso a modelar

• Recopilación de la información

• Análisis de consistencia y homogeneidad

Page 11: Método y Aplicaciones de Redes Neuronales Artificiales en

Análisis de Información

Tratamiento estadístico de la información

Las series de datos pueden recibir el siguiente tratamiento previo:•Análisis de estacionariedad en media (homogeneidad)(Análisis de tendencias - Transf. Por diferenciación)•Análisis de consistencia (Análisis de saltos Test de Fisher)•Estandarización periódica(Análisis de ciclos -Autocorrelograma y Periodograma)•Análisis de Estacionariedad en varianza (Heteroscedasticidad y Normalización.(Transformación BOX COX, logarítmica)

Page 12: Método y Aplicaciones de Redes Neuronales Artificiales en

Análisis de datos de entrada

Análisis de homogeneidad (estacionariedad)TendenciasCambios paulatinos y persistentes en alguna

propiedad de la serie: Promedio, variancia.

t

x

t

x

Análisis de Información

Page 13: Método y Aplicaciones de Redes Neuronales Artificiales en

Análisis de datos de entrada

Detección de TendenciasTest de aleatoriedad (random test)Dadostiempo t: 1, 2, 3, ........, t,........Tvariable y: y1, y2, y3, ........yt,.......yTubicación R: R1, R2, R3, ......Rj,.......Rn (orden ascendente)

Se busca si existe una relación significativa entre R y t analizando el Rango de Correlación.

2

12, )(.

)1(

61 ∑

=

−−

−=N

tttR tR

NNr

Análisis de Información

Page 14: Método y Aplicaciones de Redes Neuronales Artificiales en

Análisis de estacionariedad dela mediaRemover Tendencias determinísticas.1) Tendencias Lineales

operador de diferencias de 1er orden y = ∆xy = [(x2-x1), (x3-x2), (x4-x3),..., (xN-xN-1)]

2) Tendencias cuadráticasoperador de diferencias de 2do. Orden y = ∆ (∆x)y = [((x2-x1) - (x3-x2)) , ((x4-x3)-(x5-x4)),............]

t

x

t

x

Análisis de Información

Page 15: Método y Aplicaciones de Redes Neuronales Artificiales en

Análisis de datos de entrada

Análisis de consistenciaSaltosCambios bruscos del Promedio. Test de Fischer.

t

x ?

x1

x2

N1 N2

to

τ

N1

τα

τα= estadígrafo t de Student α = nivel de significación grados de libertad : N1-1

Análisis de Información

Page 16: Método y Aplicaciones de Redes Neuronales Artificiales en

Selección de Unidades de entrada

• Análisis del grado de autocorrelación de las series de variables de salida (FAS y FAP).

• Análisis de correlación cruzada de variables de entrada y salida. (Funciones de correlación cruzada).

Page 17: Método y Aplicaciones de Redes Neuronales Artificiales en

14/05/2007

Análisis de Datos de entrada

Detección de NormalidadTest ParamétricosSuponen que Xt se distribuye Normal.

Test No paramétricos.Dada una muestra de valores (x1, x2, ...xn) se desea saber si proviene de una variable Normal con probabilidad (1-α).

),( σµN

Análisis de Información

Page 18: Método y Aplicaciones de Redes Neuronales Artificiales en

14/05/2007

Análisis de Datos de entrada

Detección de Normalidad Test de Fisher

Estima la asimetría g de la muestra X t y trata de comprobar la Ho de que

g ≈≈≈≈ N (0, 6/N)

31

3

).2)(1( SNN

xxg

N

ii

−−

−=∑

=

11

2

−=∑

=

N

xxS

N

ii

Análisis de Información

Page 19: Método y Aplicaciones de Redes Neuronales Artificiales en

14/05/2007

Análisis de Estacionariedad de la varianza

.1aplicar constante mantiene se rango el si

,5.0aplicar positiva lexponencia formaen aumenta rango el si

0,aplicar 1) a (1 elinealment aumenta rango o dispersión la

serie), la de (nivel media la de valor elaumentar al

ln1ln

lim1

lim

Xtln Yt ............. 1a ; 0 Si

XtYt ............. 0a ; 1 Si

esparticular Casos

Yt

deSelección

COX - BOX CIÓNTRANSFORMA

00

=−=

=

==−===

===

−=

→→

λλ

λ

λ

λ

λ

λ

λ

λ

λ

λ

λ

λ

Si

XtXtXtXt

aXt

Análisis de Información

Page 20: Método y Aplicaciones de Redes Neuronales Artificiales en

Análisis de autocorrelación

Coeficiente de correlación:

rk = cov(X,Y)/sx.sy ; (-1 < rk < 1)

donde k = lag o retardo

X = xi

Y = xi-k

sx = desviación típica de xi

sy = desviación típica de xi-k

N= Tamaño del muetsra

cov (X,Y) = ∑(xi-xmi).(xi-k-xmi-k)/(N-k)

para i= 1,....,N-k

para k= 1,2,3......

Análisis de Información

Page 21: Método y Aplicaciones de Redes Neuronales Artificiales en

Análisis de autocorrelación

Test Anderson Verificación de aleatoriedad

Para verificar si una serie es aleatoria, se puede analizar el correlograma de la serie a través del Test de independencia de Anderson, que acepta que el proceso es puramente aleatorio (ruido blanco) , cuando las rk se distribuyen según una Normal N(0,1/N) estableciendo los límites de significación del 95% como

r0.95=-1±1.96.(N-K-1)1/2

N-K

Análisis de Información

Page 22: Método y Aplicaciones de Redes Neuronales Artificiales en

Análisis de autocorrelación

Verificación de PeriodicidadEn el caso de series de tiempo es importante verificar si la

variable presenta periodicidad. Una de las maneras de analizar periodicidad es a través de la Función de auto correlación o (correlograma). El cual define la estructura de dependencia de la serie.

rk

kK=0-k

1

0

-1

r0.95=-1+1.96.(N-K-1)1/2

N-K

r0.95=-1-1.96.(N-K-1)1/2

N-K

Análisis de Información

Page 23: Método y Aplicaciones de Redes Neuronales Artificiales en

Selección de las unidades de salida

� Se puede elegir en este paso entre dos enfoques según se trate de predecir un solo concepto (multiples entradas y una unidad de salida -MISO-) o representar varios conceptos en forma simultánea con un solo modelo (Multiples entradas y Multiplesunidades de salida -MIMO).

Page 24: Método y Aplicaciones de Redes Neuronales Artificiales en

Armado de conjuntos de duplas de entrenamiento, validación y test.

� Selección de las variables de entrada (explicativas) y salida (explicadas).

� Armado de las duplas (patrones entrada-salida) En total se tendrán tantas duplas como ejemplos disponibles.

� Clasificación del ejemplo se puede hacer en tres grandes clases normal, por debajo de lo normal, por arriba de lo normal de acuerdo a los datos observados.

� Selección de ejemplos para el armado de duplas de entrenamiento – validación y Test.

Page 25: Método y Aplicaciones de Redes Neuronales Artificiales en

Armado de conjuntos de duplas de entrenamiento, validación y test.

� selección de las duplas

� entrenamiento 2/5 del total de duplas de cada clase.

� Validación 2/5 del total de duplas de cada clase.

� Test 1/5 del total de duplas de cada clase.

Page 26: Método y Aplicaciones de Redes Neuronales Artificiales en

Armado de conjuntos de duplas de entrenamiento, validación y test.

� Los conjuntos empleados para el entrenamiento, validación y test serán los mismos para todos los tipos de redes candidatas.

� En el caso de contar con pocos ejemplos deberá utilizarse la metodología de Thomas Mitchel.

Page 27: Método y Aplicaciones de Redes Neuronales Artificiales en

Identificación de la estructura de la capa oculta.

Aprendizaje de modelos candidatos.

Selección de estrategia de entrenamiento

Proposición de modelos candidatos

Identificación de candidatos

Page 28: Método y Aplicaciones de Redes Neuronales Artificiales en

Selección del número de neuronas en la capa oculta:

� Para realizar la selección del número de unidades ocultas pueden utilizar los métodos : prueba y error, podado de nodos y enlaces o el algoritmo Cascade-Correlation desarrollado por Scott Falhmany Lebiere (1990).

Page 29: Método y Aplicaciones de Redes Neuronales Artificiales en

Estrategia de Entrenamiento

La estrategia de entrenamiento se especifica en base a la definición de los siguientes aspectos:

� Algoritmo de Aprendizaje :(ej: Backpropagation mom.)� Actualización de pesos: (on line, batch)� Inicialización de pesos:(aleatorio, no aleatoria)� Variación de parámetros de aprendizaje:(manual,

programado)� Presentación de duplas de entrenamiento:(en orden,

aleatoria)� Criterio de Término del aprendizaje:(Punto de Término)

Page 30: Método y Aplicaciones de Redes Neuronales Artificiales en

Aprendizaje de modelos Candidatos

� Las ANNs pueden ser usadas para aprender, por medio de un algoritmo de aprendizaje, a modificar algunos de los parámetros (pesos de los enlaces y desvíos) que describen los componentes de la estructura de la red.

� El conjunto de pesos modificables define un “espacio de parámetros” cuya dimensión estádefinida por el número de pesos a ajustar. Un modelo de red con un conjunto de pesos ajustables define un espacio de hipótesisque corresponde a una familia de funciones[Dean et al 1995].

Page 31: Método y Aplicaciones de Redes Neuronales Artificiales en

Aprendizaje de modelos Candidatos

� Una vez definido el espacio de hipótesis, encontrar la mejor hipótesis dentro del espacio implica definir una estrategia de control, que permita aplicar reglas para encontrar una solución. En general esta estrategia se basa en establecer una función de error cuyo mínimo se busca, tal como en un problema de optimización no lineal.

Page 32: Método y Aplicaciones de Redes Neuronales Artificiales en

Aprendizaje de modelos Candidatos

� Para encontrar una solución óptima que satisfaga las expectativas de pronóstico se sugiere aplicar los métodos de aprendizaje: Backpropagationmomentum (basado en el método del descenso de gradiente) para las redes feedforward; el método Recurrent Cascade Correlation para el entrenamiento de las redes Elman; el algoritmo de aprendizaje Radial Basis Learning para las redes del tipo radial Basis Function. [Zell el al –SNNS-1995].

Page 33: Método y Aplicaciones de Redes Neuronales Artificiales en

Aprendizaje de modelos Candidatos

� Tanto la función de inicialización de pesos y el modo de actualización de los mismos durante el entrenamiento, dependerá del tipo de método de aprendizaje elegido [Zell el al –SNNS- 1995].

� Se recomienda utilizar el Método de Montecarloque permite inicializar la red generando pesos en forma aleatoria.

Page 34: Método y Aplicaciones de Redes Neuronales Artificiales en

Aprendizaje de modelos Candidatos

� Un aspecto muy importante a tener en cuenta es el criterio de terminación del entrenamiento con el objeto de evitar el fenómeno de sobreentrenamiento (overfitting). Para ello, en el caso particular de las redes feedforwardentrenadas con el algoritmo backpropagationmomentum se sugiere la estrategia de entrenamiento propuesta por Mitchell[Mitchel 1997 pp.127] destinada a casos con escasos ejemplos de entrenamiento.

Page 35: Método y Aplicaciones de Redes Neuronales Artificiales en

Análisis de residuosEvaluación de la capacidad predictiva

Validación de candidatos

Pre - Diagnóstico de comportamiento

Problemas de entrenamiento

Page 36: Método y Aplicaciones de Redes Neuronales Artificiales en

Pre - diagnóstico - Curvas de entrenamiento

Causas comunes de problemas de convergencia:

A) Problemas Estructurales� incorrecta asignación de nodos de entrada

� inconsistencia en los datos

� insuficientes nodos ocultos

� Demasiados nodos ocultos

B) Mala estrategia de entrenamiento

� Overfitting�Selección parámetros de entrenamiento y/o pesos

iniciales

Page 37: Método y Aplicaciones de Redes Neuronales Artificiales en

Validación y evaluación de la capacidad predictiva.

� El procedimiento de validación se basa en un conjunto de análisis a realizar sobre los residuos (valores calculados como la diferencia entre los valores de salida observados y los calculados por la red) generados por cada modelo para los distintos conjuntos (entrenamiento, validación y test).

� También se usa como indicador de comportamiento el número de ciclos necesario para lograr un entrenamiento que asegure una buena generalización.

Page 38: Método y Aplicaciones de Redes Neuronales Artificiales en

Evaluación de capacidad predictiva

N

Validación de Candidatos 2222

SSE vs ciclos

S4E vs ciclos

MAE vs ciclos

RMSE vs ciclos

COE vs ciclos

SSE vs ciclos

R2 vs ciclos

Page 39: Método y Aplicaciones de Redes Neuronales Artificiales en

Evaluación de capacidad predictiva

� S4E evalúa el ajuste del modelo a los valores máximos

� MAE es específico para evaluar el ajuste a los valores medios

� RMSE evalúa la varianza de los errores independientemente del tamaño de la muestra [Abrahart&See 1998]. Valores altos de RMSE pueden indicar problemas de generalización asociados generalmente a una mala identificación del número de neuronas ocultas o a un deficiente entrenamiento.

Page 40: Método y Aplicaciones de Redes Neuronales Artificiales en

Selección del modelo óptimo:• análisis visual de gráficos de series calculadas y

observadas,

• análisis de dispersión gráfica de valores calculados vs valores observados

• Análisis de independencia y normalidad de residuos; un análisis de auto correlación y correlación cruzada de residuos y variables de entrada.

• % de predicciones correctas

• % de predicciones bajas entre 5,10 y 25% de los valores observados

• % predicciones altas entre 5,10 y 25% de datos observados

• % mayores al 25% de observados

Page 41: Método y Aplicaciones de Redes Neuronales Artificiales en

*

*

Qcalc

Qobs0

Verificación del grado de ajuste

*

*

Qcalc

Qobs0

*

*

Qcalc

Qobs0

*

*

Qcalc

Qobs0

*

**

*

*

*

*

*

***

**

*

**

*

**

*

*

*

*

* *

* *

*

*

*

*

*

*

*

**

*

*

*

* **

* *

*

* *

*

**

*

*

*

*

****

*

*

*

*

*

** *

*

*

*

*

*

**

**

*

**

*

*

*

**

*

**

*

*

Page 42: Método y Aplicaciones de Redes Neuronales Artificiales en

Visualización de resultados

QANN

Qobs

0

Qm(m3/s)

Tiempo (meses)

Page 43: Método y Aplicaciones de Redes Neuronales Artificiales en

Diagnóstico de problemas en la estructura del modelo (fórmulas)

+1 Φεε(τ)

+20-20-1

+1 Φε2´

ε2(τ)

+20-20-1

+1 Φε(εu)(τ)

+20-20-1

+1 Φu2´

ε(τ)

+20-20-1

+1 Φuε(τ)

+20-20-1

Validación de Candidatos�

FAS

FAC2

FCC FCC

FCC+ 1.96 √ N

-1.96√ N

Page 44: Método y Aplicaciones de Redes Neuronales Artificiales en

Diagnóstico de problemas en la estructura del modelo

Si el análisis de autocorrelación de la serie de residuos indica que un coeficiente de autocorrelaciónsupera un determinado nivel de confianza, ello puede

indicar problemas en la identificación de las variables de entrada o una arquitectura defectuosa de

la red que no logra capturar toda la información predecible.

Page 45: Método y Aplicaciones de Redes Neuronales Artificiales en

Selección del Modelo óptimo

Las propiedades deseables para el modelo óptimo se refieren a aquel que presente:

�Menos problemas de convergencia en el entrenamiento.

�Mejor capacidad de generalización.

�Una serie de residuos con propiedades de “ruido blanco”.

�Menor número de parámetros a ajustar .(parsimonia)

�Menor número de ciclos de entrenamiento.

�Mejor respuesta en situaciones extremas.

Page 46: Método y Aplicaciones de Redes Neuronales Artificiales en

Principio de parsimonia

Para asegurar la capacidad de generalización, debemos evaluar el grado de parsimonia del modelo de red ajustado, se proponen los siguientes indicadores:

N= número de ejemplos

Nw= número de pesos

SSE= error cuadrático medio

( )( ) Error) Prediction (Final

2NSSE FPE

Akaike) den informació de (criterio .2)2

ln(

w

w

NN

NNNNw

NSSE

AIC

−+=

+=

Page 47: Método y Aplicaciones de Redes Neuronales Artificiales en

REDES NEURONALES Y TELEDETECCIÓN APLICADAS A LA DISTRIBUCIÓN ESPACIAL DE MATERIAL EN SUSPENSIÓN EN CUERPOS DE

AGUA.

Mariana Pagot1, Oscar Dölling2, Andrés Rodríguez1, Felipe Niencheski3, Gerardo Hillman1, Mariano Corral1 y Claudia Oroná1.

1 Laboratorio de Hidráulica. Universidad Nacional de Córdoba. Argentina2 Dpto. de Hidráulica. Universidad Nacional de San Juan. Argentina

3 Dpto. Química Oceonográfica. FURG – Brasil.

Page 48: Método y Aplicaciones de Redes Neuronales Artificiales en

OBJETIVO GENERAL DEL ESTUDIO

Entrenar una Red Neuronal Artificial que

prediga espacialmente la concentración

de material en suspensión (MES) en la

Laguna de Los Patos, Brasil, a partir de

datos de reflectividad medidos con

sensores remotos de la serie LANDSAT

(5 y 7).

Page 49: Método y Aplicaciones de Redes Neuronales Artificiales en

Figura 1: Ubicación esquemática de la región en est udio. Laguna de los Patos – Brasil.

Page 50: Método y Aplicaciones de Redes Neuronales Artificiales en

Datos de campo

Se utilizaron datos de material en Suspensión

(MES) medidos en 10 estaciones distribuidas

uniformemente sobre el eje longitudinal de la

Laguna. Estas mediciones fueron realizadas en 4

campañas de monitoreo durante los meses de

marzo a noviembre de 1999, por la Fundación

Universitaria de Río Grande (FURG), Brasil.

Page 51: Método y Aplicaciones de Redes Neuronales Artificiales en

Datos satelitales

Reflectividad calculada en función de parámetros propios de las bandas (1-2-3 y 4) de los sensores remotos de la serie LANDSAT (5 y 7); considerando además, las efemérides del satélite al momento de adquirir cada imagen.

Las imágenes disponibles fueron cedidas por la CONAE (Comisión Nacional de Actividades Espacial) a través del Instituto de Altos Estudios Espaciales “Mario Gulich”. Se contó con 8 imágenes de la región en coincidencia con lascampañas realizadas.

Cada imagen cubre un área de 180x180 km² por lo quese realizó un mosaico con 2 imágenes para analizar cadacampaña.

Page 52: Método y Aplicaciones de Redes Neuronales Artificiales en

Se procesaron 4 mosaicos de imágenes satelitales (2 por

cada instante de muestreo) y se midieron sobre cada

estación monitoreada los correspondientes datos de

intensidades de píxeles (ND) filtrados espacialmente para

promediar el error en la ubicación de dicha estación. La

resolución de cada pixel depende de la banda analizada

para este caso se utilizaron las bandas 1-2 – 3 y 4 con

resolucion espacial de 30x30mts y una escala de grises

(rango del numero digital ND) de 0 a 64 correspondiente

a 8bits en la conversion Analog--Digital.

Page 53: Método y Aplicaciones de Redes Neuronales Artificiales en

La expresión utilizada en la transformación de variables se presenta en la ecuación 1.

ρp es la reflectividad en la Banda pLλ: es la radiancia espectral (L=a1*ND+a2) ND: número digital de la imagend: día julianoEsunλ: irradiancia solar (constante para cada satélite y cada banda)Θs: ángulo de elevación solar.

sp Esun

dL

Θ•••

=cos

2

λπρ λ

Page 54: Método y Aplicaciones de Redes Neuronales Artificiales en

Discriminacion de minerales y rocas. También humedad suelo.

Infrarojomedio

2.08 – 2.357

Analisis de stress en vegetacion. Discriminacion de humedades de suelo. Temperaturas de objetos.

Infrarofotérmico

10.4 – 12.56

Discriminacion de nubes y nieve ( contenido de humedad de suelo y contenido de humedad vegetal)

Infrarojomedio

1.55 – 1.755

Tipos de cultivos – vigor – contenido de biomasa – limites de cuerpos de agua – discriminacion de humedad de suelos.

Infrarojocercano

0.76 -0.904

Vegetación. Difer. Especies.rojo0.63 – 0.693

Vegetación diferenciación de estadosde Crecimiento y vigor.

verde0.52 – 0.602

Agua / suelo (delimitacion de costas)azul0.45 - 0.501

AplicaciónEspectrolongitud de onda

(micrometros)

BANDA

Page 55: Método y Aplicaciones de Redes Neuronales Artificiales en

Tabla 1: Datos satelitales y de campo disponibles p ara desarrollar la red.

3,6810,0350,0080,049650,01020O110

2,6810,0270,0320,059580,02168P89

2,9820,0310,0450,056740,01913P78

3,9320,0310,0410,049650,00638P67

4,0840,0290,0370,046810,00383P56

3,6580,0190,0200,052480,01020P45

3,3600,0100,0000,053900,01785P34

3,4130,0020,0030,053900,01658P23

4,0900,0000,0000,000000,00925P12

4,2920,0210,0220,039720,00000

17-Sep-99

R11

ln (MES) (y)Banda4

(R4)Banda3

(R3)Banda2

(R2)Banda1 (R1)ImagenEstación

M.E.S.Reflectividad (R)FechaCódigo

DatoNro.

Page 56: Método y Aplicaciones de Redes Neuronales Artificiales en

3,5090,0480,0530,0649120,030100O140

3,4440,0540,0580,0672300,032330P839

4,5020,0450,0470,0394110,015607P738

3,8750,0480,0360,0602760,027870P637

3,8290,0340,0210,0602760,027870P536

2,8500,0000,0000,0765040,040133P435

5,5650,0100,0000,0000000,000000P334

4,8770,0060,0040,0324560,008918P233

4,9210,0080,0020,0301380,004459P132

4,1590,0280,0190,0533210,022296

12-Nov-99

R131

4,6160,0220,0190,0449150,014399O130

3,3450,0330,0220,0898310,047517P829

2,6550,0180,0190,0988140,050397P728

4,2570,0290,0320,0658760,025919P627

4,4920,0110,0150,0509040,023039P526

5,1750,0040,0100,0299440,000000P425

3,9340,0070,0000,0748590,031678P324

4,5370,0040,0050,0479100,015839P223

5,1840,0000,0020,0059890,000000P122

5,3040,0180,0070,0000000,000000

08-Ago-99

R121

1,8640,0260,0300,0186500,014947O120

2,0630,0190,0250,0186500,014947P819

1,1630,0040,0030,0217580,017937P718

1,1550,0150,0180,0217580,017937P617

1,2240,0190,0300,0217580,017937P516

0,2620,0190,0230,0248670,023916P415

2,0970,0080,0000,0155420,014947P314

3,5550,0000,0000,0000000,000000P213

2,9640,0080,0030,0124330,010463P112

2,6080,0110,0150,0155420,014947

17-Mar-99

R111

Page 57: Método y Aplicaciones de Redes Neuronales Artificiales en

Tabla 2: Coeficientes de asimetría

VerificaVerificaVerificaVerificaVerifica

-0,672310,604950,692390,122590,73463

YR4R3R2R1

intervalo de confianza [-0,75 y 0,75] para (a)= 0,05 y 40 datos

Tabla 3: Parámetros estadísticos típicos

40Nro. de observaciones:

1,250020,014650,016410,025350,01386Desviación típica:

3,500,0190,0180,0410,017Promedio:

5,570,0540,0580,0990,050Máximo:

0,260,000,000,000,00Mínimo:

Ln(MES)R4R3R2R1

Page 58: Método y Aplicaciones de Redes Neuronales Artificiales en

Figura 2: Funcion de autocorrelación simple series espaciales de reflectividades y Ln(MES).

Page 59: Método y Aplicaciones de Redes Neuronales Artificiales en

En la mayoría de las series la dependencia espacial

comprobada correspondió a 1 desfasaje (k = 1). Esto

es debido a que las estaciones (ubicadas en dirección

NE-SO) reciben desde el NE los mayores aportes por

tributarios de la Laguna, del Río Guaiba, cuya

concentración de sedimentos medida en la

desembocadura de este río influye en la próxima

estación ubicada hacia aguas abajo.

Page 60: Método y Aplicaciones de Redes Neuronales Artificiales en

Selección del conjunto de ejemplos

1- División del conjunto de datos en clases de Entrenamiento, de Validación Y Test. (Además, se verificó que cada conjunto de entrenamiento cubriera el espectro de las posibles clases de entradas.)

2- Selección de la función sigmoide como función de activación de neurona.

3- Escalamiento de los datos de salida entre [-0,7 y 0,7]. (Los datos de entrada se encontraban originalmente dentro de este rango).

4- Luego se evaluaron tres estructuras principales de ejemplos:

a)Los datos de entrada corresponden a las series analizadas de reflectividades (R1, R2, R3 y R4) mientras que los de salida corresponden a los valores escalados del Ln (MES). b) Los datos de entrada corresponden a las series analizadas (R1, R2, R3 y R4) junto con las series desplazadas un intervalo igual a una estación de monitoreo hacia el Sur de la Laguna para R2, R3 y R4, mientras que los de salida, corresponden a los valores escalados a Ln (MES).

c) Igual que (b) pero considerando una variable explicativa adicional relacionada con el índice (R1i/R2i) con i desde 1 a 40.

Page 61: Método y Aplicaciones de Redes Neuronales Artificiales en

El punto (c) surgió del análisis de las regresiones múltiples lineales

entre las variables explicativas y explicadas, las cuales para esta

combinación arrojó un coeficiente de determinación (r²) igual a

0,71; el cual resulta mayor al obtenido con el resto de las

alternativas evaluadas (por ejemplo la adición de las

reflectividades en cada banda ya sea en forma separada o

conjunta).

El criterio de selección de las alternativas se basó en la evaluación

los residuos correspondientes.

Page 62: Método y Aplicaciones de Redes Neuronales Artificiales en

Selección de la topología de red

Se evaluaron distintas arquitecturas de redes neuronales

RED [cantidad de neuronas de entrada, cantidad de neuronas ocultas, cantidadde neuronas de salida]:

RED [4,4,1]

RED [4,3,1]

RED [4,10,1]

RED [7,4,1]

RED [7,3,1]

RED [8,4,1]

Page 63: Método y Aplicaciones de Redes Neuronales Artificiales en

Estrategia de entrenamiento

La estrategia seleccionada se aplicó en las distintas

topologías mencionadas y se basaron en la definición de

los siguientes aspectos:

-algoritmo de aprendizaje: Backpropagation mom.

-actualización de pesos: On-line

-modo aleatorio de inicialización de pesos y presentación

de las tuplas de entrenamiento

Page 64: Método y Aplicaciones de Redes Neuronales Artificiales en

Entre los esquemas analizados, los resultados presentaron

los siguientes errores medios de predicción entre los

valores calculados por el programa SNNS y los valores

objetivos correspondientes a cada ejemplo de

entrenamiento: RED [4,4,1]: - 5,46%RED [4,3,1]: 4,52 %RED [4,10,1]: -8,9%RED [7,4,1]: - 0,45 %RED [7,3,1]: -3,55 %RED [8,4,1]: -0,50 %

Se observa que las redes (d) y (f) son las que presentan menoreserrores de predicción.

Page 65: Método y Aplicaciones de Redes Neuronales Artificiales en

En la Figura 5, se presenta la estructura de la red (d) [7, 4, 1], en la cual se observan los pesos calculados para cada enlace de neuronas.

Figura 5: Estructura de la red [7, 4, 1] y pesos ca lculados.

Los pesos mayores corresponden a la variable explicativa R1, lo cual coincide con lo estimado a partir de las regresiones lineales realizadas entre las distintas variables explicativas y explicadas.

Page 66: Método y Aplicaciones de Redes Neuronales Artificiales en

Figura 6: Los errores absolutos obtenidos para el c onjunto de ejemplos de Test de la red [7, 4, 1] son menores del 1%.

Page 67: Método y Aplicaciones de Redes Neuronales Artificiales en

Figura 8: Estructura de la red [8, 4, 1]

Page 68: Método y Aplicaciones de Redes Neuronales Artificiales en

Para confirmar qué serie generaliza mejor dichos ejemplos se analizaron

los residuos para verificar si se acercan o no a un proceso aleatorio

puro “ruido blanco”.

Así, en cada red [7, 4, 1] y [8, 4, 1] se verificó el test de Normalidad con

valores -0,1551 y -0,0776, respectivamente, en un intervalo

comprendido entre 0,7893 y -0,7893.

El análisis del autocorrelograma simple indicó una dependencia espacial

de los dos primeros intervalos (Figura 9). Mientras que para la estructura

[7, 4, 1] no se presentaron valores fuera del intervalo de confianza,

definido en ambos casos para una probabilidad del 5% (Figura 10).

Page 69: Método y Aplicaciones de Redes Neuronales Artificiales en

Figura 9: Autocorrelogramas de residuos Red [8, 4, 1 ]

FAS

FAP

-0,5

-0,4

-0,3

-0,2

-0,1

0

0,1

0,2

0,3

0,4

0 2 4 6 8 10 12 14 16

k

r(k)

r(k) superior inferior

Page 70: Método y Aplicaciones de Redes Neuronales Artificiales en

Figura 10: Autocorrelograma de los residuos Red [7, 4, 1]

-0,5

-0,4

-0,3

-0,2

-0,1

0

0,1

0,2

0,3

0,4

0 2 4 6 8 10 12 14 16

k

r(k)

r(k) superior inferior

Page 71: Método y Aplicaciones de Redes Neuronales Artificiales en

Validación. Análisis de los resultados

1- Se verificó la Normalidad de los residuos delconjunto de validación con el test de Fischer.

2- Se visualizó datos calculados vs observados

Figura 13: Curva de regresión lineal entre los valo res medidos de (MES) y los generados con la red neuronal y el programa SNN S. Red [7, 4, 1] para el conjunto de Validación.

Page 72: Método y Aplicaciones de Redes Neuronales Artificiales en

Figura 13: Curva de regresión lineal entre los valo res medidos de (MES) y los generados con la red neuronal y el programa S NNS. Red [7, 4, 1]Para el conjunto de validación.

Page 73: Método y Aplicaciones de Redes Neuronales Artificiales en

CAPACIDAD DE PRONÓSTICO CONJUNTO DE VALIDACIÓN

Figura 15: Comparación entre resultados medidos y g enerados para la red [7, 4, 1] de los ejemplos de Validación .

Page 74: Método y Aplicaciones de Redes Neuronales Artificiales en

Figura 16: Comparación entre resultados medidos y g enerados para la red [8, 4, 1] de los ejemplos de Validación .

Page 75: Método y Aplicaciones de Redes Neuronales Artificiales en

CAPACIDAD DE PRONÓSTICO CONJUNTO TOTAL DE DATOS

Figura 17: Valores medidos vs valores generados con la red [7, 4, 1]

Page 76: Método y Aplicaciones de Redes Neuronales Artificiales en

Figura 18: Valores medidos vs valores generados con la red [8, 4, 1]

Page 77: Método y Aplicaciones de Redes Neuronales Artificiales en

Selección del modelo óptimo

Figura 19: Visualización de resultados medidos y ge nerados con SNNSMODELO RED [7, 4, 1] .

Page 78: Método y Aplicaciones de Redes Neuronales Artificiales en

CONCLUSIONES

El modelo RED [7, 4, 1] tiende a subestimar el primer conjunto de ejemplos (de entrenamiento) y sobrestimar el

resto (que incluye los datos de validación).

El modelo explica el 75 % de los ejemplos (escasos) disponibles.

La combinación resultante puede, aún, mejorarse, ya que el coeficiente de determinación fue menor a 0,90.

Es posible a futuro sumar datos de reflectividades de otros sensores con el objetivo de aumentar el número de

ejemplos disponibles y mejorar la performance del modelo.

Page 79: Método y Aplicaciones de Redes Neuronales Artificiales en

APLICACIÓN DE REDES NEURONALES PARA LA SIMULACIÓN DE LA

EVOLUCIÓN DE NIVELES DE AGUA PARA LA LAGUNA DE MAR CHIQUITA

Hillman G.1, Dölling O.2, Pagot M.1, Pozzi C.1 y Plenco vich G.1

* 1Laboratorio de Hidráulica. FCEFyN. UNC.

2 Departamento de Hidráulica. Universidad Nacional de San Juan. Argentina

Page 80: Método y Aplicaciones de Redes Neuronales Artificiales en

Sistema endorreico de la República Argentina

Area de influencia de la laguna de Mar Chiquita - bañados del RíoDulce

PROVINCIAS INVOLUCRADASCatamarca, Salta, Tucumán, Córdoba y Santiago del Estero

CUENCAS DE APORTE Río Dulce

Río SuquíaRío Xanaes

Superficie total = 75000 km2El entorno lagunar abarca un ecosistema cerrado: 10.000 km2

Rango de fluctuaciones en el sistema (2.000 a 6.000 km², entre niveles de 66 y 72 msnm),

Page 81: Método y Aplicaciones de Redes Neuronales Artificiales en
Page 82: Método y Aplicaciones de Redes Neuronales Artificiales en

DV = Qi. DT + AL (P-E). DT

donde:

DV variación de volumen de la laguna

Qi caudales aportados por los tributarios al sistema

P precipitación media areal sobre la laguna,

E evaporación,

AL área de la laguna,

DT paso de tiempo.

Page 83: Método y Aplicaciones de Redes Neuronales Artificiales en

Variables Explicativas

RH: Caudales medios mensuales en Río Hondo.

RI: Caudales medios mensuales en Río Primero.

RII: Caudales medios mensuales en Río Segundo.

PN: Precipitaciones en el arco norte de la laguna de Mar Chiquita.

PS: Precipitaciones en el arco sur de la laguna de Mar Chiquita.

E: Evaporación en la laguna de Mar Chiquita.(Estación Miramar)

Variable explicada

H: niveles de la elevación de la superficie de agua en la

Laguna de Mar Chiquita. (Miramar)

período de estudio

17 años (Nov 1980 - Ago 1997),

Page 84: Método y Aplicaciones de Redes Neuronales Artificiales en
Page 85: Método y Aplicaciones de Redes Neuronales Artificiales en
Page 86: Método y Aplicaciones de Redes Neuronales Artificiales en
Page 87: Método y Aplicaciones de Redes Neuronales Artificiales en

TRATAMIENTO ESTADÍSTICO Y ANÁLISIS DE LA ESTRUCTURATEMPORAL DE LAS SERIES

Los análisis realizados fueron:

a. Estimadores muestrales.b. Análisis de saltos.c. Análisis de tendencia.d. Análisis de normalidad.e. Análisis de autocorrelogramasf. Análisis de correlogramas cruzadosg. Selección del conjunto de variables explicativas a incluir en el modelo

Page 88: Método y Aplicaciones de Redes Neuronales Artificiales en
Page 89: Método y Aplicaciones de Redes Neuronales Artificiales en

Test de Fischer a pesar de que se presentan saltos en las seriesse consideró que los datos son de calidad y que los saltos son reales.

Page 90: Método y Aplicaciones de Redes Neuronales Artificiales en

Se removieron las tendencias de las series con dif. De primer orden, solo la serie de niveles necesito aplicar diferencias de 2do orden.

Page 91: Método y Aplicaciones de Redes Neuronales Artificiales en

Se normalizaron las series con transformaciones de tipo BOX COX

ANALISIS de NORMALIDAD DE SERIES

Page 92: Método y Aplicaciones de Redes Neuronales Artificiales en

Análisis de la estructura de dependencia temporal:Correlogramas.

Page 93: Método y Aplicaciones de Redes Neuronales Artificiales en

Análisis de la estructura de dependencia temporal:Correlogramas.

Page 94: Método y Aplicaciones de Redes Neuronales Artificiales en

Análisis de la estructura de dependencia temporal:Correlogramas.

Page 95: Método y Aplicaciones de Redes Neuronales Artificiales en

Análisis de la estructura de dependencia temporal:Correlogramas.

Page 96: Método y Aplicaciones de Redes Neuronales Artificiales en

Análisis de la estructura de dependencia temporal:Correlogramas Cruzados respecto de H.

Page 97: Método y Aplicaciones de Redes Neuronales Artificiales en

A las 6 variables explicativas se le sumaron 9 variables explicativas que representan la influencia de la historia del proceso en los niveles explicados.

Page 98: Método y Aplicaciones de Redes Neuronales Artificiales en

ARMADO DE EJEMPLOS DE ENTRENAMIENTO, VALIDACIÓN Y T EST

Total de ejemplos disponibles : 192

se dividió en 3 conjuntos por selección aleatoria

el 60% para entrenamiento: 115

el 30% para validación 58 ejemplos

el 10%para test : 19 ejemplos

Luego de evaluar distintas arquitecturas, como mejor configuración resultó una red de tres Capas (15-6-1)

una visible de 15 neuronas (entrada)

una oculta de 6 neuronas

una neurona de salida

Page 99: Método y Aplicaciones de Redes Neuronales Artificiales en

RED NEURONAL ENTRENADA RED 15-6-1

Page 100: Método y Aplicaciones de Redes Neuronales Artificiales en
Page 101: Método y Aplicaciones de Redes Neuronales Artificiales en

PARAMETROS DE LA RED NEURONAL 15-6-1

Page 102: Método y Aplicaciones de Redes Neuronales Artificiales en
Page 103: Método y Aplicaciones de Redes Neuronales Artificiales en

dispersión valores observados versus calculados (TEST)

Page 104: Método y Aplicaciones de Redes Neuronales Artificiales en

valores observados versus calculados (TEST)

(calculados)

Page 105: Método y Aplicaciones de Redes Neuronales Artificiales en
Page 106: Método y Aplicaciones de Redes Neuronales Artificiales en

Los resultados obtenidos y el buen ajuste logrado, demuestra la capacidad que ofrece la modelación con redes neuronales para representar procesos inerciales no lineales como es la variación de los niveles de la laguna.

El éxito de la modelación depende en gran medida de la calidad y cantidad de datos disponibles para los procesos de aprendizaje, validacióny calibración.

El modelo presentado puede ser implementado, asegurando una resolución en el cálculo muy aceptable para intervalos de tiempo mensuales, resultando una herramienta de apoyo a la planificación estratégica de suma utilidad para las comunidades de la zona afectada.

CONCLUSIONES

Page 107: Método y Aplicaciones de Redes Neuronales Artificiales en

MODELO DE PRONÓSTICO CAUDALES DIARIOS DEL RIO SAN JUAN - ESTACION KM 47.3

PROYECTO CICITCA Cod. I-291 / 2003 U.N.S.J.

Director:Oscar R. Dolling

Integrantes: Joaquín RiverosPatricia OviedoSergio Camargo

Page 108: Método y Aplicaciones de Redes Neuronales Artificiales en

Cuenca del rCuenca del ríío San Juano San Juan

Río San Juan

Río Blanco

Río Calingasta

Río

Los

Pat

os

Río Castaño

Río

Uru

guay

Río

Sas

o

0 30 60 kmts

N

O E

S

El Pachon

1 3

2

ESTACIONES de aforo

1 La PLateada

2 Km 101

3 Km 47.3

Page 109: Método y Aplicaciones de Redes Neuronales Artificiales en

Descripción de Datos

Período Fuente

Caudal medio diario río San Juan en Km 47.3.

01/07/51 a 30/06/2003 EVARSA

Caudal medio diario río San Juan en Km 101.

01/10/71 – a 30/06/2003 EVARSA

Caudal medio diario río Los Patos en La Plateada.

01/07/51 – a 30/06/2003 EVARSA

Temperatura Bulbo humedo medio diario en Km47.3

01/09/93 y 30/09/2003 EVARSA

Temperatura Mínima Est. Km 47.3 01/09/93 – a 30/09/2003 EVARSA Temperatura Máxima Est. Km 47.3 01/09/93 – a 30/09/2003 EVARSA Tanque Evaporación Km47.3 01/09/93 a 30/09/2003 EVARSA Velocidad Viento Km 47.3 01/09/93 y 30/09/2003 EVARSA Evaporación diaria Km47.3 01/09/93 a 30/06/2003 EVARSA Humedad diaria Km47.3 01/09/93 a 30/09/2003 EVARSA Precipitación diaria Km47.3 01/09/93 a 30/09/2003 EVARSA Caudal Medio Diario río Los Patos Est. Alvarez Condarco.

01/07/57 a 30/06/2003 EVARSA

Caudal Medio Diario río Castaño, Castaño Nuevo.

01/07/51 a 02/07/1986 EVARSA

Temperatura Bulbo seco medio diario en Km47.3

01/09/93 y 30/09/2003 EVARSA

Temperatura Máxima Est. Met. Pachón 09-01-81 a 16/12/1997 Dto. Hidráulica

Temperatura Mínima Est. Met. Pachón 09-01-81 a 16/12/1997 Dto. Hidráulica

Temperatura Promedio Est. Met. Pachón 09-01-81 a 16/12/1997 Dto. Hidráulica

Datos de niveles freáticos Valle Tulum 01-03-91 a 01-10-95 Dto. Hidráulica

RECOPILACION DE INFORMACIÓN

Page 110: Método y Aplicaciones de Redes Neuronales Artificiales en

VARIABLES INCLUIDAS EN EL ANÁLISIS

VAR47KM: Caudales diarios estación de aforo KM47,3.

VAR101KM: Caudales diarios estación de aforo KM101.

VARPLATE: Caudales diarios estación de aforo La Plateada.

VARPP: Precipitación líquida estación Pachón.

VARNC: Precipitación sólida estación Pachón.

VARNA: Precipitación sólida acumulada, estación Pachón.

VARTMAX: Temperatura máxima, estación Pachón.

VARTMIN: Temperatura mínima, estación Pachón

VARTPROM: Temperatura promedio, estación Pachón.

Page 111: Método y Aplicaciones de Redes Neuronales Artificiales en

VARIABLES INCLUIDAS EN EL ANÁLISIS

PerPerPerPerííííodo de Anodo de Anodo de Anodo de Anáááálisis 1981 a 1997lisis 1981 a 1997lisis 1981 a 1997lisis 1981 a 1997

6209 datos diarios 6209 datos diarios 6209 datos diarios 6209 datos diarios

NOTA:La serie de aforos diarios de la estación Km47.3 presenta un período de 15 días en los cuales no se han medido caudales. Estos corresponden al período comprendido del 1 de enero de 1995 a 15 de enero del mismo año. Se relleno ajustando curvas de regresion lineal entre estaciones.

Page 112: Método y Aplicaciones de Redes Neuronales Artificiales en

nieve acumulada vs dia

0

50

100

150

200

250

300

1

316

631

946

1261

1576

1891

2206

2521

2836

3151

3466

3781

4096

4411

4726

5041

5356

5671

5986

días

niev

e ac

umul

ada

(cm

)

precipitación sólida vs dia

0,0

20,0

40,0

60,0

80,0

100,0

120,0

140,0

1

324

647

970

1293

1616

1939

2262

2585

2908

3231

3554

3877

4200

4523

4846

5169

5492

5815

6138

días

altu

ra d

e ni

eve

caíd

a (c

m)

Precipitación vs días

0,0

20,0

40,0

60,0

80,0

100,0

120,0

140,0

1

364

727

1090

1453

1816

2179

2542

2905

3268

3631

3994

4357

4720

5083

5446

5809

6172

Dias

Pre

cipi

taci

ón lí

quid

a (

mm

)

Temperatura media vs dia

-25,0

-20,0

-15,0

-10,0

-5,0

0,0

5,0

10,0

15,0

1

321

641

961

1281

1601

1921

2241

2561

2881

3201

3521

3841

4161

4481

4801

5121

5441

5761

6081

días

Tem

pera

tura

pro

med

io (°

C)

Temperaturas vs. DIAS

-35

-30

-25

-20

-15

-10

-5

0

5

10

15

20

1

123

245

367

489

611

733

855

977

1099

1221

1343

1465

1587

1709

1831

1953

2075

2197

2319

2441

2563

2685

2807

2929

3051

3173

3295

3417

3539

3661

3783

3905

4027

4149

4271

4393

4515

4637

4759

4881

5003

5125

5247

5369

5491

5613

5735

5857

5979

6101

DIAS

Tem

pera

tura

s M

ínim

as (

°C)

Caudales KM 47,3 vs dia

0,00

100,00

200,00

300,00

400,00

500,00

600,00

700,00

1

316

631

946

1261

1576

1891

2206

2521

2836

3151

3466

3781

4096

4411

4726

5041

5356

5671

5986

días

caud

ales

dia

rios

(m3/

s)

Caudales KM 101 vs dia

,0100,0

200,0300,0400,0

500,0600,0700,0

800,0900,0

1

311

621

931

1241

1551

1861

2171

2481

2791

3101

3411

3721

4031

4341

4651

4961

5271

5581

5891

6201

días

caud

ales

dia

rios

(m3/

s)

Caudales La >Plateada vs dia

0,0

100,0

200,0

300,0

400,0

500,0

600,0

700,0

800,0

1

311

621

931

1241

1551

1861

2171

2481

2791

3101

3411

3721

4031

4341

4651

4961

5271

5581

5891

6201

días

caud

ales

dia

rios

(m3/

s)

Temperaturas vs. DIAS

-15

-10

-5

0

5

10

15

20

25

1

12

3

24

5

36

7

48

9

61

1

73

3

85

5

97

7

10

99

12

21

13

43

14

65

15

87

17

09

18

31

19

53

20

75

21

97

23

19

24

41

25

63

26

85

28

07

29

29

30

51

31

73

32

95

34

17

35

39

36

61

37

83

39

05

40

27

41

49

42

71

43

93

45

15

46

37

47

59

48

81

50

03

51

25

52

47

53

69

54

91

56

13

57

35

58

57

59

79

61

01

DIAS

Tem

pera

tura

s M

ínim

as (°

C)

Temperatura Maxima

Temperatura M{inima

Page 113: Método y Aplicaciones de Redes Neuronales Artificiales en

Figura N ° 4.1: Representación de los caudales de las estaciones de aforo 47km y 101km, se representa la línea de tendencia.

4211,2Q979,0Q km101km47 +×= R2 = 0.9727

Gráfico de doble Masa

0

100

200

300

400

500

600

700

800

900

0 200 400 600 800 1000

Caudales 101km (m 3/seg)

Cau

dale

s 47

km (

m3 /s

eg)

Page 114: Método y Aplicaciones de Redes Neuronales Artificiales en

Figura N ° 4.2: dispersión de datos correspondientes a las estaciones de Aforo 101km y La Plateada, también se graficó la recta de regresión con su expresión incluida en el figura.

Gráfico de doble Masa

y = 0.9628x - 13.957

R2 = 0.9133

0

100

200

300

400

500

600

700

800

0 100 200 300 400 500 600 700 800 900

La Plateada

Est

ació

n de

Afo

ro 1

01km

Page 115: Método y Aplicaciones de Redes Neuronales Artificiales en

Tabla N° 4.1: Valores de máximos y mínimos del Río San Juan período 1981 hasta 1997.

6,56739,82Estación La Plateada

14,85795,00Estación 101km

17,92663,14Estación 47.3km

MÍNIMO(m3/seg)

MÁXIMO(m3/seg)

ESTACIÓN DE AFORO

Tabla N° 4.2: Caudales medios correspondiente a las tres estaciones de aforo período de 1981 a 1997.

51,5La Plateada

68,02Estación 101km

69,02Estación 47,3km

Caudal Promedio(m3/seg)

Estación de Aforo

Page 116: Método y Aplicaciones de Redes Neuronales Artificiales en

Tabla N° 4.4: Desviación Estándar de las estaciones de aforo.

65,2712La Plateada

64,7877Estación 101km

64,3095Estación 47,3km

Desviación EstándarEstación de Aforo

Tabla N° 5: Coeficientes de asimetría de las estaciones de aforo, se puede ver que existe un fuerte sesgo de los valores, por lo tanto se debe realizar una normalización de los datos observados.

Coeficiente de Asimetría

Estación de Aforo

3,8994La Plateada

3,5387Estación 101km

3,4201Estación 47,3km

Page 117: Método y Aplicaciones de Redes Neuronales Artificiales en

CAUDALES MEDIOS, MÍNIMOS, MAXIMOS

0

100

200

300

400

500

600

700

800

900

0 10 20 30 40 50 60 70 80

Tiempo

Cau

dale

s (m

3/se

g) CaudalMedioCaudalesMínimosCaudalesMáximos

Figura N ° 4.3: Caudales máximos, mínimos y medios, para realizar esta grafica se realizó una agregación de datos cuatrimestral.

anomalía

Page 118: Método y Aplicaciones de Redes Neuronales Artificiales en

SA LTO S DE FISH ER

-1.50

-1.00

-0.50

0.00

0.50

1.00

1.50

2.00

2.50

0 10 20 30 40 50 60 70 80

N1

Tie

mpo T de F isher

Lim ite

Figura N° 4.7c: Test de Fishercorrespondiente a la Plateada.

Page 119: Método y Aplicaciones de Redes Neuronales Artificiales en

Figura N°4. 7a: Test de Fisher para el aforo 101km.

SALTOS DE FISHER

-1.50

-1.00

-0.50

0.00

0.50

1.00

1.50

2.00

2.50

3.00

0 10 20 30 40 50 60 70 80

N1

Tie

mpo T de Fisher

Limite

Page 120: Método y Aplicaciones de Redes Neuronales Artificiales en

S A L T O S D E F IS H E R

-1 .5 0

-1 .0 0

-0 .5 0

0 .0 0

0 .5 0

1 .0 0

1 .5 0

2 .0 0

2 .5 0

3 .0 0

0 1 0 2 0 3 0 4 0 5 0 6 0 7 0 8 0

N 1

t T d e F is h e r

L im ite

Figura N° 4.7b: Test de Fishercorrespondiente 47,3km.

Page 121: Método y Aplicaciones de Redes Neuronales Artificiales en

Gráfica en el salto de F

-175

-75

25

125

225

325

425

525

625

1 47 93 139

185

231

277

323

369

415

461

507

553

599

645

691

737

783

829

875

921

967

1013

1059

Tiempo (días)

Cau

dale

s

Caudales 47km

Diferencia 47km - 101km

Figura N° 4.8a: Q vs T para Período donde se registró el salto mediante el test de Fisher.

Page 122: Método y Aplicaciones de Redes Neuronales Artificiales en

Figura N° 4.8b: Representación del la estación de aforo La Plateada y 101km

Gráfica en el salto de F

-200

-100

0

100

200

300

400

500

600

7001 50 99 148

197

246

295

344

393

442

491

540

589

638

687

736

785

834

883

932

981

1030

1079

Tiempo (días)

Cau

dale

s

La Plateada

Diferencia La Plateada - 101km

Page 123: Método y Aplicaciones de Redes Neuronales Artificiales en

Lag Number

16

15

14

13

12

11

10

9

8

7

6

5

4

3

2

1

Par

tial A

CF

1.0

.5

0.0

-.5

-1.0

Confidence Limits

Coefficient

Figura N ° 4.4: Autocorrelación parcial serie caudales estación 47,3km.

Page 124: Método y Aplicaciones de Redes Neuronales Artificiales en

VAR00003

Lag Number

16

15

14

13

12

11

10

9

8

7

6

5

4

3

2

1

Par

tial A

CF

1.0

.5

0.0

-.5

-1.0

Confidence Limits

Coefficient

Figura N° 4.5: Correlograma parcial serie caudalesestación de aforo La Plateada.

Page 125: Método y Aplicaciones de Redes Neuronales Artificiales en

Figura N°4.6: Correlograma serie de caudales estación de aforo 101km.VAR00004

Lag Number

16

15

14

13

12

11

10

9

8

7

6

5

4

3

2

1

Par

tial A

CF

1.0

.5

0.0

-.5

-1.0

Confidence Limits

Coefficient

Page 126: Método y Aplicaciones de Redes Neuronales Artificiales en

Correlations

1,000 ,986** ,857** -,063** -,061** -,068** ,250** ,229** ,261**

, ,000 ,000 ,000 ,000 ,000 ,000 ,000 ,000

6209 6209 6209 6209 6206 6209 6186 6186 6186

,986** 1,000 ,847** -,065** -,063** -,076** ,264** ,243** ,275**

,000 , ,000 ,000 ,000 ,000 ,000 ,000 ,000

6209 6209 6209 6209 6206 6209 6186 6186 6186

,857** ,847** 1,000 -,064** -,060** -,063** ,241** ,215** ,248**

,000 ,000 , ,000 ,000 ,000 ,000 ,000 ,000

6209 6209 6209 6209 6206 6209 6186 6186 6186

-,063** -,065** -,064** 1,000 ,893** ,196** -,287** -,161** -,248**

,000 ,000 ,000 , ,000 ,000 ,000 ,000 ,000

6209 6209 6209 6209 6206 6209 6186 6186 6186

-,061** -,063** -,060** ,893** 1,000 ,159** -,255** -,152** -,225**

,000 ,000 ,000 ,000 , ,000 ,000 ,000 ,000

6206 6206 6206 6206 6206 6206 6183 6183 6183

-,068** -,076** -,063** ,196** ,159** 1,000 -,441** -,424** -,468**

,000 ,000 ,000 ,000 ,000 , ,000 ,000 ,000

6209 6209 6209 6209 6206 6209 6186 6186 6186

,250** ,264** ,241** -,287** -,255** -,441** 1,000 ,709** ,937**

,000 ,000 ,000 ,000 ,000 ,000 , ,000 ,000

6186 6186 6186 6186 6183 6186 6186 6186 6186

,229** ,243** ,215** -,161** -,152** -,424** ,709** 1,000 ,910**

,000 ,000 ,000 ,000 ,000 ,000 ,000 , ,000

6186 6186 6186 6186 6183 6186 6186 6186 6186

,261** ,275** ,248** -,248** -,225** -,468** ,937** ,910** 1,000

,000 ,000 ,000 ,000 ,000 ,000 ,000 ,000 ,

6186 6186 6186 6186 6183 6186 6186 6186 6186

Pearson Correlation

Sig. (2-tailed)

N

Pearson Correlation

Sig. (2-tailed)

N

Pearson Correlation

Sig. (2-tailed)

N

Pearson Correlation

Sig. (2-tailed)

N

Pearson Correlation

Sig. (2-tailed)

N

Pearson Correlation

Sig. (2-tailed)

N

Pearson Correlation

Sig. (2-tailed)

N

Pearson Correlation

Sig. (2-tailed)

N

Pearson Correlation

Sig. (2-tailed)

N

VAR47KM

VAR111KM

VARPLATE

VARPP

VARNC

VARNA

VARTMAX

VARTMIN

VARTPROM

VAR47KM VAR111KM VARPLATE VARPP VARNC VARNA VARTMAX VARTMIN VARTPROM

Correlation is significant at the 0.01 level (2-tailed).**.

Tabla 7.1 : Planilla de Correlación cruzada entre variables

Page 127: Método y Aplicaciones de Redes Neuronales Artificiales en

VAR47KM with VAR101KM

Lag Number

76543210-1-2-3-4-5-6-7

CC

F

1,0

,5

0,0

-,5

-1,0

Confidence Limits

Coefficient

VAR47KM with VARPLATE

Lag Number

76543210-1-2-3-4-5-6-7

CC

F

1,0

,5

0,0

-,5

-1,0

Confidence Limits

Coefficient

VAR47KM with VARTMAX

Lag Number

76543210-1-2-3-4-5-6-7

CC

F

1,0

,5

0,0

-,5

-1,0

Confidence Limits

Coefficient

VAR47KM with VARTMIN

Lag Number

76543210-1-2-3-4-5-6-7

CC

F

1,0

,5

0,0

-,5

-1,0

Confidence Limits

Coefficient

VAR47KM with VARTPROM

Lag Number

76543210-1-2-3-4-5-6-7

CC

F

1,0

,5

0,0

-,5

-1,0

Confidence Limits

Coefficient

CorrelaciónCruzada entre Km 47.3 y Variables explicativas

Page 128: Método y Aplicaciones de Redes Neuronales Artificiales en

Resultado del Análisis de Correlación cruzada

Variables Explicativas:

•Caudal de la estación de aforo KM101 para lag = -2

•Caudal de la estación de aforo La Plateada para lag = -2

•Temperatura máxima tomadas en la estación Pachón para lag= -3

•Temperatura mínima tomadas en la estación Pachón lag = -3

•Temperatura promedio tomadas en la estación Pachón = -3

•Precipitación líquida tomadas en la estación Pachón = -3

•Precipitación sólida tomadas en la estación Pachón = -3

•Precipitación sólida acumulada tomadas en la estación Pachón = -3

La variable explicada es:

•Caudal de la estación de aforo KM47,3 para lag = 0

Page 129: Método y Aplicaciones de Redes Neuronales Artificiales en

KM47 ANN 8-0-1

Page 130: Método y Aplicaciones de Redes Neuronales Artificiales en

KM47 ANN 8-1-1

Page 131: Método y Aplicaciones de Redes Neuronales Artificiales en

KM47 ANN 8-2-1

Page 132: Método y Aplicaciones de Redes Neuronales Artificiales en

KM47 ANN 8-3-1

Page 133: Método y Aplicaciones de Redes Neuronales Artificiales en

KM47 ANN 8-3-1

Page 134: Método y Aplicaciones de Redes Neuronales Artificiales en

Tabla 7.3: estadígrafos serie de residuos (errores respecto al valor observado en %) conjunto de Test para las redes entrenadas

68,1845966ANN 8-0-1Máximo %

-43,75Mínimo %

-0,2764287Promedio %

15,3800537Desviación %

847Datos

87,6222494ANN 8-2-1Máximo %

-38,8553659Mínimo %

-3,03025274Promedio %

8,26183437Desviación %

847Datos

299,969438ANN 8-1-1Máximo %

-32,7182487Mínimo %

58,3478108Promedio %

34,1896794Desviación %

847Datos

175,672372ANN 8-3-1

Máximo %

-37,137796Mínimo %

-2,533281Promedio %

12,105094Desviación %

847Datos

Page 135: Método y Aplicaciones de Redes Neuronales Artificiales en

KM 47,3 ANN 8-0-1

y = 0,9168x + 0,0032

R2 = 0,8821

0

0,2

0,4

0,6

0,8

1

0 0,2 0,4 0,6 0,8 1

Observado

Cal

cula

do

KM 47,3 ANN 8-2-1

y = 0,8861x + 0,0067

R2 = 0,9584

0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1

0 0,2 0,4 0,6 0,8 1

Observado

Cal

cula

do

KM 47,3 ANN 8-1-1

y = 0,8355x + 0,0541

R2 = 0,9174

0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1

0 0,2 0,4 0,6 0,8 1

Observado

Cal

cula

do

KM 47,3 ANN 8-3-1

y = 0,8915x + 0,0061

R2 = 0,9585

0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1

0 0,2 0,4 0,6 0,8 1

Observado

Cal

cula

do

Figura 7.10: Gráficas de comparación entre valor observado y calculado de la serie de residuos perteneciente a Test. Se incluye recta de regresión y su ecuación.

Page 136: Método y Aplicaciones de Redes Neuronales Artificiales en

KM 47,3 ANN 8-0-1

0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0 500 1000 1500 2000 2500 3000 3500 4000

Nº DE DATOS

KM 47,3 ANN 8-1-1

0

0,1

0,2

0,3

0,4

0,5

0,6

0 500 1000 1500 2000 2500 3000 3500 4000

Nº DE DATOS

KM 47,3 ANN 8-2-1

0

0,1

0,2

0,3

0,4

0,5

0,6

0 500 1000 1500 2000 2500 3000 3500 4000

Nº DE DATOS

KM 47,3 ANN 8-3-1

0

0,1

0,2

0,3

0,4

0,5

0,6

0 500 1000 1500 2000 2500 3000 3500 4000

Nº DE DATOS

Figura 7.11: Gráficas de comparación entre valor observado (azul) y pronosticado (rosado)para las 4 redes de mejor resultado.