tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/procedimiento de... · i contenido...

125
INSTITUTO POLITÉCNICO NACIONAL ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA Y ELÉCTRICA SECCIÓN DE ESTUDIOS DE POSGRADO E INVESTIGACIÓN PROCEDIMIENTO DE MUESTREO - RECONSTRUCCIÓN DE CAMPOS GAUSSIANOS ESTACIONARIOS CON MUESTRAS NO UNIFORMES TESIS QUE PARA OBTENER EL GRADO DE MAESTRO EN CIENCIAS EN INGENIERÍA DE TELECOMUNICACIONES PRESENTA: ING. LUIS ALBERTO MÉNDEZ CRUZ DIRECTORES DE TESIS: DR. VLADIMIR KAZAKOV DR. DANIEL RODRÍGUEZ SALDAÑA MÉXICO, D.F. 2014

Upload: others

Post on 09-Apr-2020

11 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

INSTITUTO POLITÉCNICO NACIONAL

ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA Y ELÉCTRICA

SECCIÓN DE ESTUDIOS DE POSGRADO E INVESTIGACIÓN

PROCEDIMIENTO DE MUESTREO - RECONSTRUCCIÓN DE CAMPOS GAUSSIANOS

ESTACIONARIOS CON MUESTRAS NO UNIFORMES

TESIS

QUE PARA OBTENER EL GRADO DE MAESTRO EN CIENCIAS EN INGENIERÍA DE TELECOMUNICACIONES

PRESENTA:

ING. LUIS ALBERTO MÉNDEZ CRUZ

DIRECTORES DE TESIS:

DR. VLADIMIR KAZAKOV DR. DANIEL RODRÍGUEZ SALDAÑA

MÉXICO, D.F. 2014

Page 2: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract
Page 3: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract
Page 4: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

i

Contenido

Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract xii

Capítulo 1. Estado del arte .................................................................................................. 1

1.1 GENERALIZACIÓN DEL TEOREMA CLÁSICO DE MUESTREO ............................................... 1

1.2 CONSIDERACIONES DEL TRABAJO .................................................................................. 3

Capítulo 2. Variables aleatorias y procesos aleatorios .......................................................... 4

INTRODUCCIÓN .................................................................................................................. 4

2.1 VARIABLE ALEATORIA DISCRETA .................................................................................... 4

2.2 VARIABLE ALEATORIA CONTINUA .................................................................................. 6

2.3 MOMENTOS INICIALES ................................................................................................ 10

2.4 MOMENTOS CENTRALES .............................................................................................. 12

2.5 SIGNIFICADO FÍSICO DEL SEGUNDO MOMENTO CENTRAL ............................................. 13

2.6 LA CONEXIÓN ENTRE MOMENTOS CENTRALES E INICIALES ........................................... 15

2.7 VARIABLES ALEATORIAS BIDIMENSIONALES ................................................................. 16

2.8 MOMENTOS INICIALES Y CENTRALES DE UNA VARIABLE ALEATORIA BIDIMENSIONAL ... 17

2.9 TIPOS DE CONEXIONES DENTRO DE DOS VARIABLES ALEATORIAS ................................. 18

2.10 MOMENTO DE COVARIANZA ..................................................................................... 18

2.11 VARIABLE ALEATORIA MULTIDIMENSIONAL ............................................................... 20

2.12 PROCESOS ALEATORIOS ............................................................................................. 21

2.13 LA FUNCIÓN DE COVARIANZA .................................................................................... 24

2.14 PROCESO ALEATORIO CON FDP BIDIMENSIONAL ........................................................ 25

2.15 PROCESOS ESTACIONARIOS Y NO ESTACIONARIOS ..................................................... 27

2.16 TIEMPO DE COVARIANZA ........................................................................................... 29

2.17 DESCRIPCIÓN MÍNIMA DE LOS PROCESOS ALEATORIOS .............................................. 31

2.18 ESPECTRO DE PROCESOS O SEÑALES DETERMINÍSTICAS .............................................. 31

Page 5: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

ii

2.19 ESPECTRO DE PROCESOS O SEÑALES ALEATORIAS ...................................................... 34

2.20 PROCESOS ALEATORIOS A TRAVES DE SISTEMAS LINEALES ......................................... 36

2.21 MÉTODO DE LA INTEGRAL DE CONVOLUCIÓN ............................................................ 38

2.22 MÉTODO DE LA INTEGRAL DE FOURIER ...................................................................... 38

2.23 INFLUENCIA DE LOS PROCESOS ALEATORIOS SOBRE PROCESOS LINEALES (CASO

GENERAL) ............................................................................................................................... 39

2.24 ANÁLISIS EN LA UNIDAD DE TIEMPO .......................................................................... 40

2.25 RESPUESTA DE CIRCUITOS RC ALIMENTADOS CON RUIDO BLANCO ............................. 42

2.26 LA ESPERANZA MATEMÁTICA CONDICIONAL .............................................................. 43

2.27 GENERALIZACIÓN DE LA ESPERANZA MATEMÁTICA CONDICIONAL PARA CAMPOS

GAUSSIANOS .......................................................................................................................... 44

Capítulo 3. Análisis de imágenes y su procesamiento digital ............................................... 46

3.1 REPRESENTACIÓN DE UNA IMAGEN ............................................................................. 46

3.2 SISTEMAS EN DOS DIMENSIONES ................................................................................. 47

3.2.1 OPERADORES DE SINGULARIDAD .............................................................................. 48

3.2.2 OPERADORES LINEALES ADITIVOS ............................................................................. 48

3.2.3 OPERADORES DIFERENCIALES ................................................................................... 50

3.3 LA TRANSFORMADA DE FOURIER EN DOS DIMENSIONES .............................................. 50

3.4 CARACTERIZACIÓN ESTOCÁSTICA DE UNA IMAGEN ...................................................... 53

3.5 ELEMENTOS DEL PROCESAMIENTO DIGITAL DE IMÁGENES ........................................... 57

3.6 TERMINOLOGÍA DEL PROCESO DIGITAL DE IMÁGENES .................................................. 58

3.7 CONCEPTOS DE MUESTREO Y RECONSTRUCCIÓN DE IMÁGENES ................................... 59

3.8 EL HISTOGRAMA DE NIVELES DE GRIS .......................................................................... 60

3.9 OTRAS CARACTERÍSTICAS DEL HISTOGRAMA. ............................................................... 60

Capítulo 4. Análisis de reconstrucción con muestreo no uniforme ...................................... 62

4.1 MUESTREO NO UNIFORME .......................................................................................... 62

4.2 FUNCIÓN DE ERROR DE RECONSTRUCCIÓN DE TIPO CRUZ UTILIZANDO UN CIRCUITO RC

DE UNA ETAPA ....................................................................................................................... 63

4.3 FUNCIÓN DE ERROR DE RECONSTRUCCIÓN DE TIPO CRUZ UTILIZANDO UN CIRCUITO RC

DE DOS ETAPAS. ..................................................................................................................... 65

4.4 FUNCIÓN DE ERROR DE RECONSTRUCCIÓN DE TIPO CRUZ UTILIZANDO UN CIRCUITO RC

DE TRES ETAPAS. .................................................................................................................... 66

Page 6: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

iii

4.5 FUNCIÓN DE ERROR DE RECONSTRUCCIÓN RADIAL UTILIZANDO UN CIRCUITO RC DE UNA

ETAPA .................................................................................................................................... 68

4.6 FUNCIÓN DE ERROR DE RECONSTRUCCIÓN RADIAL UTILIZANDO UN CIRCUITO RC DE DOS

ETAPAS .................................................................................................................................. 70

4.7 FUNCIÓN DE ERROR DE RECONSTRUCCIÓN RADIAL UTILIZANDO UN CIRCUITO RC DE TRES

ETAPAS .................................................................................................................................. 71

4.8 FUNCIÓN DE ERROR DE RECONSTRUCCIÓN ESPIRAL UTILIZANDO UN CIRCUITO RC DE

UNA ETAPA ............................................................................................................................ 72

4.9 FUNCIÓN DE ERROR DE RECONSTRUCCIÓN ESPIRAL UTILIZANDO UN CIRCUITO RC DE DOS

ETAPAS .................................................................................................................................. 73

4.10 FUNCIÓN DE ERROR DE RECONSTRUCCIÓN ESPIRAL UTILIZANDO UN CIRCUITO RC DE

TRES ETAPAS .......................................................................................................................... 75

4.12 FUNCIONES DE RECONSTRUCCIÓN CON MUESTREO NO UNIFORME ............................ 77

4.13 CONFIGURACIÓN RADIAL Y ESPIRAL ........................................................................... 78

4.14 FUNCIONES DE RECONSTRUCCIÓN RADIAL UTILIZANDO CIRCUITOS DE UNA, DOS Y TRES

ETAPAS .................................................................................................................................. 79

4.15 FUNCIONES DE RECONSTRUCCIÓN ESPIRAL UTILIZANDO CIRCUITOS DE UNA, DOS Y TRES

ETAPAS .................................................................................................................................. 82

4.16 ANÁLISIS DEL ERROR DE RECONSTRUCCIÓN PARA LAS FUNCIONES DE COVARIANZA

CARTESIANAS Y ESPACIALES .................................................................................................... 85

Capítulo 5. Conclusiones ................................................................................................... 93

5.1 EL MUESTREO NO UNIFORME ...................................................................................... 93

5.2 EL TEOREMA CLÁSICO DE MUESTREO ........................................................................... 93

5.3 TRABAJOS FUTUROS .................................................................................................... 94

ANEXO A: Programas de cómputo ..................................................................................... 95

Programa que calcula la función de reconstrucción utilizando una función de covarianza

obtenida de un sistema lineal RC1 ................................................................................................ 96

Programa que calcula la función de reconstrucción utilizando una función de covarianza

obtenida de un sistema lineal RC2 ................................................................................................ 97

Programa que calcula la función de reconstrucción utilizando una función de covarianza

obtenida de un sistema lineal RC3 ................................................................................................ 98

ANEXO B: Artículos publicados en congresos ..................................................................... 99

Page 7: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

iv

Índice de Figuras

CAPÍTULO 2 Figura 2. 1 El lanzamiento de una moneda es un ejemplo de una variable aleatoria. ................. 4 Figura 2. 2 Valores posibles de un experimento aleatorio a) una moneda b) un dado. ............... 4 Figura 2. 3 Probabilidades no uniformes. ..................................................................................... 5 Figura 2. 4 Definición gráfica de la derivada. ................................................................................ 6 Figura 2. 5 Cada rectángulo del histograma representa una probabilidad de ocurrencia de la

variable aleatoria................................................................................................................................. 7 Figura 2. 6 Intervalos dentro de una función de distribución. ...................................................... 7 Figura 2. 7 Función de la distribución o Ley integral de la variable aleatoria. .............................. 8 Figura 2. 8 Formas de diversas señales. ........................................................................................ 8 Figura 2. 9 Diversas formas que puede tomar una función de densidad de probabilidad 𝚿𝒋𝒖. . 9 Figura 2. 10 Valores posibles de un experimento. ...................................................................... 10 Figura 2. 11 Centro de simetría de las funciones a) Gaussiana y b) Raleigh. .............................. 11 Figura 2. 12 Variable aleatoria que se convierte en una variable determinística. ..................... 11 Figura 2. 13 Significado físico del segundo momento central. ................................................... 13 Figura 2. 14 Desviación estándar. ............................................................................................... 14 Figura 2. 15 Ley de la distribución Gaussiana, ............................................................................ 14 Figura 2. 16 Plano con una V.A. en un plano. ............................................................................. 16 Figura 2. 17 Ley de la distribución en el espacio. ........................................................................ 16 Figura 2. 18 Dependencia funcional entre variables aleatorias. ................................................. 18 Figura 2. 19 Representación de un espacio multidimensional. .................................................. 20 Figura 2. 20 Gráfica del seno con desfasamientos. ..................................................................... 21 Figura 2. 21 Múltiples realizaciones de un proceso. ................................................................... 22 Figura 2. 22 Momento dentro de una realización ...................................................................... 22 Figura 2. 23 Función de covarianza de un proceso aleatorio. .................................................... 24 Figura 2. 24 Función de esperanza matemática para dos procesos. .......................................... 24 Figura 2. 25 Dependencia estadística entre dos variables aleatorias con comportamiento

suave. ................................................................................................................................................ 26 Figura 2. 26 Dependencia estadística entre dos variables aleatorias con comportamiento

caótico. .............................................................................................................................................. 26 Figura 2. 27 Función de esperanza matemática y varianza para un proceso caótico. ............... 27 Figura 2. 28 Sección fija dentro del momento de covarianza. .................................................... 28 Figura 2. 29 Influencia de la fdp a) Gaussiana y b) Raleigh en un proceso aleatorio. ................ 28 Figura 2. 30 Respuesta de un filtro. ............................................................................................ 29 Figura 2. 31 Tiempo de covarianza a) para un proceso suave y b) para un proceso caótico. .... 30 Figura 2. 32 Significado del módulo dentro del tiempo de covarianza. ..................................... 30 Figura 2. 33 Dos procesos con la misma 𝒙 y 𝝈𝒙𝟐 . ..................................................................... 31 Figura 2. 34 Espectros de a) Amplitud y b) Fase. ........................................................................ 31 Figura 2. 35 Ejemplo de una señal par. ....................................................................................... 32 Figura 2. 36 El espectro de una señal cambia si la señal original cambia. .................................. 33 Figura 2. 37 a) Módulo y b) fase de la densidad espectral. ........................................................ 34 Figura 2. 38 Señal que pasa por un filtro. ................................................................................... 34 Figura 2. 39 Espectro de diferentes señales a) un proceso suave y b) un proceso caótico. ....... 35

Page 8: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

v

Figura 2. 40 Diagrama de un sistema lineal inercial. .................................................................. 36 Figura 2. 41 Lectura a la salida de un sistema lineal inercial. ..................................................... 37 Figura 2. 42 Generador de señales senoidales. .......................................................................... 38 Figura 2. 43 Características de un sistema lineal. ....................................................................... 39 Figura 2. 44 Proceso binario Markoviano. .................................................................................. 39 Figura 2. 45 Esperanza matemática y función de covarianza a la entrada y salida de un sistema

lineal .................................................................................................................................................. 40 Figura 2. 46 Circuito RC pasa-bajas alimentado con ruido blanco. ............................................. 42 Figura 2. 47 Múltiples superficies de un campo Gaussiano. ....................................................... 44

CAPÍTULO 3

Figura 3. 1 Representación de una imagen en pixeles. ............................................................... 57 Figura 3. 2 Estructura digital de una imagen. ............................................................................. 57 Figura 3. 3 Clasificación de imágenes. ........................................................................................ 58

CAPÍTULO 4

Figura 4. 1 Configuración de muestras de tipo cruz con 126 muestras y 6 trazos. .................... 62 Figura 4. 2 Configuración de muestras de tipo radial con 126 muestras y 6 radios. .................. 62 Figura 4. 3 Configuración de muestras de tipo espiral con 126 muestras y 5 espiras. ............... 63 Figura 4. 4 Errores medidos en la función de error de reconstrucción a la salida de un circuito

RC alimentado con ruido blanco usando una configuración de tipo cruz ........................................ 64 Figura 4. 5 Función de error de reconstrucción a la salida de un circuito RC de una etapa

alimentado con ruido blanco utilizando un tipo de muestreo de cruz. ............................................ 64 Figura 4. 6 Vista superior de la función de error de reconstrucción a la salida de un circuito RC

de una etapa alimentado con ruido blanco utilizando un tipo de muestreo de cruz. ...................... 65 Figura 4. 7 Errores medidos en la función de error de reconstrucción a la salida a la salida de un

circuito RC de dos etapas para una configuración de tipo cruz. ....................................................... 65 Figura 4. 8 Función de error de reconstrucción a la salida de un circuito RC de dos etapas

utilizando un tipo de muestreo de cruz. ........................................................................................... 66 Figura 4. 9 Vista superior de la función de error de reconstrucción a la salida de un circuito RC

de dos etapas utilizando un tipo de muestreo de cruz. .................................................................... 66 Figura 4. 10 Errores medidos en la función de error de reconstrucción a la salida de un circuito

RC de tres etapas para una configuración de tipo cruz. ................................................................... 67 Figura 4. 11 Función de error de reconstrucción a la salida de un circuito RC de dos etapas

utilizando un tipo de muestreo de cruz. ........................................................................................... 67 Figura 4. 12 Vista superior de la función de error de reconstrucción a la salida de un circuito RC

de dos etapas utilizando un tipo de muestreo de cruz. .................................................................... 68 Figura 4. 13 Errores medidos en la función de error de reconstrucción a la salida de un circuito

RC de una etapa para una configuración radial. ............................................................................... 68 Figura 4. 14 Función de error de reconstrucción a la salida de un circuito RC de una etapa

utilizando un tipo de muestro radial. ................................................................................................ 69 Figura 4. 15 Vista superior de la función de error de reconstrucción a la salida de un circuito RC

de una etapa utilizando un tipo de muestreo radial. ........................................................................ 69 Figura 4. 16 Errores medidos en la función de error de reconstrucción a la salida de un circuito

RC de dos etapas para una configuración radial. .............................................................................. 69

Page 9: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

vi

Figura 4. 17 Función de error de reconstrucción a la salida de un circuito RC de dos etapas utilizando un tipo de muestreo radial. .............................................................................................. 70

Figura 4. 18 Vista superior de la función de error de reconstrucción a la salida de un circuito RC de dos etapas utilizando un tipo de muestreo radial. ...................................................................... 70

Figura 4. 19 Errores medidos en la función de error de reconstrucción a la salida de un circuito RC de tres etapas para una configuración radial. ............................................................................. 71

Figura 4. 20 Función de error de reconstrucción a la salida de un circuito RC de tres etapas utilizando un tipo de muestreo radial. .............................................................................................. 71

Figura 4. 21 Vista superior de la función de error de reconstrucción a la salida de un circuito RC de tres etapas utilizando un tipo de muestreo radial. ...................................................................... 72

Figura 4. 22 Errores medidos en la función de error de reconstrucción a la salida de un circuito RC de una etapa para una configuración en espiral. ........................................................................ 72

Figura 4. 23 Función de error reconstrucción espiral utilizando un filtro RC de una etapa. ...... 73 Figura 4. 24 Vista superior de la función de error de reconstrucción a la salida de un circuito RC

de una etapa utilizando un tipo de muestreo en espiral. ................................................................. 73 Figura 4. 25 Errores medidos en la función de error de reconstrucción a la salida de un circuito

RC de dos etapas para una configuración en espiral. ....................................................................... 74 Figura 4. 26 Función de error reconstrucción espiral utilizando un circuito RC de dos etapas. . 74 Figura 4. 27 Vista superior de la función de error de reconstrucción a la salida de un circuito RC

de dos etapas utilizando un tipo de muestreo en espiral. ................................................................ 74 Figura 4. 28 Errores medidos en la función de error de reconstrucción a la salida de un circuito

RC de tres etapas para una configuración en espiral. ....................................................................... 75 Figura 4. 29 Vista superior de la función de error de reconstrucción a la salida de un circuito RC

de tres etapas utilizando un tipo de muestreo en espiral. ............................................................... 75 Figura 4. 30 Vista superior de la función de error de reconstrucción a la salida de un circuito RC

de tres etapas utilizando un tipo de muestreo en espiral. ............................................................... 76 Figura 4. 31 Ejemplo de una imagen muestreada uniformemente dentro de un espacio finito

donde cada muestra representa un valor de tono de color gris....................................................... 76 Figura 4. 32 Imagen a reconstruir utilizando muestreo radial y espiral. .................................... 77 Figura 4. 33 Imagen con áreas definidas como pixeles............................................................... 77 Figura 4. 34 Configuración a) radial y b) espiral para un espacio finito rectangular. ................. 78 Figura 4. 35 Configuración de las muestras a) radial y b) espiral para un espacio finito

rectangular. ....................................................................................................................................... 78 Figura 4. 36 Muestreo de la imagen con configuraciones a) radial y b) espiral. ........................ 79 Figura 4. 37 Funciones de reconstrucción utilizando funciones de covarianza Cartesiana de 1 a

3 etapas y el muestreo radial. ........................................................................................................... 79 Figura 4. 38 Superficies de reconstrucción cuando se utiliza un muestreo radial Cartesiano. .. 80 Figura 4. 39 Funciones de reconstrucción utilizando una función de covarianza RC de una, dos y

tres etapas y muestreo radial. .......................................................................................................... 80 Figura 4. 40 Superficies de reconstrucción cuando se utiliza un muestreo radial espacial. ....... 81 Figura 4. 41 Comparación entre las funciones de reconstrucción utilizando una función de

covarianza RC de una, dos y tres etapas y muestreo radial. ............................................................. 82 Figura 4. 42 Comparación entre las reconstrucciones RC1 y RC2 que utilizan la función de

covarianza espacial y la imagen original. .......................................................................................... 82 Figura 4. 43 Funciones de reconstrucción utilizando una función de covarianza RC de una, dos y

tres etapas y muestreo espiral. ......................................................................................................... 82 Figura 4. 44 Superficies de reconstrucción cuando se utiliza un muestreo espiral. ................... 83

Page 10: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

vii

Figura 4. 45 Funciones de reconstrucción utilizando una función de covarianza espacial RC de una, dos y tres etapas y muestreo espiral. ....................................................................................... 83

Figura 4. 46 Superficies de reconstrucción cuando se utiliza un muestreo espiral. ................... 84 Figura 4. 47 Comparación entre las funciones de reconstrucción utilizando una función de

covarianza RC de una, dos y tres etapas y muestreo espiral. ........................................................... 85 Figura 4. 48 Comparación entre las reconstrucciones RC1 y RC2 que utilizan la función de

covarianza espacial y la imagen original. .......................................................................................... 85 Figura 4. 49 Comparación entre las reconstrucciones RC1 radial y RC1 espiral y la imagen

original. .............................................................................................................................................. 85 Figura 4. 50 Funciones de error Cartesianas y espaciales a un intervalo de 0.167 .................... 86 Figura 4. 51 Gráfica de los valores de la función de error de reconstrucción a diferentes

intervalos de muestreo utilizando funciones de covarianza Cartesianas y espaciales. .................... 87 Figura 4. 52 Comparación de las gráficas de los valores de la función de error de reconstrucción

a diferentes intervalos de muestreo utilizando funciones de covarianza Cartesianas y espaciales. 87 Figura 4. 53 Superficies de la función de error a) Cartesiana y b) espacial con muestreo radial 89 Figura 4. 54 Superficies de la función de error a) Cartesiana y b) espacial con muestreo radial 90 Figura 4. 55 Superficies de la función de error a) Cartesiana y b) espacial con muestreo espiral

........................................................................................................................................................... 90 Figura 4. 56 Superficies de la función de error a) Cartesiana y b) espacial con muestreo espiral

........................................................................................................................................................... 91

Índice de Tablas

CAPÍTULO 2 Tabla 2. 1 Funciones de covarianza Cartesiana para circuitos RC de una, dos y tres etapas. .... 43 Tabla 2. 2 Funciones de covarianza espacial para circuitos RC de una, dos y tres etapas. ........ 45

CAPÍTULO 4 Tabla 4. 1 Valores del error de reconstrucción según la distancia y el tipo de función de

covarianza Cartesiana. ...................................................................................................................... 88 Tabla 4. 2 Valores del error de reconstrucción según la distancia y el tipo de función de

covarianza espacial............................................................................................................................ 88 Tabla 4. 3Comparación de los valores del error de reconstrucción según la distancia para las

funciones de covarianza Cartesiana y espacial. ................................................................................ 89 Tabla 4. 4Comparación de los valores del error de reconstrucción obtenidos de funciones de

covarianza espaciales RC1 utilizando configuraciones de muestreo radial, espiral y uniforme. ...... 91

Page 11: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

viii

Objetivo

Objetivo general

Aplicar los conceptos de la teoría estadística de las comunicaciones para describir el procedimiento de muestreo-reconstrucción de campos Gaussianos cuando se utilizan configuraciones de muestreo no uniforme.

Objetivos particulares

Describir cómo influyen las configuraciones de muestreo no uniforme en la reconstrucción de un proceso aleatorio.

Calcular las funciones de reconstrucción y de error de reconstrucción mediante la función de covarianza obtenida por sistemas lineales.

Page 12: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

ix

Justificación

Son varias las preguntas que la formulación del teorema clásico de muestreo - reconstrucción para señales aleatorias deja en el aire. ¿Qué sucede cuando un proceso no posee un conjunto infinito de muestras?, ¿Qué pasa si el periodo de muestreo no está uniformemente distribuido según el criterio de Nyquist?, ¿Cualquier proceso aleatorio puede ser reconstruido mediante la función sen x /x?

Existen estudios que han dado respuesta a estas interrogantes proponiendo como alternativa el uso de la regla de la esperanza matemática condicional. Si bien su uso ha sido utilizado para procesos que dependen del tiempo, poco se ha hablado de cómo funciona esta metodología cuando se involucran variables aleatorias bidimensionales.

Es por ello que la motivación principal de este trabajo es ampliar el rango de aplicación de la regla de la esperanza matemática condicional dentro de áreas donde su uso es poco común. También se pretende enfatizar que el empleo de tipos de muestreo no uniforme tiene como base precisamente las ventajas que ofrece la metodología propuesta sobre las técnicas basadas en el teorema clásico de muestreo. Su uso ha de proporcionar las descripciones estadísticas en las reconstrucciones de campos aleatorios que sirvan como referencia para que además de responder a los ¿por qué?, se tenga un sentido para su aplicación.

Page 13: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

x

Resumen

En el presente trabajo se utiliza la regla de la esperanza matemática condicional para la describir el procedimiento de muestreo-reconstrucción (PMR) de campos Gaussianos utilizando configuraciones de muestreo no uniforme.

Partiendo del teorema clásico de muestreo de Whittaker-Kotelnikov-Shannon (WKS) se pueden observar ciertas particularidades en su definición, tales como el periodo de muestreo, el número de muestras, la función de reconstrucción y el tipo de proceso que se puede reconstruir. Es este último punto el que da lugar a la primera generalización para procesos aleatorios propuesto por A. V. Balakrishnan. Por supuesto, esta generalización sigue contemplando los parámetros del teorema clásico de muestreo. Es por ello que fundada en la teoría de la probabilidad, la esperanza matemática condicional surge como alternativa para responder las inquietudes que se desprenden del teorema WKS.

Una vez planteados los inconvenientes que presenta el uso del teorema WKS para ciertos casos, se comenzará el estudio de procesos aleatorios en una dimensión. Esto pondrá las bases del estudio de los procesos bidimensionales. Posteriormente se habla acerca de los momentos que existen dentro dos variables aleatorias. Es aquí donde se exponen a detalle los términos de la esperanza matemática y la varianza matemática. Además, es aquí donde se explica el motivo para utilizar procesos aleatorios con una función de densidad de probabilidad Gaussiana.

Después, se introducen algunos conceptos acerca del espectro de señales, primero las determinísticas y después las aleatorias. Esto con la finalidad de entender el teorema de Wiener-Kinchine y su relación con la función de covarianza. Enseguida se analiza cómo influyen los procesos aleatorios en los sistemas lineales. Es necesario tocar este punto ya que una parte importante de este estudio involucra circuitos, siendo estos últimos sistemas lineales en sí mismos.

Una vez establecidos los parámetros necesarios para el uso de la esperanza matemática condicional, se realiza una nueva generalización pero esta vez con el objetivo de que pueda adaptarse para su uso en dos dimensiones. Ya que el objetivo del presente trabajo es reconstruir campos aleatorios, se presenta cómo puede caracterizarse una imagen como un campo aleatorio y qué representa matemáticamente esa imagen.

Por último se realiza un análisis de las funciones de error de reconstrucción con dos configuraciones de muestreo no uniformes. Este análisis sirve como antecedente para el método de muestreo que se propone cuando el objeto a reconstruir se encuentra en un espacio rectangular finito. Los resultados obtenidos son comparados mediante tablas donde se puede observar el desempeño de cada algoritmo describiendo las ventajas y desventajas que existen entre ellos.

Page 14: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

xi

Abstract

In this work the conditional mean rule was used to describe the sampling-reconstruction procedure (SRP) of Gaussian fields when non-uniform sampling is used.

We start off from describing some issues within the classical sampling theorem Whittaker-Kotelnikov-Shannon (also known as WKS) definition, such as the sampling lapse, the set of samples, the error function and the type of processes than can be reconstructed. The latter is the starting point which leads A.V. Balakrishnan to its generalization on WKS for random processes. Surely, this theorem continues taking on account every parameter from the classical sampling theory and that is why on the basis of the probability theory the conditional mean rule is founded. Also, this methodology comes up as a response to those questions derived from WKS theorem.

Once we listed the drawbacks which WKS presents, we start to study one-dimensional random processes; this will establish later the basis for a two dimensional random processes analysis. Later on, we will talk about the different types of moments within two random variables and the concepts of mathematical mean and mathematical variance are explained in detail. Moreover, the reasons of why random processes with Gaussian Probability Density are used in this study are given.

After that, concepts about deterministic and random signals spectrum are introduced. These concepts will lead us to understand the Wiener-Khinchin theorem, and its direct relation with covariance function. Then, the influence of random processes over linear systems is analyzed. This is an important topic because involves filters which are linear systems themselves.

Once we establish the parameters needed for using the conditional mean rule a new generalization is made, this time is adapted to work in a two dimensional environment. Due to the objective of this work is to reconstruct random fields the concept is shown of how an image can be represented mathematically and as a Gaussian random field.

Lastly, error reconstruction function of two non-uniform sampling is analyzed. This analysis is used to support the proposed methodology when an object is located at a rectangular finite field. The final results are compared remarking their principal differences as well as the advantages or disadvantages among them.

Page 15: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

1

Capítulo 1. Estado del Arte 1.1 GENERALIZACIÓN DEL TEOREMA CLÁSICO DE MUESTREO La reconstrucción de señales aleatorias está basada principalmente en el teorema clásico de muestreo propuesto por Whittaker-Kotelnikov-Shannon (WKS) [1, 24, 33]. Anterior a este teorema existían propuestas acerca de cómo estimar el valor que existe entre dos muestras de una función. Estos métodos proponían utilizar aproximaciones por interpolación a través de polinomios. El teorema de Shannon, también conocido como WKS, está formulado principalmente para el procedimiento de muestreo-reconstrucción de procesos determinísticos limitados en banda. El teorema de muestreo fue presentado en la literatura Soviética en un artículo de Kotelnikov en 1933 [3]. Shannon (1948) [1, 25] utilizó el teorema de muestreo para demostrar que una señal analógica limitada en banda era equivalente a la serie de sus muestras tomadas a una distancia definida por el intervalo de Nyquist, el cual dice:

Teorema: Toda función de una señal f(t) definida en ℝ que está limitada en banda dentro del intervalo [–ω0, ω0] puede ser completamente reconstruida con respecto a toda 𝑡 ∈ ℝ partiendo de sus valores muestreados f(nT) que son tomados en los puntos 𝑛𝑇 (donde 𝑛 ∈ ℤ) igualmente espaciados sobre el eje real ℝ, en términos de:

𝑓(𝑡) = ∑ 𝑓(𝑛𝑇)sen[𝜔0(𝑡 − 𝑛𝑇)] .

[𝜔0(𝑡 − 𝑛𝑇)]

𝑛=−∞

Existen algunas generalizaciones conocidas de este teorema para procesos aleatorios estacionarios y que son citados en algunos artículos [10, 29], entre ellos, el que presentó A. V. Balakrishnan [2] en 1957. A continuación, presentamos la formulación del teorema de Balakrishnan:

Teorema: Sea x(t) t un proceso estocástico evaluado real o complejo, estacionario en el “sentido amplio” y que posee una densidad espectral, la cual desaparece fuera del intervalo de la

frecuencia angular [2πf0, 2πf0]. Entonces x(t) tiene la representación:

0

0 0

(2 )( ) lim ( )

2 (2 )

N

Nn N

Sen f t nnx t x

f f t n

. (2.1)

Para cada t, donde lim simboliza el límite en el sentido cuadrático medio.

Más explícitamente, esto significa

2

0

0 0

(2 )lim ( ) 0

2 (2 )

N

Nn N

Sen f t nnE x t x

f f t n

. (2.2)

donde se asume que todos los procesos tienen sus varianzas y sus promedios finitos.

Sin embargo, la metodología de Balakrishnan restringe su rango de aplicación debido a las

Page 16: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

2

características que a continuación se describen:

1) No se menciona ni específica para qué tipos de función de densidad de probabilidad es válida.

2) Se debe de utilizar un número infinito de muestras para que el error sea igual a cero. 3) El muestreo del proceso debe ser periódico y por lo menos al doble de la frecuencia

máxima que exista dentro de él. 4) El espectro de la señal debe estar limitado en banda.

Analíticamente, las condiciones ideales para poder utilizar el teorema clásico de muestreo se pueden satisfacer, pero en el campo experimental existen factores que influyen en la reconstrucción óptima de un proceso, tal como lo señala el autor de [3].

Otra generalización importante del teorema de muestreo fue hecha por Parzen en 1956 [34], la cual permite realizar el muestreo de funciones limitadas en banda de n variables. La prueba de esta generalización fue hecha en 1960 por Reza [36].

Teorema: Sea f (t1,t2,…,tn) una función de n variables reales, cuya integral de Fourier n-dimensional existe y es igual a cero fuera de un rectángulo n-dimensional, siendo también simétrica con respecto al origen; esto es,

1 2( , ,..., ) 0, , 1,2,..., .n k kg y y y y k n (2.3)

Entonces

1

11 2

1

1 1 1

1 1 1

( , ,..., ) ... ( ,..., )

( )( )... .

n

nn

m m n

n n n

n n n

mmf t t t f

sin t msin t m

t m t m

(2.4)

La mayoría de las generalizaciones del teorema de muestreo se consideran para señales limitadas en banda o campos con una densidad espectral de tipo rectangular.

En 1962, D. P. Petersen y D. Middelton extendieron el teorema WKS para espacios Euclidianos de N-dimensiones [4]. Este estudio demuestra cómo una función multidimensional que está limitada en frecuencia dentro de una región finita puede ser reconstruida a partir de sus muestras, las cuales están acomodadas periódicamente a lo largo de una rejilla.

En 1985, O. I. Klesov [35] propone la reconstrucción de campos aleatorios Gaussianos con espectro finito mediante una serie multidimensional de Kotelnikov a partir de muestras distribuidas sobre los nodos de una rejilla. Por otra parte, en el mismo año, Clark et al [5] publican un trabajo el cual abarcaba el estudio de reconstrucción de procesos estocásticos unidimensionales y bidimensionales. Ambos casos están sustentados en la base del teorema clásico de muestreo y presentan resultados sobre la reconstrucción de un proceso con muestreo no uniforme mediante una transformación de muestras uniformes para aplicar el teorema de muestreo y posteriormente realizan la transformación inversa.

Otra propuesta de muestreo no uniforme está dada por Evgeny Margolis y Yonina C. Eldar, en el 2008, para la reconstrucción de señales periódicas limitadas en banda [37].

Page 17: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

3

El estudio de los campos aleatorios busca al igual que en el caso unidimensional, modelar procesos estocásticos en dos dimensiones buscando estimar valores en puntos específicos de un campo determinado [6]. Algunas de las aplicaciones que destacan el uso de campos aleatorios bidimensionales es en el procesamiento de imágenes, oceanografía, sismología, acústica, óptica y radar, ya que éstas pueden ser modeladas como campos aleatorios [7][8][12][13]. Sin embargo, los artículos antes citados están restringidos al igual que su contraparte unidimensional para el muestreo uniforme. El caso de estudio de este trabajo es la reconstrucción de una imagen como se verá en el capítulo 4.

1.2 CONSIDERACIONES DEL TRABAJO Como se mencionó con anterioridad, uno de los principales inconvenientes del procedimiento de muestreo-reconstrucción basado en el teorema clásico de muestreo para la caracterización de procesos y campos aleatorios es la dificultad de estimar valores cuando el muestreo es no-uniforme. En este trabajo, se estudiaron las configuraciones de muestreo no-uniformes con distribución radial y espiral.

Actualmente la reconstrucción de campos Gaussianos es usada en diversas aplicaciones como la reconstrucción de imágenes [20], recuperación de imágenes marinas [15], visión a bajo nivel [13], reconstrucción de tomografías [16] y percepción remota [18]. En las aplicaciones de medicina como la recuperación de tomografías, además de su representación como campos aleatorios, también se busca el uso de metodologías que consideren el uso de muestreo no uniforme [19, 21, 22].

Aunque algunos estudios proponen que no es posible recuperar procesos bidimensionales sin error a partir de sus muestras [17], el uso de la esperanza matemática condicional constituye una alternativa factible, puesto que, a pesar de que esta última premisa es cierta, un criterio que nos permita estimar el valor del error que existe en la recuperación de un proceso es de suma utilidad.

Un criterio estadístico que proporciona información acerca del error de reconstrucción de forma cuantificable es la regla de la esperanza matemática condicional. Esta regla hace uso de dos funciones: la función de la varianza matemática condicional como función de error de reconstrucción y la función de la esperanza matemática condicional como función de reconstrucción. La palabra condicional en esta metodología se refiere a que la reconstrucción está condicionada a las muestras dentro del proceso. Tanto la función de reconstrucción como la función de error de reconstrucción serán descritas de manera más amplia en el capítulo 3.

Otra de las desventajas de las metodologías basadas en el teorema clásico de muestreo es la no-consideración de las características estadísticas de los procesos aleatorios. Es por ello que la regla de la esperanza matemática condicional representa una alternativa idónea para el presente estudio ya que considera: la función de covarianza, la esperanza matemática y la varianza matemática de los procesos aleatorios, los cuales cabe señalar son propiedades estadísticas.

Dado que esta metodología es concebida desde la teoría estadística de las comunicaciones, podemos generalizarla para un proceso bidimensional. Dado que un campo aleatorio es un proceso bidimensional se puede considerar entonces que un campo Gaussiano es un campo aleatorio con una densidad de probabilidad Gaussiana. Esta y otras propiedades estadísticas se analizarán con más detalle en el capítulo 2.

Page 18: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

4

Capítulo 2. Variables Aleatorias y Procesos Aleatorios INTRODUCCIÓN La teoría moderna de comunicaciones tiene carácter probabilístico o estadístico debido a tres razones principalmente:

1) Cada mensaje debe de tener carácter aleatorio, ya que es absurdo enviar un mensaje determinístico a través de un sistema de comunicaciones.

2) Cada señal debe tener obligatoriamente carácter aleatorio, considerando que: a) Un parámetro de la señal debe depender del mensaje. b) La señal puede tener otros parámetros aleatorios no informativos.

3) Cada canal presenta diversos tipos de ruido, existen ruidos internos y externos (tienen distinto contenido físico).

Las señales reflejadas provenientes de otros sistemas también se consideran ruido.

La atenuación también es considerada un tipo de ruido.

Ruidos internos: ruido térmico (también conocido como ruido blanco, el cual tiene un valor muy pequeño).

2.1 VARIABLE ALEATORIA DISCRETA Una variable aleatoria es una variable relacionada con un experimento. En el resultado del experimento se obtiene un valor posible, dentro de muchos valores posibles, es decir dos o más.

Figura 2.1 El lanzamiento de una moneda es un ejemplo de una variable aleatoria.

La Figura 2.1 muestra un ejemplo sencillo de lo que es una variable aleatoria discreta: el lanzamiento de una moneda con dos valores posibles. Ahora bien, se requiere describir las variables aleatorias donde cada una de ellas tiene muchos valores posibles. Estos valores son conocidos (determinísticos), de este modo todos los valores posibles son cifras determinísticas.

a) b)

Figura 2.2 Valores posibles de un experimento aleatorio a) una moneda b) un dado.

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

X

Y

xx1 2

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

X

Y

x1 x2 x3 x4 x5 x6

Page 19: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

5

Los pasos para describir una variable aleatoria son los siguientes:

1) Tomar todos sus valores posibles, se pueden marcar en un eje, por ejemplo:

En la Figura 2.2, se representa de forma más clara el número de variables aleatorias y sus diferentes valores posibles.

La definición de probabilidad se basa en la frecuencia de ocurrencia de los valores posibles.

Así entonces podemos definir probabilidad como la relación que existe entre el número de

ocurrencia de un valor posible y el total de experimentos 𝑃(𝑥𝑖) = lim𝑁𝑇→∞

𝑁𝑖

𝑁𝑇

𝑃(𝑥𝑖) = lim𝑁𝑇→∞

𝑁𝑖

𝑁𝑇. (2.1)

2) Sumar estas probabilidades:

∑𝑃(𝑥𝑖) = 𝑁1 + 𝑁2 + 𝑁3 …+ 𝑁𝑖

𝑁𝑇. (2.2)

Se puede generalizar para todas las variables aleatorias con muchos valores posibles la siguiente expresión

∑𝑃(𝑥𝑖) = 1. (2.3)

Propiedad de normalización

Al conocer una variable aleatoria también podemos conocer su ley de la distribución. De manera análoga, conocer su ley de la distribución, significa conocer la variable aleatoria completamente. De este modo no es posible agregar otras características para describir una variable aleatoria (V.A.) ya que la ley de la distribución contiene toda su información.

Figura 2.3 Probabilidades no uniformes.

El caso de la ley de la distribución uniforme es un caso particular. El caso donde las probabilidades no son uniformes (que poseen distinto valor) es un caso general, como se puede ver en la Figura 2.3.

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

X

Y

x

xx

x1

2

3

4

x x5 6

Page 20: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

6

2.2 VARIABLE ALEATORIA CONTINUA Si consideramos una esfera en el espacio. Esta esfera tiene una infinidad de valores posibles, tal que:

𝑃(𝑥𝑖) =1

∞ → 𝑃(𝑥𝑖) = 0.

Se observa que no se puede describir la variable aleatoria continua bajo este criterio, por lo que es necesario realizar una descripción utilizando otro método.

Para describir una variable continua se necesita introducir una función de densidad de probabilidad (fdp).

𝑓(𝑥) = lim∆𝑥→0

𝑃(𝑥 ≤ 𝑋 < 𝑥 + ∆𝑥)

∆𝑥. (2.4)

Para entender el sentido de esta fórmula es necesario recordar la definición de la derivada. Ésta está representada gráficamente en la Figura 2.4.

Figura 2.4 Definición gráfica de la derivada.

Si se considera un área donde puede ocurrir una variable aleatoria continua y esta área se divide en intervalos y se hacen múltiples experimentos, éstos últimos son similares a los realizados para las variables aleatorias discretas.

Si consideramos el caso en el que ∆𝑥→ 0:

𝑃(𝑥 ≤ 𝑋 < 𝑥 + ∆𝑥). (2.5)

El resultado de lo anterior transforma el histograma de la Figura 2.5 en una curva llamada fdp. Esta función es determinística, también conocida como la ley de distribución de una variable aleatoria continua.

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

x

g(x

)

y

y=g(x)

xx x+x

Page 21: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

7

Figura 2.5 Cada rectángulo del histograma representa una probabilidad de ocurrencia de la variable

aleatoria.

Es claro entonces que el área bajo la curva de la fdp es:

∫𝑓(𝑥)𝑑𝑥 = 1. (2.6)

Propiedad de normalización en el caso continuo

La fdp es una función con dimensión (unidades), pero recordemos que la probabilidad no tiene dimensión:

[𝑓(𝑥)] = [1

𝑥] =

1

[𝑥].

La fdp tiene su dimensión inversa a la dimensión de la variable aleatoria (V.A.) continua. La V.A. continua puede tener diferentes dimensiones.

Debido a su analogía con la derivada, la fdp se conoce como ley de distribución diferencial como se puede ver en la Figura 2.6 y 2.7.

a) 𝑓(𝑥)(𝑏 − 𝑎) b) 𝑃(𝑎 < 𝑥 < 𝑏) = ∫ 𝑓(𝑥)𝑑𝑥

𝑏

𝑎

Figura 2.6 Intervalos dentro de una función de distribución.

xg

(x)

x+ x xx

x 0

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

x

f(x

)

a b0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

x

f(x

)

a b

Page 22: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

8

Cuando ∆𝑥 es pequeña, se utiliza 𝑝 ≅ 𝐹(𝑥)∆𝑥.

Si 𝑎 = −∞ y 𝑏 = 𝑥.

Figura 2.7.

Figura 2.7 Función de la distribución o Ley integral de la variable aleatoria.

𝑃(𝑋 < 𝑥) = ∫ 𝑓(𝑥′)𝑑𝑥′ = 𝐹(𝑥)𝑥

−∞, (2.7)

𝑓(𝑥) =𝑑𝐹(𝑥)

𝑑𝑥. (2.8)

Figura 2.8 Formas de diversas señales.

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

x

f(x

)

-1 -0.5 0 0.5 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

t

s(t

)

0 0.2 0.4 0.6 0.8 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

t

s(t

)

0 0.2 0.4 0.6 0.8 1-1

-0.8

-0.6

-0.4

-0.2

0

0.2

0.4

0.6

0.8

1

t

s(t

)

-1 -0.5 0 0.5 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

t

s(t

)

Page 23: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

9

Ahora, recordando la transformada de Fourier:

𝑠(𝑡) =1

2𝜋∫𝐺(𝑗𝜔)𝑒𝑗𝜔𝑡𝑑𝜔. (2.9)

𝐺(𝑗𝜔) = ∫𝑠(𝑡)𝑒−𝑗𝜔𝑡𝑑𝑡. (2.10)

Donde 𝑠(𝑡) es la señal definida en el tiempo y 𝐺(𝑗𝜔) su densidad espectral de potencia. La forma de la señal puede ser arbitraria como se muestra en la Figura 2.8.

Cuando se conoce el espectro se puede conocer la forma de la señal y viceversa.

La forma de fdp puede ser arbitraria también, esto se ilustra en la Figura 2.9.

Figura 2.9 Diversas formas que puede tomar una función de densidad de probabilidad 𝚿(𝒋𝒖).

Ψ(𝑗𝑢) es una función característica.

Para obtener el espectro de la fdp:

Ψ(𝑗𝑢) = ⟨𝑒𝑗𝑢𝑥⟩ = ∫𝑓(𝑥)𝑒𝑗𝑢𝑥𝑑𝑥.

(2.11)

0 0.2 0.4 0.6 0.8 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

x

f(x

)

-1 -0.5 0 0.5 10.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

x

f(x

)

0 0.5 1 1.5 2 2.5 30

0.1

0.2

0.3

0.4

0.5

0.6

0.7

x

f(x

)

-1 -0.5 0 0.5 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

x

f(x

)

Page 24: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

10

𝑓(𝑥) =1

2𝜋∫Ψ(𝑗𝑢)𝑒−𝑗𝑢𝑥 𝑑𝑢. (2.12)

2.3 MOMENTOS INICIALES

Supongamos que existen tres puntos en un plano, un punto de partida 𝐶 y dos puntos 𝐷 y 𝐸 tal como se observa en la Figura 2.10.

Figura 2.10 Valores posibles de un experimento.

Podemos observar que podemos llegar al punto 𝐸 de forma directa mediante 𝑥1 o bien mediante 𝑥2 .

Para calcular el promedio de la distancia:

𝑁1𝑥1 + 𝑁2𝑥2

𝑁.

𝑁1

𝑁𝑥1 +

𝑁2

𝑁𝑥2 = ∑𝑥𝑖𝑃(𝑥𝑖) = ⟨𝑥⟩.

2

𝑖=1

(2.13)

A la expresión (2.13) se le conoce como esperanza matemática.

La esperanza matemática es el centro de la ley de distribución o punto de equilibrio cuando las probabilidades corresponden a pesos.

La ecuación (2.13) puede ser generalizada de la siguiente forma:

⟨𝑥⟩ = ∑𝑥𝑖𝑃(𝑥𝑖).

𝑀

𝑖=1

(2.14)

La cual es conocida como primer momento inicial. Esto aplica para cualquier V.A. discreta.

La expresión (2.14) puede generalizarse para una V.A. continua.

⟨𝑥⟩ = ∫𝑥𝑓(𝑥)𝑑𝑥. (2.15)

La esperanza matemática es una cifra determinística, donde ⟨𝑥⟩ tiene las mismas unidades que 𝑥𝑖. Es por ello que se puede marcar el valor de la esperanza matemática en la ley de la distribución.

La esperanza matemática de cualquier ley de la distribución simétrica se encuentra en el centro de simetría siempre matemática como lo muestra la Figura 2.11. Aunque por otra parte, no siempre coinciden la moda y la esperanza.

⟨𝑥2⟩ = ∑𝑥𝑖2𝑃(𝑥𝑖) → segundo momento inicial para un caso discreto, (2.14a)

⟨𝑥𝑚⟩ = ∑𝑥𝑖𝑚𝑃(𝑥𝑖) → momento de orden 𝑚.

Page 25: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

11

Los momentos iniciales son determinísticos:

⟨𝑥2⟩ = ∫ 𝑥2𝑓(𝑥)𝑑𝑥 → segundo momento inicial para el caso continuo, (2.15a)

⟨𝑥𝑚⟩ = ∫𝑥𝑚𝑓(𝑥)𝑑𝑥 → momento de orden 𝑚.

a) b)

Figura 2.11 Centro de simetría de las funciones a) Gaussiana y b) Raleigh.

Como analogía de (2.14) y (2.15), pueden obtenerse (2.14a) y (2.15a).

Es importante tener en cuenta lo siguiente:

1) La esperanza matemática es el primer momento inicial. 2) La esperanza matemática de una constante es la misma constante, es decir: ⟨𝑐⟩ = 𝑐.

La Figura 2.12 se utiliza para ilustrar lo anteriormente mencionado, supongamos que queremos conocer la ley de la distribución de la siguiente variable aleatoria:

Figura 2.12 Variable aleatoria que se convierte en una variable determinística.

Por los valores que toma 𝑋1 en la gráfica anterior la V.A. se convierte en una variable determinística. Se observa que la variable determinística es un caso particular de la V.A.

0 0.2 0.4 0.6 0.8 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

Xi

P(X

i)

X1 X2

-1 -0.5 0 0.5 1 0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

x

f(x)

Centro de simetría

0 0.5 1 2.5 2 2.5 3 0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

x

f(x)

Centro de simetría

Page 26: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

12

Una variable es determinística cuando se obtiene el mismo resultado en todos sus experimentos, es decir, la probabilidad de una variable determinística es uno. Si se calcula su esperanza matemática entonces:

⟨𝑥⟩ = 𝑥1𝑃(𝑥1) + 𝑥2𝑃(𝑥2) = 𝑥1(1) + 𝑥2(0) = 𝑥1.

⟨𝑐⟩ = 𝑐. (2.16)

La esperanza matemática es el momento inicial de primer orden. Esto puede ser generalizado para las V.A. continuas:

⟨⊛⟩ = ∑⊛𝑖 𝑃(𝑥𝑖).

𝑖

(2.17)

⟨⊛⟩ = ∫⊛ 𝑓(𝑥)𝑑𝑥. (2.18)

Donde ⊛ representa cualquier función y los corchetes ⟨ ⟩ significan:

i. La operación de esperanza matemática de cualquier función. ii. La operación del promedio estadístico.

i) y ii) son equivalentes, por lo tanto, es lo mismo calcular la esperanza matemática y el promedio estadístico, son sinónimos.

2.4 MOMENTOS CENTRALES

Un momento central de orden 𝑚, respecto a una constante 𝑎 se calcula mediante la siguiente expresión:

⟨(𝑥 − 𝑎)𝑚⟩,

𝑎 = 𝑐𝑡𝑒. (2.19)

Considerando 𝑎 = ⟨𝑥⟩|𝑚=1

⟨(𝑥 − ⟨𝑥⟩)⟩.

Obteniendo lo que se conoce como esperanza matemática de la variable aleatoria central, donde:

𝑦 = 𝑥 − ⟨𝑥⟩ → V. A. central. (2.20)

Esta variable “𝑦” es una V.A. respecto a la V.A. central dada. Esto se debe a que “𝑦” tiene otros valores posibles, pero las probabilidades no cambian.

Cuando 𝑎 = 0 en la ecuación (2.19), esta se transforma en momentos iniciales de orden 𝑚.

Se observa que la esperanza matemática de la V.A. central es cero. Analicemos este resultado de forma general:

⟨𝑦⟩ = ⟨(𝑥 − ⟨𝑥⟩)⟩ = ⟨𝑥⟩ − ⟨⟨𝑥⟩⟩

= ⟨𝑥⟩ − ⟨𝑥⟩ = 0. (2.21)

Podemos concluir entonces que el primer momento central siempre es igual a cero para cualquier tipo de V.A.

Notamos que la V.A. central “𝑦” es muy parecida con la V.A. "𝑥", la principal diferencia entre ambas es que la esperanza matemática de "𝑥" no es igual a cero.

Page 27: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

13

Físicamente, lo anterior significa que para obtener la V.A. central “𝑦” desde la V.A. "𝑥" se necesita restar cada valor posible de 𝑥 y su esperanza matemática ⟨𝑥⟩. En la gráfica se requiere desplazar todos los valores posibles de 𝑥𝑖 en otra área alrededor de cero, sin cambiar las probabilidades. Prácticamente, esto significa que la V.A. central es la misma V.A. "𝑥" pero con esperanza matemática igual a cero.

𝑦 = �̇� = 𝑥 − ⟨𝑥⟩. (2.22)

Normalmente, la V.A. central se denota con la misma variable pero haciendo énfasis en ella con un punto.

Es de suma importancia mencionar que todos los momentos centrales son determinísticos. Por ejemplo:

⟨𝑥′̇ ⟩ = 0.

Existen infinidad de momentos centrales y cada ley de la distribución tiene su propia multitud de momentos centrales. Para calcular cualquiera de estos momentos se requiere conocer la ley de la distribución.

2.5 SIGNIFICADO FÍSICO DEL SEGUNDO MOMENTO CENTRAL

El segundo momento central es una medida de la dispersión de los valores posibles alrededor de su esperanza matemática. Este concepto puede entenderse mejor si se observa la Figura 2.13

Figura 2.13 Significado físico del segundo momento central.

⟨�̇�2⟩ = ∑�̇�𝑖2

𝑖

𝑃(𝑥𝑖) = ∑(𝑥𝑖 − ⟨𝑥⟩)2𝑃(𝑥𝑖)

𝑖

. (2.23)

Según la ecuación (2.23) el segundo momento central tiene la dimensión del cuadrado de la V.A.

[⟨�̇�2⟩] = [𝑥2].

Debido a lo anterior, no es posible marcar la varianza o segundo momento central en una gráfica de la ley de la distribución.

Normalmente, el segundo momento central se representa con 𝜎2. Es necesario calcular la raíz cuadrada para obtener 𝜎, la cual se conoce como desviación estándar. Las unidades (o dimensión)

0 0.2 0.4 0.6 0.8 1 0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

Xi

P(X

i)

0.5 0.09 0.09

X1 X2

⟨�̇�2⟩ ⟨�̇�2⟩

⟨𝑥⟩

Page 28: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

14

de 𝜎 son las mismas que las de la V.A., por lo que es posible señalarlas en una gráfica de la ley de la distribución como en la Figura 2.14.

Figura 2.14 Desviación estándar.

Por otra parte, a la medida cuadrática de la dispersión de los valores posibles alrededor de la esperanza matemática se le conoce como varianza.

La varianza es una constante como todos los momentos iniciales y centrales. Observando la gráfica de la ley de la distribución, no se puede decir nada del valor de la varianza, se necesita calcular siempre y después calcular su raíz para obtener 𝜎. La ley de la distribución Gaussiana es como se observa en la Figura 2.15.

𝑓(𝑥) =1

√2𝜋 𝜎𝑒

(−(𝑥−⟨𝑥⟩)2

2𝜎2 ),

Figura 2.15 Ley de la distribución Gaussiana,

∫ 𝑓(𝑥)𝑑𝑥 = 0.999963𝜎

−3𝜎

.

Con las expresiones y figura anterior podemos dar significado físico al tercer momento central ⟨�̇�3⟩, al calcular el coeficiente de asimetría (𝛾𝑎𝑠):

𝛾𝑎𝑠 = 𝑔1 = ⟨�̇�3⟩.

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

x

f(x

)

a'a b b'

2

1

22

Dada

0 0.1 0.2 0.3 0.40

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

x

f(x

)

Page 29: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

15

y también podemos definir un momento central de orden mayor llamado coeficiente de exceso (𝛾𝑒𝑥):

𝛾𝑒𝑥 = 𝑔2 = ⟨�̇�4⟩.

2.6 LA CONEXIÓN ENTRE MOMENTOS CENTRALES E INICIALES

Debido a que de una ley de la distribución se pueden calcular momentos iniciales y centrales éstos pueden relacionarse entre sí mediante la siguiente expresión:

�̇� = 𝑥 − ⟨𝑥⟩, (2.24)

la cual utilizaremos como conexión entre dos variables aleatorias 𝑥 y �̇�:

𝜎2 = ⟨�̇�2⟩ = ⟨(𝑥 − ⟨𝑥⟩)2⟩

= ⟨(𝑥2 − 2𝑥⟨𝑥⟩ + ⟨𝑥⟩2)⟩

= ⟨𝑥2⟩ − ⟨2𝑥⟨𝑥⟩⟩ + ⟨⟨𝑥⟩2⟩

= ⟨𝑥2⟩ − ⟨2𝑥⟨𝑥⟩⟩ + ⟨𝑥⟩2

= ⟨𝑥2⟩ − 2⟨𝑥⟩⟨𝑥⟩ + ⟨𝑥⟩2

= ⟨𝑥2⟩ − 2⟨𝑥⟩2 + ⟨𝑥⟩2

= ⟨𝑥2⟩ − ⟨𝑥⟩2.

𝜎2 = ⟨𝑥2⟩ − ⟨𝑥⟩2. (2.25)

⟨𝑥2⟩ = 𝜎2 + ⟨𝑥⟩2. (2.26)

donde:

⟨𝑥2⟩ es el segundo momento inicial o esperanza matemática del cuadrado de la V.A. En lugar de este nombre puede denominarse como promedio del cuadrado.

⟨𝑥⟩2 es el primer momento inicial al cuadrado o el cuadrado de la esperanza de la V.A. También puede tomar el nombre de cuadrado del promedio.

Hay que considerar que ambos elementos son distintos debido a que:

⟨𝑥2⟩ = ∫𝑥2𝑓(𝑥)𝑑𝑥.

y

⟨𝑥⟩2 = [∫𝑥𝑓(𝑥)𝑑𝑥]2

.

También podemos ver que cuando ⟨𝑥⟩ = 0 entonces 𝜎2 = ⟨𝑥2⟩.

Por lo que podemos concluir que el segundo momento central es igual al segundo momento inicial cuando la esperanza matemática de la V.A. es igual a cero.

Page 30: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

16

2.7 VARIABLES ALEATORIAS BIDIMENSIONALES

Para describir una V.A. bidimensional en el caso discreto, se necesitan marcar todos los valores posibles en un plano o superficie, donde cada uno de estos valores tiene dos coordenadas. La figura 2.16 muestra una variable aleatoria en un plano.

Figura 2.16 Plano con una V.A. en un plano.

∑∑𝑃(𝑥𝑖; 𝑦𝑗) = 1. (2.27)

Propiedad de normalización

Al igual que en el caso unidimensional, también se puede graficar la ley de la distribución en el espacio, esto se ilustra en la Figura 2.17.

Figura 2.17 Ley de la distribución en el espacio.

∫∫𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = 1. (2.28)

En el caso continuo, la fdp es una función de dos coordenadas (argumentos) a diferencia de una V.A. unidimensional.

-1 0

1 2

-1 0

1 2

0

0.2

0.4

0.6

0.8

1

P(x

,y)

y x

Y X 1

2

2 X Y 1

Page 31: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

17

Geométricamente, la Figura 2.17 tiene la forma de una “loma”, 𝑓(𝑥, 𝑦) es la ley de la distribución y debe satisfacer la propiedad de normalización (2.28), donde el volumen de la “loma” debe ser igual a uno.

Imaginando que se conoce la ley de la distribución bidimensional y se quieren obtener dos leyes de la distribución de cada coordenada, para hacerlo se necesita sumar la probabilidad bidimensional con otra coordenada, la cual no nos interesa.

𝑃(𝑥𝑖) = ∑𝑃(𝑥𝑖, 𝑦𝑗)

𝑗

, (2.29)

𝑃(𝑦𝑗) = ∑𝑃(𝑥𝑖 , 𝑦𝑗)

𝑖

. (2.30)

Estas expresiones se utilizan para calcular 𝑃(𝑥𝑖) y por analogía 𝑃(𝑦𝑗). En el caso continuo, (2.29) y

(2.30) se transforman en (2.31) y (2.32), respectivamente.

𝑓(𝑦) = ∫𝑓(𝑥, 𝑦)𝑑𝑥, (2.31)

𝑓(𝑥) = ∫𝑓(𝑥, 𝑦)𝑑𝑦. (2.32)

A las ecuaciones (2.29) – (2.32) se les conoce como propiedad de la concordancia. Esta propiedad significa que no puede elegirse 𝑓(𝑥) y 𝑓(𝑦) arbitrariamente.

2.8 MOMENTOS INICIALES Y CENTRALES DE UNA VARIABLE ALEATORIA BIDIMENSIONAL

Cuando conocemos la fdp bidimensional y la ley de la distribución para cada coordenada 𝑓(𝑥, 𝑦) es posible calcular varios momentos centrales e iniciales para cada una de las coordenadas.

𝑓(𝑥, 𝑦) → 𝑓(𝑥) → ⟨𝑥𝑚⟩ → ⟨𝑥2⟩… ,

𝑓(𝑥, 𝑦) → 𝑓(𝑦) → ⟨𝑦𝑚⟩ → ⟨𝑦2⟩… ,

⟨�̇�𝑚⟩ → ⟨�̇�⟩ = 0 → ⟨�̇�2⟩,

⟨�̇�𝑚⟩ → ⟨�̇�⟩ = 0 → ⟨�̇�2⟩.

Es decir, que cada V.A. bidimensional tiene dos esperanzas matemáticas, dos varianzas, etc.

Notamos, que estos momentos son unidimensionales, puesto que están calculados basándose en la función de densidad de probabilidad., 𝑓(𝑥) y 𝑓(𝑦).

Tomando como base la fdp de 𝑓(𝑥, 𝑦) se pueden introducir muchos momentos iniciales, mutuos y centrales, recordando la fórmula (2.18) para el caso unidimensional.

⟨⊛⟩ = ∫⊛ 𝑓(𝑥)𝑑𝑥.

Generalizando esta expresión para el caso bidimensional:

⟨⊛⟩ = ∫∫⊛ 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦. (2.33)

A partir de (2.33), se pueden obtener los momentos mutuos centrales e iniciales:

Page 32: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

18

⟨𝑥′𝑦′⟩ = ∫∫𝑥𝑦𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 → ⟨𝑥𝑚𝑦𝑛⟩ = ∫∫𝑥𝑚𝑦𝑛𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦, (2.34)

⟨�̇��̇�⟩ = ∫∫ �̇��̇�𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 → ⟨𝑥𝑚𝑦𝑛⟩ = ∫∫ �̇�𝑚�̇�𝑛𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦. (2.35)

Donde el orden del momento mutuo es: 𝑚 + 𝑛. Al igual que los momentos iniciales, todos los momentos mutuos centrales son cifras determinísticas.

2.9 TIPOS DE CONEXIONES DENTRO DE DOS VARIABLES ALEATORIAS

Dos variables aleatorias en casos extremos pueden ser totalmente independientes o totalmente dependientes, el primer caso es aquel donde dos experimentos son realizados pero los resultados de uno no tienen influencia sobre los resultados del otro. Por otro lado, existe el caso de la dependencia funcional, lo cual quiere decir que será suficiente hacer un solo experimento con una V.A. para determinar el valor correspondiente de otra. Este concepto es claro si observamos la Figura 2.18 donde para cada valor de y hay una correspondencia directa con x.

Figura 2.18 Dependencia funcional entre variables aleatorias.

Este efecto de dependencia estadística entre dos V.A. podemos encontrarlo en la naturaleza y debe existir una medida que pueda estimar o evaluar el nivel de esta dependencia. Por lo tanto, esta medida debe ser buscada dentro de los momentos mutuos.

De entre estos momentos mutuos y centrales elegimos el momento central más sencillo y vamos a verificar si éste cumple con ciertos criterios, como por ejemplo: si dos variables son independientes (caso extremo), esta medida debe ser igual a cero. Por otro lado, si dos V.A. tienen dependencia funcional, esta medida debe ser igual a una constante.

2.10 MOMENTO DE COVARIANZA

Este momento se denota como: 𝐾𝑥𝑦 = ⟨�̇��̇�⟩.

Entonces:

𝐾𝑥𝑦 = ⟨�̇��̇�⟩ = ∫∫ �̇��̇� 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦. (2.36)

Analizando las propiedades de este momento:

0 0.2 0.4 0.6 0.8 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

x

y

X2X1

Y1

Y2

Page 33: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

19

1. 𝑥 e 𝑦 son independientes. 2. 𝑃(𝐴𝐵) = 𝑃(𝐴) ∙ 𝑃(𝐵|𝐴) A y B son dependientes. 3. 𝑃(𝐴𝐵) = 𝑃(𝐴) ∙ 𝑃(𝐵) A y B son independientes.

Haciendo una analogía podemos decir que:

4. 𝑓(𝑥, 𝑦) = 𝑓(𝑥)𝑓(𝑦|𝑥) 𝑓(𝑥) y 𝑓(𝑦) son dependientes. 5. 𝑓(𝑥, 𝑦) = 𝑓(𝑥)𝑓(𝑦) 𝑓(𝑥) y 𝑓(𝑦) son independientes.

Entonces:

𝐾𝑥𝑦 = ⟨�̇��̇�⟩ = ∫∫ �̇��̇� 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = ∫∫ �̇��̇� 𝑓(𝑥)𝑓(𝑦)𝑑𝑥𝑑𝑦 = ∫ �̇� 𝑓(𝑥)𝑑𝑥 ∫ �̇�𝑓(𝑦)𝑑𝑦

= ⟨�̇�⟩⟨�̇�⟩ = 0.

(2.37)

Por lo tanto, 𝑥 e 𝑦 son dependientes, y tienen dependencia funcional.

Considerando que tenemos dos V.A. que poseen una conexión lineal, se puede calcular el momento de covarianza.

𝑦 = 𝑘𝑥 + 𝑎. (2.38)

Con ⟨𝑥⟩ y 𝜎2 conocidos:

�̇� = 𝑥 − ⟨𝑥⟩; ⟨𝑦⟩ = ⟨𝑘𝑥 + 𝑎⟩ = ⟨𝑘𝑥⟩ + ⟨𝑎⟩ = 𝑘⟨𝑥⟩ + 𝑎. (2.39)

Por lo tanto:

�̇� = 𝑦 − ⟨𝑦⟩ = 𝑘𝑥 + 𝑎 − 𝑘⟨𝑥⟩ − 𝑎 = 𝑘(𝑥 − ⟨𝑥⟩) → �̇� = 𝑘�̇� (2.40)

𝐾𝑥𝑦 = ⟨�̇��̇�⟩ = ⟨�̇�𝑘�̇�⟩ = 𝑘⟨�̇�2⟩ → 𝑘𝑥𝑦 = 𝑘𝜎𝑥2. (2.41)

Para mejorar este resultado, calculamos 𝜎𝑦

2 = ⟨�̇�2⟩

𝜎𝑦2 = ⟨�̇�2⟩ = ⟨(𝑘�̇�)2⟩ = ⟨𝑘2�̇�2⟩ = 𝑘2⟨�̇�2⟩ → 𝜎𝑦

2 = 𝑘2𝜎𝑥2. (2.42)

y

𝜎𝑦 = 𝑘𝜎𝑥 . (2.43)

𝐾𝑥𝑦 = 𝜎𝑥𝜎𝑦. (2.44)

0 ≤ |𝐾𝑥𝑦|𝜎𝑥𝜎𝑦. (2.45)

𝐾𝑥𝑦 = ∑∑�̇�𝑖�̇�𝑗𝑃(𝑥𝑖, 𝑦𝑗)

𝑗𝑖

. (2.46)

Momento de covarianza V.A. discreta

Según (2.46), para obtener el momento de covarianza es necesario considerar todas las probabilidades y todos los valores posibles ya que no se pueden hacer conclusiones a partir de uno o dos elementos.

Retomando (2.45):

0

𝜎𝑥𝜎𝑦≤ |

𝐾𝑥𝑦

𝜎𝑥𝜎𝑦= 𝑅𝑥𝑦| ≤

𝜎𝑥𝜎𝑦

𝜎𝑥𝜎𝑦→ 0 ≤ |𝑅𝑥𝑦| ≤ 1. (2.47)

Page 34: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

20

donde 𝑅𝑥𝑦 es el momento de covarianza normalizada la cual es una medida de la dependencia

estadística lineal excelente, ya que:

a) No depende de 𝜎𝑥𝜎𝑦.

b) Tiene un máximo igual a uno.

Probamos que cuando dos V.A. son independientes 𝐾𝑥𝑦 = 0 pero esta aseveración generalmente

no es válida a la inversa, es decir, que el momento de covarianza puede ser igual a cero y dos V.A. pueden ser dependientes.

2.11 VARIABLE ALEATORIA MULTIDIMENSIONAL

Para describir una V.A. multidimensional es necesario conocer su fdp multidimensional. Como cada fdp, esta función debe de satisfacer la propiedad de normalización:

𝑓(𝑥1,𝑥2, … , 𝑥𝑛) ⇒ ∫…∫ 𝑓(𝑥1,𝑥2, … , 𝑥𝑛)𝑑𝑥1𝑑𝑥2 …𝑑𝑥𝑛 = 1𝑛

. (2.48)

Para la fdp multidimensional se puede aplicar la propiedad de concordancia. Cuando se conoce mucha información de la V.A. se pueden obtener algunas características particulares. Por ejemplo, si se quiere conocer la fdp unidimensional 𝑥𝑖, los demás componentes no son de interés.

𝑓(𝑥𝑖) = ∫…∫ 𝑓(𝑥1, 𝑥2, … , 𝑥𝑖−1, 𝑥𝑖, 𝑥𝑖+1, … , 𝑥𝑛)𝑑𝑥1 …𝑑𝑥𝑖−1, 𝑑𝑥𝑖+1, … , 𝑑𝑥𝑛𝑛−1, (2.49)

𝑓(𝑥𝑖 , 𝑥𝑗) = ∫…∫ 𝑓(𝑥1, … , 𝑥𝑖 , 𝑥𝑖+1, … , 𝑥𝑗−1, 𝑥𝑗 , 𝑥𝑗+1, … 𝑥𝑛)𝑑𝑥1, … 𝑑𝑥𝑖−1, 𝑑𝑥𝑖+1, … 𝑑𝑥𝑗−1, 𝑑𝑥𝑗+1, … , 𝑑𝑥𝑛𝑛−2, (2.50)

𝑓(𝑥1, … 𝑥𝑛−1) = ∫𝑓(… )𝑑𝑥𝑛.

La ilustración geométrica de una V.A. multidimensional es muy difícil, prueba de esto es la Figura 2. 19 donde se trata de representar un espacio con múltiples dimensiones.

Figura 2.19 Representación de un espacio multidimensional.

⟨𝑥𝑖

𝑚⟩, ⟨�̇�𝑖𝑚⟩,

⟨𝑥𝑖𝑚𝑥𝑗

𝑛⟩, ⟨�̇�𝑖𝑚�̇�𝑗

𝑛⟩,

⟨𝑥𝑖𝑚𝑥𝑗

𝑛𝑥𝑘𝑝⟩, ⟨�̇�𝑖

𝑚�̇�𝑗𝑛�̇�𝑘

𝑝⟩.

Hasta ahora podemos puntualizar que:

z

yx

w

v

u

t

s

r

q

p

Page 35: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

21

Tomando como base la fdp unidimensional, 𝑓(𝑥𝑖) con 𝑖 = 1,… , 𝑛, se pueden obtener muchos momentos centrales e iniciales unidimensionales.

Por otro lado, si tomamos la fdp bidimensional 𝑓(𝑥𝑖 , 𝑥𝑗), se pueden obtener muchos

momentos mutuos iniciales y centrales bidimensionales.

Algunos momentos unidimensionales y bidimensionales poseen un significado físico.

Esto significa que la V.A. multidimensional tiene muchos momentos centrales e iniciales diferentes, aunque es muy difícil darle un significado físico a los momentos de mayor orden.

Existen algunas expresiones analíticas para las fdp multidimensionales, para el presente trabajo únicamente se eligió el caso multidimensional Gaussiano.

Hay una expresión analítica para el caso de la fdp Gaussiana.

Recordamos que en el caso bidimensional la fdp Gaussiana está descrita por cinco parámetros:

⟨𝑥⟩, ⟨𝑦⟩, 𝜎𝑥2, 𝜎𝑦

2, 𝐾𝑥𝑦.

En el caso multidimensional se tiene la misma situación.

Para describir la fdp Gaussiana se necesita conocer:

1) Un vector de esperanzas matemáticas ⟨𝑥⟩. 2) Una matriz de covarianza.

𝐾 = [

⟨�̇�1�̇�1⟩ ⟨�̇�1�̇�2⟩ ⋯ ⟨�̇�1�̇�𝑛⟩

⟨�̇�2�̇�1⟩ ⟨�̇�2�̇�2⟩ ⋯ ⟨�̇�2�̇�𝑛⟩⋮ ⋮ ⋮ ⋮

⟨�̇�𝑛�̇�1⟩ ⟨�̇�𝑛�̇�2⟩ ⋯ ⟨�̇�𝑛�̇�𝑛⟩

]. (2.51)

La matriz de covarianza incluye las varianzas como elementos de la diagonal principal.

2.12 PROCESOS ALEATORIOS

Consideremos una función determinística tipo senoidal, como la de la Figura 2.20

𝑠(𝑡) = 𝐴0 cos(𝜔0𝑡 + 𝜑0).

Figura 2.20 Gráfica del seno con desfasamientos.

0 0.5 1 1.5 2 2.5 3

-0.8

-0.6

-0.4

-0.2

0

0.2

0.4

0.6

0.8

t

s(t

)

T

Page 36: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

22

Si elegimos un valor 𝑇 se obtiene una cifra determinística para cada realización de la función, como se puede ver en la Figura 2.20.

𝑠(𝑡, 𝜑) = 𝐴0 cos(𝜔0𝑡 + 𝜑0).

donde 𝜑 es una fase aleatoria continua.

La V.A. continua tiene una infinidad de valores posibles, por lo que se obtiene un proceso aleatorio. Un proceso aleatorio tiene una infinidad de realizaciones como en la Figura 2.21.

Figura 2.21 Múltiples realizaciones de un proceso.

Si se elige un argumento 𝑡 y se toma una sección del proceso aleatorio, cada realización dejará por separado su “huella” como un punto, esto significa que en esta sección en el tiempo 𝑡 se tendrá una V.A. continua.

Esta conclusión tiene carácter general. El ejemplo de la Figura 2.21 es muy raro, ya que se tiene la posibilidad de escribir analíticamente cada realización.

Figura 2.22 Momento dentro de una realización

0 0.2 0.4 0.6 0.8 1-2

-1.5

-1

-0.5

0

0.5

1

1.5

2

t

s(t

)

Realización 1

Realización 2

Realización 3

0 0.2 0.4 0.6 0.8 1-2

-1.5

-1

-0.5

0

0.5

1

1.5

2

t

s(t

)

Realización 1

Realización 2

Realización 3

t t t1 2 n...

x(t)

x(t)

Page 37: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

23

Un proceso aleatorio tiene muchas realizaciones. Entonces estas juegan un papel similar al de los valores posibles en la teoría de las V.A. Generalmente es muy difícil o imposible describir analíticamente la forma de cada realización del proceso aleatorio, un ejemplo claro puede apreciarse en la Figura 2.22.

De nuevo, un proceso aleatorio tiene millones de realizaciones, donde 𝑡 es un argumento. Si se elige un tiempo 𝑡, y se hace una sección, cada realización dejará su huella en esa sección. Es claro que la cantidad de estos puntos es infinita, en esta sección lo que encontramos es una V.A. unidimensional.

En la Figura 2.22 se pueden hacer muchas secciones en los momentos 𝑡1, 𝑡2, … , 𝑡𝑛. En cada sección vamos a tener una V.A. unidimensional y su correspondiente fdp (𝑓(𝑥𝑖, 𝑡𝑖) 𝑖 = 1,… , 𝑛).

Pero las V.A. dentro de un proceso aleatorio pueden tener dependencia estadística.

Como primer paso hay que considerar dos secciones, es decir, dos V.A. (𝑥𝑖, 𝑥𝑗), la cual podemos

considerar como una V.A. bidimensional y puede ser descrita por su fdp bidimensional:

{𝑥𝑖(𝑡𝑖), 𝑥𝑗(𝑡𝑗)} → 𝑓(𝑥𝑖 , 𝑡𝑖; 𝑥𝑗, 𝑡𝑗).

Como segundo paso hay que suponer que existe dependencia estadística entre tres secciones o tres V.A., es decir, debe de considerarse una V.A. tridimensional descrita por su fdp tridimensional:

{𝑥𝑖(𝑡𝑖), 𝑥𝑗(𝑡𝑗), 𝑥𝑘(𝑡𝑘)} → 𝑓(𝑥𝑖 , 𝑡𝑖; 𝑥𝑗 , 𝑡𝑗; 𝑥𝑘 , 𝑡𝑘).

La consideración anterior puede mantenerse:

{𝑥1(𝑡1), 𝑥2(𝑡2), … , 𝑥𝑛(𝑡𝑛)} → 𝑓(𝑥1, 𝑡1; 𝑥2, 𝑡2;… ; 𝑥𝑛, 𝑡𝑛).

Generalmente, es necesario considerar una V.A. multidimensional, descrita por su fdp multidimensional.

Mediante una analogía con las V.A. podemos decir que para describir completamente un proceso aleatorio es necesario conocer todas sus realizaciones y la probabilidad de cada realización.

Para cada fdp vamos a calcular su esperanza matemática, para lograr esto se marcaron puntos en la gráfica como se observa en la Figura 2.23, naturalmente para cada sección se van a obtener muchos puntos. Debido a que se eligen momentos 𝑡1, 𝑡2 y 𝑡𝑛 arbitrariamente, se tiene el derecho de unir todos los puntos y obtener una nueva función la cual se llama función de la esperanza matemática (⟨𝑥(𝑡)⟩), esta función es determinística, de la misma forma es posible calcular otras funciones de los momentos iniciales

⟨𝑥(𝑡)⟩, ⟨𝑥2(𝑡)⟩, ⟨𝑥3(𝑡)⟩, … , ⟨𝑥𝑚(𝑡)⟩.

Considerando un proceso aleatorio central y recordando que:

�̇� = 𝑥 − ⟨𝑥⟩

y de forma similar al caso anterior, es posible escribir el proceso aleatorio central como:

𝑥(𝑡) = 𝑥(𝑡) − ⟨𝑥(𝑡)⟩ → �̇� = 𝑥 − ⟨𝑥⟩.

Recordamos que:

⟨�̇�(𝑡)⟩ = 0.

Gráficamente, el proceso central tiene una forma distinta a 𝑥(𝑡) ya que en cada momento del tiempo se necesita restar a su esperanza matemática.

Page 38: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

24

Figura 2.23 Función de covarianza de un proceso aleatorio.

Tomando como base la fdp unidimensional se puede calcular la varianza para cada 𝑡𝑖, nuevamente, se obtienen muchos puntos y al unirlos se obtiene una función conocida como la función de la covarianza del proceso aleatorio, esta función es una función determinística tal y como se muestra en la Figura 2.23.

Se observa que la idea de describir el proceso aleatorio con una multitud de fdp unidimensionales es buena ya que se obtuvieron buenos resultados.

2.13 LA FUNCIÓN DE COVARIANZA

Consideramos dos procesos aleatorios distintos: 𝑥(𝑡) y 𝑦(𝑡) como en la Figura 2.24.

Figura 2.24 Función de esperanza matemática para dos procesos.

Se observa que ambos procesos tienen funciones de varianza y de esperanza matemática iguales.

0 0.2 0.4 0.6 0.8 1-2

-1.5

-1

-0.5

0

0.5

1

1.5

t

s(t

)

0 0.2 0.4 0.6 0.8 1

0.4

0.5

0.6

0.7

0.8

0.9

1

t

va

ria

nza

Realización 1

Realización 2

Realización 3

t t t1 2 n...

1

0

1

t

x(t

)

Proceso aleatorio 1

1

0

t

y(t

)

Proceso aleatorio 2

<x(t)>

<y(t)>

1

x(t)

covaria

nza

Page 39: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

25

Observando la Figura 2.24 vamos a tener las mismas funciones de varianza ya que no se puede notar la diferencia de la estructura del tiempo de cada proceso aleatorio. En nuestro caso, el proceso aleatorio 1 de la Figura 2.24 es más suave que el segundo que es más caótico.

Por eso, es necesario buscar otras características que reflejen la estructura del tiempo de cada proceso aleatorio.

2.14 PROCESO ALEATORIO CON FDP BIDIMENSIONAL

Para describir un proceso aleatorio con fdp bidimensional, tomamos dos secciones, (en los momentos 𝑡1 y 𝑡2. Por lo tanto, en cada sección vamos a tener dos V.A.: 𝑥1(𝑡1) y 𝑥2(𝑡2). Estas dos V.A. pueden tener dependencia estadística, por eso es necesario describirlas con una fdp bidimensional

𝑓(𝑥1, 𝑡1; 𝑥2, 𝑡2).

Cuando conocemos una fdp bidimensional podemos obtener muchos momentos mutuos iniciales y centrales y cada uno de estos momentos será una cifra determinística

⟨𝑥1𝑛(𝑡1)𝑥2

𝑚(𝑡2)⟩; ⟨�̇�1𝑛(𝑡1)�̇�2

𝑚(𝑡2)⟩.

Elegimos dentro de estos momentos mutuos uno solamente, este es el momento de covarianza, porque recordamos que:

⟨�̇��̇�⟩ = 𝐾𝑥𝑦 = ∫∫ �̇��̇� 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦.

0 ≤ 𝐾𝑥𝑦 ≤ 𝜎𝑥𝜎𝑦.

y por analogía:

𝐾𝑥(𝑡1, 𝑡2) = ⟨�̇�1 (𝑡1)�̇�2 (𝑡2)⟩. (2.52)

El momento de covarianza es una medida de la dependencia estadística lineal dentro de dos V.A. Fijamos una sección o V.A. (𝑡1) y calculamos el momento de covarianza para las secciones 𝑡1 y 𝑡2 y se marca un punto en la gráfica del momento y se desplaza 𝑡1(𝑡1 → 𝑡2′). Ahora se calcula el momento de covarianza y se marca otro punto en la gráfica, ahora tomamos la sección 𝑡1 y 𝑡2′′ y así sucesivamente. Como resultado tendremos muchos puntos, los momentos elegidos arbitrariamente (𝑡2, 𝑡2′, 𝑡2′′), si unimos estos puntos obtendremos la función que se conoce como covarianza.

Esta función posee ciertas propiedades:

1) Si 𝑡2 = 𝑡1 → 𝐾(𝑡1, 𝑡1) = ⟨�̇�1(𝑡1)�̇�2(𝑡1)⟩ = ⟨�̇�12(𝑡1)⟩.

Entonces:

𝐾(𝑡1, 𝑡1) = 𝜎2(𝑡1). (2.53)

La dependencia es funcional.

2) Si 𝑡2 − 𝑡1 → ∞. Entonces:

𝐾(𝑡1, 𝑡2) = ⟨�̇�1(𝑡1)�̇�2(𝑡2)⟩ = 0 (2.54)

En este caso, las V.A. son independientes. En (2.54) 𝐾(𝑡1, 𝑡2) = 0 según la propiedad del momento de covarianza. Existen procesos aleatorios muy raros para los cuales (2.54) no es válido.

Page 40: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

26

Consideremos un proceso muy suave como el de la Figura 2.25.

Figura 2.25 Dependencia estadística entre dos variables aleatorias con comportamiento suave.

Supongamos que estamos en el punto 𝑥1 y vamos a evaluar cualitativamente sus probabilidades.

Es posible pasar de 𝑥1(𝑡1) a 𝑦10(𝑡2):

1) 𝑃(𝑦1(𝑡2)|𝑥1(𝑡1)) La probabilidad es grande. 2) 𝑃(𝑦1(𝑡2)|𝑥10(𝑡1)) La probabilidad es pequeña.

Suponiendo que estamos en 𝑥10 y vamos a evaluar las probabilidades

1) 𝑃(𝑦1(𝑡2)|𝑥10(𝑡1)) La probabilidad es pequeña. 2) 𝑃(𝑦10(𝑡2)|𝑥10(𝑡1)) La probabilidad es grande.

Figura 2.26 Dependencia estadística entre dos variables aleatorias con comportamiento caótico.

Comparando las evaluaciones anteriores, observamos que las probabilidades de "𝑦" dependen de los valores de "𝑥". Recordamos que esto significa que dos V.A. tienen dependencia estadística evaluada con el momento de covarianza.

t

y (t )

x (t )11

10 1x (t ) 10y (t )2

21

.

.

.

t1 t 2

.

.

.

x (t )1

110

10

21y (t )

2y (t )

t t

x (t )

1

1 2

t - t21t t

2

2

1

1 2K(t ,t )

t t - t 1 2

2

K(t , t )

1

1 2

t 2

Page 41: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

27

Consideramos un proceso caótico como el de la Figura 2.26 y tomamos dos secciones dentro del mismo intervalo y otra vez elegimos: x1, x10, y1 y y10 y evaluamos la probabilidad.

Los dos ejemplos anteriores muestran que en el proceso aleatorio suave, la función de covarianza tiende a cero lentamente y en un proceso muy caótico la función de covarianza tiende a cero rápidamente. Por eso la función de covarianza refleja la diferencia entre las estructuras del tiempo dados los procesos aleatorios.

Figura 2.27 Función de esperanza matemática y varianza para un proceso caótico.

La fórmula de la función de covarianza está dada por:

𝐾𝑥(𝑡1, 𝑡2) = ⟨�̇�1(𝑡1)�̇�2(𝑡2)⟩ = ∫∫ �̇�1(𝑡1)�̇�2(𝑡2) 𝑓(𝑥1(𝑡1), 𝑥2(𝑡2))𝑑𝑥1(𝑡1)𝑑𝑥2(𝑡2).

En resumen, la función de covarianza es una función determinística de dos argumentos (𝑡1y 𝑡2), la cual para cada par de estos dos argumentos es igual al momento de covarianza, dentro de dos V.A. correspondientes.

2.15 PROCESOS ESTACIONARIOS Y NO ESTACIONARIOS

La estacionalidad se relaciona con todas las características del proceso aleatorio que no dependen del tiempo.

El proceso de la Figura 2.27 no es estacionario porque su esperanza matemática cambia con el tiempo. Si a lo largo del tiempo su función de varianza cambiara tampoco sería estacionario. Si por otro lado, su esperanza y su función de varianza se mantuvieran constantes en el tiempo, pero cambiara su estructura después de un tiempo 𝑡0 de caótico a suave, tampoco sería estacionario.

Si elegimos una sección fija antes de 𝑡0 y después se calculara la función de covarianza se obtendría una gráfica como la mostrada en la Figura 2.28.

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1-0.2

0

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

t

x(t

)

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 t

2

Page 42: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

28

Figura 2.28 Sección fija dentro del momento de covarianza.

El proceso aleatorio sería estacionario cuando su función de covarianza no dependiera de la elección de una sección fija. En este caso la función de covarianza debe de depender de la distancia dentro de dos secciones (𝑡2 − 𝑡1).

El proceso aleatorio será estacionario si su esperanza matemática y varianza no dependen del tiempo y su función de covarianza sólo depende de 𝜏 = 𝑡2 − 𝑡1 . Esta definición se llama definición en el sentido amplio ya que no mencionamos el comportamiento de las funciones de orden mayor. Por eso hay otra definición la cual es conocida como sentido estricto.

Consideramos un proceso aleatorio descrito por una fdp multidimensional, y después desplazamos los puntos 𝑡1, 𝑡2, … , 𝑡𝑛 con el mismo tiempo: 𝑡1 − 𝑡0, 𝑡2 − 𝑡0, … , 𝑡𝑛 − 𝑡0.

Si:

𝑓(𝑥1(𝑡1 − 𝑡0), 𝑥2(𝑡2 − 𝑡0),… , 𝑥𝑛(𝑡𝑛 − 𝑡0)) = 𝑓(𝑥1(𝑡1), 𝑥2(𝑡2),… , 𝑥𝑛(𝑡𝑛)).

El proceso será estacionario en el sentido estricto.

En la Figura 2.29 podemos ver la influencia de la fdp en la forma de un proceso aleatorio

a) b) Figura 2.29 Influencia de la fdp a) Gaussiana y b) Raleigh en un proceso aleatorio.

Entonces podemos resumir que:

Cada momento es una cifra determinística

Si el proceso es suave, la función de covarianza tiende a cero lentamente.

Si por otro lado, el proceso es caótico, la función de covarianza tiende a cero rápidamente.

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 10.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

t

varianza

t0 2t - t1

co

varia

nza

Page 43: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

29

2.16 TIEMPO DE COVARIANZA

Recordamos de la teoría de circuitos eléctricos que cada filtro se puede caracterizar por su función 𝐾(𝑗𝜔) como puede verse en la Figura 2.30

Figura 2.30 Respuesta de un filtro.

Es posible encontrar las expresiones analíticas para estas 𝐾(𝑗𝜔), pero ellas en la mayoría de los casos son muy complejas, por eso en su lugar utilizamos otra característica como el ancho de banda.

La misma situación se presenta con la función de covarianza, en la mayoría de los casos la expresión analítica de la función de covarianza es compleja, por eso, en lugar de la función de covarianza se requiere introducir una característica más corta y conveniente. Esta característica es una cifra que se conoce como tiempo de covarianza (𝜏𝑐).

Recordamos que:

0 ≤ 𝐾𝑥𝑦 ≤ 𝜎𝑥𝜎𝑦 → 0 ≤ |𝐾𝑥𝑦

𝜎𝑥𝜎𝑦= 𝑅𝑥𝑦| ≤ 1.

Función de covarianza normalizada

Y que:

𝐾𝑥(𝜏) = �̇�(𝑡)�̇�(𝑡 + 𝜏)|𝜏=0 = 𝜎𝑥2. (2.55)

0 ≤ 𝐾𝑥 ≤ 𝜎𝑥2. (2.56)

Dividiendo la expresión anterior entre la varianza 𝜎𝑥2:

0 ≤ 𝑅𝑥 ≤ 1, (2.57) puesto que:

𝑅𝑥 =𝐾𝑥(𝜏)

𝜎𝑥2 . (2.58)

Es la función de varianza normalizada.

Introduciendo el tiempo de covarianza en la fórmula

K(j )

1

𝜔

Page 44: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

30

𝜏𝑐 = ∫ |𝑅𝑥(𝜏)|∞

0

𝑑𝜏. (2.59)

La expresión (2.59) la expresión analítica del tiempo de covarianza.

Basándonos en la gráfica de la Figura 2.31, construimos un rectángulo con la misma área.

a) b)

Figura 2.31 Tiempo de covarianza a) para un proceso suave y b) para un proceso caótico.

¿Por qué se necesita tener un módulo dentro de (2.59)? Debido a que ciertas funciones de covarianza tienen carácter oscilatorio, el resultado de la integración de (2.59) sin módulo es una cifra muy pequeña, ya que las áreas positivas y negativas se compensan entre sí como se puede observar en la Figura 2.32. Para evitar este efecto se necesita usar el módulo en la expresión (2.59).

Figura 2.32 Significado del módulo dentro del tiempo de covarianza.

¿Por qué no se puede determinar el tiempo de covarianza con la función de covarianza general?

-0.4

-0.2

0

0.2

0.4

0.6

0.8

1

+

-

Rx( )

+-

+

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

c

Rx( )

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

d c

h

Rx( )

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

h

Rx( )

d c

| |

Page 45: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

31

𝜏𝑐′ = ∫ 𝐾𝑥(𝜏)𝑑𝜏

0. (2.60)

2.17 DESCRIPCIÓN MÍNIMA DE LOS PROCESOS ALEATORIOS

Para describir un proceso aleatorio no es suficiente caracterizarlo con una fdp unidimensional, ya que no es clara la estructura del tiempo de este proceso. Por eso, se necesita introducir otra característica: la función de covarianza o tiempo de covarianza.

Figura 2.33 Dos procesos con la misma ⟨𝒙⟩ y 𝝈𝒙

𝟐 .

La Figura 2.33 muestra como dos procesos tienen la misma esperanza matemática y varianza pero son distintos.

Ahora comencemos nuestra consideración desde la función o tiempo de covarianza.

No se puede caracterizar un proceso aleatorio solamente con su función de covarianza ya que los procesos aleatorios diferentes pueden tener la misma función de covarianza.

Para tener una descripción mínima de cada proceso aleatorio es necesario conocer su fdp y su función de covarianza.

2.18 ESPECTRO DE PROCESOS O SEÑALES DETERMINÍSTICAS

En la serie de Fourier, es necesario conocer la forma de la señal determinística 𝑠(𝑡) y además debemos conocer el periodo 𝑇 de la señal. Después, es necesario considerar una serie de señales periódicas, para estas condiciones existe la serie de Fourier.

a) b)

Figura 2.34 Espectros de a) Amplitud y b) Fase.

Existen varias formas de la serie de Fourier. Recordemos la forma compleja o exponencial:

|Cn|

111234- - - - 0 43211 11 n 1 1 111234- - - - 0 43211 11 n 1 1

n

x(t) x(t)

t t < x > < x >

n𝜔1

n𝜔1

𝜑n

Page 46: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

32

𝑠(𝑡) = ∑ 𝑐𝑛𝑒−𝑗𝑛𝜔1𝑡

𝑛=−∞

(2.61)

donde:

𝑓1 =1

𝑇; 𝜔1 = 2𝜋𝑓1

𝜔1 =2𝜋

𝑇

𝑐𝑛 = Algunos coeficientes complejos.

𝜔1 = Frecuencia principal o fundamental.

Los coeficientes 𝑐𝑛 están determinados por:

𝑐𝑛 =1

𝑇∫ 𝑠(𝑡)𝑒−𝑗𝑛𝜔1𝑡𝑑𝑡

𝑇

0

(2.62)

El conjunto de los coeficientes 𝑐𝑛 se conoce como espectro de la señal 𝑠(𝑡), cada uno de estos coeficientes es complejo. Es decir tienen módulo y fase. Las gráficas tienen las características mostradas en la Figura 2.34.

Figura 2.35 Ejemplo de una señal par.

Estos espectros tienen como argumento de la frecuencia 𝜔.

Recordamos que: 𝑒𝑥 = cos(𝑥) − 𝑗𝑠𝑒𝑛(𝑥).

Lo cual puede reescribirse como:

𝑐𝑛 =1

𝑇∫ 𝑠(𝑡)𝑒−𝑗𝑛𝜔1𝑡𝑑𝑡 →

𝑇

0

𝑐𝑛 =1

𝑇∫ 𝑠(𝑡)

𝑇/2

−𝑇/2

𝑒−𝑗𝑛𝜔1𝑡𝑑𝑡 (2.63)

Un ejemplo de señal par se muestra en la Figura 2.35.

El seno no se toma en cuenta porque se trata de una función par, la serie de Fourier se puede reescribir como:

t

s(t

)

T/2-T/2

Señal par

Page 47: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

33

𝑠(𝑡) = ∑ 𝐴𝑛 cos(𝑛𝜔1𝑡 + 𝜑𝑛)

𝑛=0

(2.64)

La serie de Fourier tiene el siguiente significado físico: cada señal ya sea periódica o determinística puede ser presentada como la suma de muchas armónicas, cada armónica tiene una frecuencia, amplitud y fase, las cuales se determinan tomando como base la forma de la señal (2.62), es decir, cada señal tiene su propio espectro.

Si cambiamos la forma de la señal, entonces su espectro cambia también. Si la señal tiene forma suave entonces su espectro es estrecho (no se requieren muchas armónicas para reconstruirla). Por otra parte, si la señal tiene picos o saltos de tipo escalón, o la duración de la señal es corta, el espectro será amplio. Esta idea puede entenderse mejor de forma gráfica, la Figura 2.36 muestra de manera más clara los conceptos anteriores.

Recordemos que la serie de Fourier es válida para las señales determinísticas y periódicas.

Si consideramos el caso en que 𝑇 → ∞ se obtendrá como resultado que en vez de muchas señales periódicas, se obtendrá una señal aislada, pero ya que en 𝑇 → ∞ en (2.61) se obtiene que 𝜔1 = 0.

Figura 2.36 El espectro de una señal cambia si la señal original cambia.

Cada señal tiene su espectro discreto y la distancia entre cada par es 𝜔1, cuando 𝜔1 → 0 el espectro tiende a comprimirse. En este caso hay que transferir del espectro discreto al espectro continuo y la suma dentro de la expresión (2.60) se convierte en una integral.

𝑠(𝑡) =1

2𝜋∫𝐺(𝑗𝜔)𝑒𝑗𝜔𝑡 𝑑𝜔 (2.65)

𝐺(𝑗𝜔) = ∫𝑠 (𝑡)𝑒−𝑗𝜔𝑡 𝑑𝑡 (2.66)

t

s(t

)

t

t

t

t

A1

A

2

A1

1

A5

0

Page 48: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

34

a) b) Figura 2.37 a) Módulo y b) fase de la densidad espectral.

Así entonces, 𝑮(𝒋𝝎) es la densidad espectral para una señal aislada y determinística. Es una función compleja, por lo que posee módulo y fase, como se observa en la Figura 2.37.

De manera general, 𝑮(𝒋𝝎) se denomina como: Espectro de la amplitud y de la fase. Es importante enfatizar que cuando cambiamos la forma de la señal, su espectro también cambia y viceversa, si cambiamos el espectro, no obtendremos la señal original.

En la Figura 2.38 una señal original se hace pasar por un filtro, es claro que a la salida de este no todos los componentes de la señal de entrada pasan a través de él, por lo que no es posible reconstruirla completamente a la salida del mismo.

Figura 2.38 Señal que pasa por un filtro.

Nota: Si 𝑠(𝑡) es una función de 𝑡 la integración debe realizarse con respecto a 𝜔. Por otro lado, sí 𝐺(𝑗𝜔) es una función de 𝜔, la integración deberá realizarse con respecto a 𝑡 .

2.19 ESPECTRO DE PROCESOS O SEÑALES ALEATORIAS

Consideremos una realización de un proceso aleatorio y estacionario, ya que la forma de 𝑠(𝑡) es arbitraria. Es posible introducirla en (2.65) y obtener el espectro para esta realización, pero cada proceso tiene muchas realizaciones, si consideramos otra realización 𝑥2 observamos que las realizaciones tienen formas diferentes, esto significa que 𝑥2 tiene su propio espectro 𝐺2(𝑗𝜔) de

|G(j )|

( )

t

Se(t

)

Se(t)

K(j )

Ss(t)

t

Ss(t

)

Page 49: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

35

amplitud y fase. Después, es posible considerar muchas otras realizaciones y cada una tiene su propio espectro de amplitud y fase, esto quiere decir que para describir las propiedades espectrales de un proceso aleatorio, es necesario conocer un millón de funciones espectrales 𝐺(𝑗𝜔) para cada realización.

Concluimos que no es posible utilizar la transformada de Fourier (2.65) y (2.66) para describir las propiedades espectrales para los procesos aleatorios.

Es claro que se necesita buscar una característica espectral para los procesos aleatorios que caracterice todas las realizaciones del proceso aleatorio. Por otro lado, también debemos eliminar la demanda de reconstruir muchas realizaciones distintas en torno a una sola característica espectral.

En la Figura 2.39, diferentes tipos de realizaciones de un proceso dado son parecidas. En el proceso del lado izquierdo todos los cambios de las realizaciones son suaves y por eso para reconstruir diferentes tipos de realizaciones se requiere utilizar la misma cantidad de armónicos. Es claro que las fases serán diferentes en este caso.

a) b)

Figura 2.39 Espectro de diferentes señales a) un proceso suave y b) un proceso caótico.

En el proceso del lado derecho de la Figura 2.39 (b) se presenta una situación similar, todas sus realizaciones tienen picos estrechos y para reconstruirlos se requiere una gran cantidad de armónicos, las características espectrales de las fases son diferentes. Por eso las ignoramos y se puede usar la característica espectral del módulo del espectro de amplitud.

t

x(t

)

x (t)

x (t)

1

2

|G(j )|

|G(j )|

t

x(t

)

x (t) 1

x (t) 2

Page 50: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

36

Fue en 1936, que el teorema conocido como Wiener-Khinchine sugirió caracterizar los procesos aleatorios con una característica espectral 𝑠(𝜔) que se conoce como espectro de potencia. Este teorema probó que 𝑠(𝜔) se conecta a través de la transformada de Fourier con la función de covarianza 𝐾(𝜏) de la siguiente manera:

𝐾(𝜏) =1

2𝜋∫𝑠(𝜔) 𝑒𝑗𝜔𝑡𝑑𝜔. (2.67)

𝑠(𝜔) = ∫𝐾(𝜏) 𝑒−𝑗𝜔𝑡𝑑𝜏. (2.68)

𝜎2 = 𝐾(0) =1

2𝜋∫𝑠(𝜔)𝑑𝜔. (2.69)

[|𝐺(𝑗𝜔)|] =𝐴𝑚𝑝𝑙𝑖𝑡𝑢𝑑

𝐹𝑟𝑒𝑐𝑢𝑒𝑛𝑐𝑖𝑎 [𝑠(𝜔)] =

𝑃𝑜𝑡𝑒𝑛𝑐𝑖𝑎

𝐹𝑟𝑒𝑐𝑢𝑒𝑛𝑐𝑖𝑎

Por eso, los procesos aleatorios caóticos deben tener un espectro más amplio porque su función de covarianza es corta, mientras que un proceso suave tiene un espectro más estrecho.

𝜎2 es la potencia del proceso aleatorio sin componente constante. La potencia del proceso aleatorio es igual a la suma de cada componente espectral.

En el caso determinístico cuando conocemos el espectro 𝐺(𝑗𝜔) podremos reconstruir la forma de la señal.

En el caso de un proceso aleatorio cuando conocemos 𝑠(𝜔) podemos reconstruir la varianza y viceversa.

Recordamos que nuestra función de covarianza 𝐾(𝜏) = ⟨�̇�(𝑡) �̇�(𝑡 + 𝜏)⟩ caracteriza completamente procesos Gaussianos y es por eso que el espectro 𝑠(𝜔) caracteriza completamente procesos Gaussianos. Los procesos no Gaussianos se caracterizan por funciones de covarianza de orden alto.

⟨�̇�(𝑡) �̇�(𝑡 + 𝜏)⟩ ↔ 𝑠𝑛,𝑚(𝜔1, 𝜔2)

Hay una teoría de los espectros y funciones de covarianza de orden alto, pero usualmente en las aplicaciones de ingeniería se usa principalmente Wiener-Khinchine.

2.20 PROCESOS ALEATORIOS A TRAVES DE SISTEMAS LINEALES

Un sistema lineal inercial es aquel que posee las características mostradas en la Figura 2.40. 𝑔(𝑡) y 𝐾(𝑗𝜔) son características principales de un sistema lineal. 𝑔(𝑡) está en la unidad del tiempo, para observarla se necesita tomar un generador de impulsos y afectar con estos impulsos al sistema. Un ejemplo es la Figura 2.41 donde a la salida del osciloscopio puede observarse 𝑔(𝑡).

Figura 2.40 Diagrama de un sistema lineal inercial.

g(t), K(j )

Ss(t)Se(t)Sistema lineal e inercial

Page 51: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

37

El sistema puede ser descrito por 𝐾(𝑗𝜔), o función de transformación en unidades de frecuencia. Para medirla hay que utilizar un generador de señales senoidales, tal como se muestra en la Figura 2.42.

Figura 2.41 Lectura a la salida de un sistema lineal inercial.

Recordando la transformada de Fourier dentro de amplitud y fase.

𝑠(𝑡) =1

2𝜋∫𝐺(𝑗𝜔)𝑒𝑗𝜔𝑡𝑑𝜔. (2.70)

𝐺(𝑗𝜔) = ∫𝑠(𝐴)𝑒𝑗𝜔𝑡𝑑𝑡. (2.71)

Ambas características 𝑔(𝑡) y 𝐾(𝑗𝜔) describen el mismo sistema, por eso debe existir una conexión entre ellas la cual crea un nuevo carácter de la transformada de Fourier:

𝑔(𝑡) =1

2𝜋∫𝐾(𝑗𝜔)𝑒𝑗𝜔𝑡𝑑𝜔.

(2.72)

𝐾(𝑗𝜔) = ∫𝑔(𝑡)𝑒−𝑗𝜔𝑡𝑑𝑡. (2.73)

g(t)

t

t

g(t)

Page 52: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

38

Figura 2.42 Generador de señales senoidales.

Vamos a considerar el problema del análisis determinístico, esto significa que debemos conocer la señal de entrada 𝑠𝑒(𝑡) y alguna de las funciones: 𝑔(𝑡) y 𝐾(𝑗𝜔).

2.21 MÉTODO DE LA INTEGRAL DE CONVOLUCIÓN

Existe un método que está en la unidad de tiempo que se conoce como método directo.

𝑠𝑠(𝑡) = ∫ 𝑠𝑒(𝑡 − 𝑡′)𝑔(𝑡′)𝑑𝑡′∞

−∞

. (2.74)

𝑡 − 𝑡′ = 𝑡′′; −𝑑𝑡′ = 𝑑𝑡.

𝑡′ = 𝑡 − 𝑡′′; 𝑡′ = −∞ , 𝑡′′ = ∞.

𝑡′ = ∞; 𝑡′′ = −∞.

Considerando lo anterior:

𝑠𝑠(𝑡) = −∫ 𝑠𝑒(𝑡′′)𝑔(𝑡 − 𝑡′′)𝑑𝑡′′

−∞

= ∫ 𝑠𝑒(𝑡′′)𝑔(𝑡 − 𝑡′′)𝑑𝑡′′

−∞

. (2.75)

Observamos, que existen dos variantes de la integral de convolución, ambas variantes son equivalentes en (2.74) y (2.75).

2.22 MÉTODO DE LA INTEGRAL DE FOURIER

Este método existe en el dominio de la frecuencia, no es un método directo.

Si se conoce 𝑠𝑒(𝑡) es posible obtener su espectro con la transformada de Fourier (2.71) después, tomando en cuenta la definición de 𝐾(𝑗𝜔):

𝐾(𝑗𝜔) =𝐺𝑠(𝑗𝜔)

𝐺𝑒(𝑗𝜔)→ 𝐺𝑠(𝑗𝜔) = 𝐺𝑒(𝑗𝜔)𝐾(𝑗𝜔).

𝑠𝑒(𝑡) → 𝐺𝑒(𝑗𝜔) → 𝐺𝑠(𝑗𝜔) = 𝐺𝑒(𝑗𝜔)𝐾(𝑗𝜔) → [𝐺𝑒(𝑗𝜔)𝐾(𝑗𝜔)]ℱ−1

→ 𝑠𝑠(𝑡). (2.76)

Generador de señales senoidales

A sen ( t + )

( )

Page 53: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

39

2.23 INFLUENCIA DE LOS PROCESOS ALEATORIOS SOBRE PROCESOS LINEALES (CASO GENERAL)

Tenemos en el siguiente caso, un problema del tipo estadístico.

Figura 2.43 Características de un sistema lineal.

De la Figura 2.43 conocemos la entrada, es decir, 𝑓(𝑥(𝑡1), 𝑥(𝑡2), … , 𝑥(𝑡𝑛)), conocemos el sistema

(𝑔(𝑥)) y 𝐾(𝑗𝜔)) y queremos conocer la fdp del proceso de salida 𝐹(𝑦(𝑡1), 𝑦(𝑡2), … , 𝑦(𝑡𝑛)).

Generalmente este problema no puede ser resuelto, pero hay excepciones:

1) Si 𝑥(𝑡) es un proceso Gaussiano.

Recordamos que el proceso Gaussiano está descrito completamente por dos funciones:

⟨𝑥(𝑡)⟩ = 𝑚(𝑡); 𝐾𝑥(𝑡1, 𝑡2).

En este caso el proceso a la salida 𝑦(𝑡) sería también Gaussiano y debemos de conocer:

⟨𝑥(𝑡)⟩ = 𝑚(𝑡), 𝐾𝑥(𝑡1, 𝑡2) → 𝑚𝑦(𝑡) = ⟨𝑦(𝑡)⟩.

𝐾𝑦(𝑡1, 𝑡2).

2) 𝑥(𝑡) es un proceso continuo con su espectro de potencia 𝑠𝑥(𝜔) más grande que el ancho de banda del sistema lineal. En este caso, el proceso a la salida sería Gaussiano también, y se necesita obtener:

⟨𝑦(𝑡)⟩ = 𝑚(𝑡) y 𝐾𝑦(𝑡1, 𝑡2).

3) 𝑥(𝑡) es un proceso binario Markoviano. Un ejemplo de proceso Markoviano se ilustra de manera gráfica en la Figura 2.44.

Figura 2.44 Proceso binario Markoviano.

Sistema lineal inercial

g(t) K(j )x(t) y(t)

f(y(t ), y(t ),..., y(t )) = ?1 12 2f(x(t ), x(t ),..., x(t )) nn

t

x(t)

Page 54: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

40

2.24 ANÁLISIS EN LA UNIDAD DE TIEMPO

Si recordamos la función de esperanza matemática, que ya conocemos, entonces para obtener la esperanza matemática de la salida de un sistema lineal es suficiente usar los métodos válidos para procesos determinísticos.

Figura 2.45 Esperanza matemática y función de covarianza a la entrada y salida de un sistema lineal.

La Figura 2.45 muestra las características estadísticas de un sistema lineal.

𝑚𝑥(𝑡) = 0 → 𝑚𝑦(𝑡) = 0. (2.77)

𝐾𝑥(𝑡1, 𝑡2) = ⟨�̇�(𝑡1)�̇�(𝑡2)⟩ = ⟨𝑥(𝑡1)𝑥(𝑡2)⟩.

𝐾𝑦(𝑡1, 𝑡2) = ⟨�̇�(𝑡1)�̇�(𝑡2)⟩ = ⟨𝑦(𝑡1)𝑦(𝑡2)⟩.

La fórmula (2.74) es válida para cualquier tipo de función y basándonos en (2.45) tenemos:

𝑦(𝑡1) = ∫𝑥(𝑡1 − 𝑡′)𝑔(𝑡′)𝑑𝑡′. (2.78)

𝑦(𝑡2) = ∫𝑥(𝑡2 − 𝑡′′)𝑔(𝑡′′)𝑑𝑡′′. (2.79)

Multiplicando (2.78) y (2.79) cumplimos con la operación del promedio estadístico:

⟨𝑦(𝑡1)𝑦(𝑡2)⟩ = ⟨∫∫𝑥(𝑡1 − 𝑡′)𝑥(𝑡2 − 𝑡′′) 𝑔(𝑡′)𝑔(𝑡′′)𝑑𝑡′𝑑𝑡′′⟩ →

𝐾𝑦(𝑡1, 𝑡2) = ∫∫⟨𝑥(𝑡1 − 𝑡′) 𝑥(𝑡2 − 𝑡′)⟩𝑔(𝑡′)𝑔(𝑡′′)𝑑𝑡′𝑑𝑡′′.

𝐾𝑦(𝑡1, 𝑡2) = ∫∫𝐾𝑥(𝑡1 − 𝑡, 𝑡2 − 𝑡′′)𝑔(𝑡′)𝑔(𝑡′′)𝑑(𝑡′)𝑑(𝑡′′). (2.80)

Cuando 𝑡2 = 𝑡1:

𝐾𝑦(𝑡1, 𝑡2) = 𝜎𝑦2(𝑡) = ∫∫𝐾𝑥(𝑡1 − 𝑡′, 𝑡2 − 𝑡′′) 𝑔(𝑡′)𝑔(𝑡′′)𝑑𝑡′𝑑𝑡′′. (2.81)

Las fórmulas (2.80) y (2.81) son válidas para los procesos no estacionarios ya que los argumentos dentro de la función de covarianza están separados con una coma. Vemos en (2.80) y (2.81) que la función de covarianza de salida y la varianza de la salida se pueden obtener resolviendo la integral doble.

Considerando un caso estacionario 𝑡1 − 𝑡2 = 𝜏 por lo tanto:

𝐾𝑦(𝜏) = ∫∫𝐾𝑥(𝜏 − 𝑡′ + 𝑡′′)𝑔(𝑡′)𝑔(𝑡′′)𝑑𝑡′𝑑𝑡′′. (2.82)

𝜎𝑦2 = ∫∫𝐾𝑥(𝑡

′′ − 𝑡′)𝑔(𝑡′)𝑔(𝑡′′)𝑑𝑡′𝑑𝑡′′. (2.83)

g(t), K(j ) x(t) y(t)

my(t) = <y(t)> Ky(t , t ) 1 1 2 2

<x(t)> = mx(t) Kx(t , t )

Page 55: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

41

Observamos que las integrales dobles se conservan, esto es una desventaja de este método.

Conociendo 𝐾𝑦(𝜏) se puede obtener el espectro de la potencia del proceso en la salida, según la

transformada de Wiener-Khinchin.

𝑠𝑦(𝜔) = ∫𝐾𝑦(𝜏)𝑒−𝑗𝜔𝜏𝑑𝜏.

Aplicando (2.82)

∫∫∫𝐾𝑥 = (𝜏 − 𝑡′ − 𝑡′′)𝑔(𝑡′)𝑔(𝑡′′)𝑒−𝑗𝜔𝜏𝑑𝜏 𝑑𝑡′𝑑𝑡′′.

Considerando que: 𝜏 − 𝑡′ + 𝑡′′ = 𝑍; 𝑑𝜏 − 𝑑𝑧; 𝜏 = 𝑧 + 𝑡′ − 𝑡′′

∫∫∫𝐾𝑥(𝑧)𝑔(𝑡′)𝑔(𝑡′′)𝑒−𝑗𝜔(𝑧+𝑡′−𝑡′′) 𝑑𝑧 𝑑𝑡′𝑑𝑡′′ =

∫∫∫𝐾𝑥(𝑧)𝑔(𝑡′)𝑔(𝑡′′)𝑒−𝑗𝜔𝑧 𝑒−𝑗𝜔𝑡′𝑒𝑗𝜔𝑡′′

𝑑𝑧 𝑑𝑡′𝑑𝑡′′ =

∫𝐾(𝑧)𝑒−𝑗𝜔𝑧𝑑𝑧 ∫𝑔(𝑡′) 𝑒−𝑗𝜔𝑡′𝑑𝑡′ ∫𝑔(𝑡′′)𝑒𝑗𝜔𝑡′′

𝑑𝑡′′.

Donde:

∫𝐾(𝑧)𝑒−𝑗𝜔𝑧𝑑𝑧 = 𝑠𝑥(𝜔).

∫𝑔(𝑡′) 𝑒−𝑗𝜔𝑡′𝑑𝑡′ = 𝐾(𝑗𝜔).

∫𝑔(𝑡′′)𝑒𝑗𝜔𝑡′′𝑑𝑡′′ = 𝐾∗(𝑗𝜔).

Entonces:

𝑠𝑥(𝜔)|𝐾(𝑗𝜔)|2 = 𝑠𝑦(𝜔). (2.84)

Comparando (2.84) con (2.76) en (2.76), los espectros son de amplitud y fase, pero en (2.78) los espectros son de potencia y la potencia es el cuadrado de la amplitud.

Ahora escribimos la cadena de transformación:

𝐾𝑥(𝜏) →𝑊−𝐾 𝑠𝑒(𝜔) = 𝑠𝑒(𝜔)|𝐾(𝑗𝜔)|2 →𝑊−𝐾−1𝐾𝑦(𝜏)|

𝜏=0= 𝜎𝑦

2. (2.85)

La cadena de transformación (2.85), se obtuvo a partir del método indirecto, este método es más sencillo en comparación al directo. En (2.82) y (2.83) hay integrales dobles y en esta expresión sólo se encuentran integrales unidimensionales.

En la cadena (2.85), el espectro de la salida debe ser obtenida con el cuadrado de 𝐾(𝑗𝜔) comparado con la cadena (2.76).

Hay una gran diferencia en el análisis determinístico y aleatorio, en el primer caso: debemos analizar como una función determinística en la entrada se transforma en otra función determinística a la salida.

En el segundo caso, debemos de analizar como la función de covarianza del proceso en la entrada se transforma en otra función de covarianza a la salida.

Page 56: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

42

2.25 RESPUESTA DE CIRCUITOS RC ALIMENTADOS CON RUIDO BLANCO

Anteriormente observamos la influencia de los procesos aleatorios y algunas propiedades del ruido blanco. Se determinó que por medio del teorema de Wiener-Khinchine, conociendo la densidad espectral de potencia de un proceso aleatorio a la entrada, podemos también determinar su densidad espectral de potencia a la salida y viceversa.

Ahora bien consideremos el caso de un circuito RC alimentado con ruido blanco:

Figura 2.46 Circuito RC pasa-bajas alimentado con ruido blanco.

De la Figura 2.46 podemos obtener su función de transferencia:

𝐻(𝑗𝜔) =𝑥(𝑡)

𝑢(𝑡)=

𝛼

𝛼 + 𝑗𝜔 (2.86)

Donde 𝛼 =1

𝑅𝐶 la cual se denomina como constante de tiempo. Ahora bien considerando la

ecuación (2.86) tenemos que la densidad espectral de potencia a la entrada es:

𝑠𝑥(𝜔) =𝛼2

𝑎2 + 𝜔2 (2.87)

En el presente trabajo, se van a utilizar circuitos RC de una, dos y tres etapas. Para poder realizar las comparaciones entre los resultados de los tres circuitos es necesario normalizar las funciones de covarianza mediante la expresión de la función de covarianza normalizada (2.58).Para normalizar (2.87) tenemos que:

𝜎𝑥2𝐾𝑥(0) =

1

2𝜋∫

𝛼2

𝑎2 + 𝜔2

−∞

𝑑𝜔 =𝛼

2

Por lo tanto:

𝑅𝑥(𝜏) =1

2𝜋∫

2𝛼

𝑎2 + 𝜔2

−∞

𝑒𝑗𝜔𝑡𝑑𝜔 = 𝑒−𝛼|𝜏| (2.88)

Por último, se calcula el tiempo de covarianza 𝜏𝑐 para este filtro:

𝜏𝑐 = ∫ |𝑅𝑥(𝜏)|𝑑𝜏∞

0

= ∫ |𝑒−𝛼|𝜏||𝑑𝜏∞

0

=1

𝛼

De igual forma, para que los cálculos en los resultados no se vean afectados, se va a considerar el tiempo de covarianza como uno para cada uno de los circuitos.

t

n(t)

n(t) n(t)

Page 57: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

43

La expresión (2.88) es la función de covarianza normalizada para el filtro RC de una etapa. Es necesario recalcar que este procedimiento debe de realizarse para cada densidad espectral de potencia de cada uno de los tres circuitos. Las funciones de covarianza para los circuitos RC de una, dos y tres etapas se muestran en la Tabla 2.1.

Tabla 2.1 Funciones de covarianza Cartesiana para circuitos RC de una, dos y tres etapas.

Circuito Función de covarianza normalizada 𝑹(𝝉)

RC una etapa 𝑒−𝛼|𝜏|

RC dos etapas (1 + 𝛼|𝜏|)𝑒−𝛼|𝜏|

RC tres etapas (1 + 𝛼|𝜏| +𝛼2𝜏2

3)𝑒−𝛼|𝜏|

2.26 LA ESPERANZA MATEMÁTICA CONDICIONAL

Existe un criterio estadístico para la estimación de una variable aleatoria a la cual se le denomina esperanza matemática condicional. Esta regla posee la particularidad de poder calcular con errores mínimos variables aleatorias con una densidad de probabilidad arbitraria. La expresión que denota esta regla es la siguiente:

�̃�(𝑡) = ⟨𝑥(𝑡)|𝑋, 𝑇⟩ (2.89)

A esta expresión se le conoce como función de reconstrucción, donde 𝑋 y 𝑇 representan un conjunto de muestras.

Por otro lado, la calidad de la reconstrucción es evaluada con la función de varianza condicional:

�̃�2(𝑡) = ⟨(𝑥(𝑡) − �̃�(𝑡))2|𝑋, 𝑇⟩ (2.90)

La cual es conocida como función de error de reconstrucción.

Del capítulo anterior, hemos definido que podemos describir completamente un proceso Gaussiano no estacionario 𝑥(𝑡) conociendo su esperanza matemática 𝑚(𝑡), su varianza 𝜎2(𝑡), y su función de covarianza 𝐾𝑥(𝑡).

Si fijamos el conjunto de muestras 𝑋 en los tiempos de muestreo 𝑇 = {𝑇1, 𝑇2, … , 𝑇𝑁}, entonces la densidad de probabilidad condicional será Gaussiana y sus principales propiedades estadísticas estarán descritas a través de las siguientes expresiones:

�̃�(𝑡) = 𝑚(𝑡) + ∑∑𝐾𝑥(𝑡, 𝑇𝑖)𝑎𝑖𝑗[𝑥(𝑇𝑗) − 𝑚(𝑇𝑗)]

𝑁

𝑗=1

𝑁

𝑖=1

(2.91)

�̃�2(𝑡) = 𝜎2(𝑡) − ∑∑𝐾𝑥(𝑡, 𝑇𝑖)𝑎𝑖𝑗𝐾𝑥(𝑇𝑗, 𝑡)

𝑁

𝑗=1

𝑁

𝑖=1

(2.92)

𝐾𝑥(𝑡1, 𝑡2) = ∑∑𝐾𝑥(𝑡1, 𝑇𝑖)𝑎𝑖𝑗𝐾𝑥(𝑇𝑗, 𝑡2)

𝑁

𝑗=1

𝑁

𝑖=1

(2.93)

Donde 𝑎𝑖𝑗 representa cada elemento de la matriz inversa de covarianza 𝐴 = 𝐾−1(𝑇𝑖, 𝑇𝑗)

Page 58: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

44

𝐴 = 𝐾−1(𝑇𝑖, 𝑇𝑗) = [𝐾𝑥(𝑇1, 𝑇1) ⋯ 𝐾𝑥(𝑇1, 𝑇𝑁)

⋮ ⋱ ⋮𝐾𝑥(𝑇𝑁, 𝑇1) ⋯ 𝐾𝑥(𝑇𝑁, 𝑇𝑁)

]

−1

2.27 GENERALIZACIÓN DE LA ESPERANZA MATEMÁTICA CONDICIONAL PARA CAMPOS GAUSSIANOS

Para el caso de estudio de este trabajo, en lugar de trabajar con funciones que dependen del tiempo, se utilizarán funciones que dependen de dos coordenadas 𝜉(𝑥, 𝑦). Al igual que en el caso de un proceso aleatorio donde se tenían múltiples realizaciones, aquí se tendrá un número infinito de posibles superficies como se muestra en la Figura 2.47.

Figura 2.47 Múltiples superficies de un campo Gaussiano.

Un campo Gaussiano al igual que un proceso Gaussiano puede ser descrito en su totalidad a través de su esperanza matemática:

⟨𝜉(𝑥, 𝑦)⟩ = 𝑚(𝑥, 𝑦)

y su función de covarianza:

𝐾(𝑥, 𝑥 + Δ𝑥; 𝑦, 𝑦 + Δ𝑦)

Consideremos el caso estacionario cuando:

𝑚(𝑥, 𝑦) = 𝑚

y

𝐾(𝑥, 𝑥 + Δ𝑥; 𝑦, 𝑦 + Δ𝑦) = 𝐾(Δ𝑥, Δ𝑦)

El campo que representa a la varianza pude ser encontrado cuando:

𝐾(Δ𝑥 = 0, Δ𝑦 = 0) = 𝜎2

Para encontrar las funciones de reconstrucción y error de reconstrucción necesitamos una variable aleatoria bidimensional con coordenadas 𝜉(𝑥, 𝑦). Esta variable estará representada por un conjunto de muestras:

𝑁: 𝜉(𝑥1, 𝑦1), 𝜉(𝑥2, 𝑦2), … , 𝜉(𝑥𝑁 , 𝑦𝑁)

Page 59: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

45

De esta forma, las expresiones de la función de reconstrucción y la función de error de reconstrucción para un campo Gaussiano quedarán escritas de la siguiente manera:

�̃�(𝑥, 𝑦) = 𝑚(𝑥, 𝑦) + ∑∑𝐾(𝑥 − 𝑥𝑖; 𝑦 − 𝑦𝑖)𝑎𝑖𝑗[𝜉(𝑥𝑗 , 𝑦𝑗) − 𝑚(𝑥𝑗 , 𝑦𝑗)]

𝑁

𝑗=1

𝑁

𝑖=1

(2.94)

�̃�2(𝑥, 𝑦) = 𝜎2(𝑥, 𝑦) − ∑∑𝐾(𝑥 − 𝑥𝑖; 𝑦 − 𝑦𝑖)𝑎𝑖𝑗𝐾(𝑥𝑗 − 𝑥; 𝑦𝑗 − 𝑦)

𝑁

𝑗=1

𝑁

𝑖=1

(2.95)

Por simplicidad, haremos que la media sea igual a cero y la varianza igual a uno:

𝑚(𝑥, 𝑦) = ⟨𝜉(𝑥, 𝑦)⟩ = 0

𝜎2(𝑥, 𝑦) = 𝜎2 = 1

Por lo que las expresiones anteriores pueden ahora reescribirse como:

�̃�(𝑥, 𝑦) = ∑∑𝐾(𝑥 − 𝑥𝑖; 𝑦 − 𝑦𝑖)𝑎𝑖𝑗[𝜉(𝑥𝑗, 𝑦𝑗)]

𝑁

𝑗=1

𝑁

𝑖=1

(2.96)

�̃�2(𝑥, 𝑦) = 1 − ∑∑𝐾(𝑥 − 𝑥𝑖; 𝑦 − 𝑦𝑖)𝑎𝑖𝑗𝐾(𝑥𝑗 − 𝑥; 𝑦𝑗 − 𝑦)

𝑁

𝑗=1

𝑁

𝑖=1

(2.97)

Todos los resultados en el presente trabajo fueron calculados con las expresiones (2.96) y (2.97).

Como puede verse en las expresiones (2.96) y (2.97), se requieren funciones de covarianza de tipo espacial. Las funciones de la Tabla 2.2 están basadas en las funciones de covarianza de tipo Cartesiano presentadas en la Tabla 2.1. En este caso, las funciones no dependen de un intervalo de tiempo sino de un intervalo de espacio.

Tabla 2.2 Funciones de covarianza espacial para circuitos RC de una, dos y tres etapas.

Circuito Función de covarianza normalizada 𝑹(𝝉)

RC una etapa 𝑒−𝛼|∆𝑥|−𝛼|∆𝑦|

RC dos etapas (1 + 𝛼|∆𝑥|)(1 + 𝛼|∆𝑦|)𝑒−𝛼|∆𝑥|−𝛼|∆𝑦|

RC tres etapas (1 + 𝛼|∆𝑥| +

𝛼∆𝑥2

3)(1 + 𝛼|∆𝑦| +

𝛼∆𝑥2

3)𝑒−𝛼|∆𝑥|−𝛼|∆𝑦|

Page 60: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

46

Capítulo 3. Análisis de Imágenes y su Procesamiento Digital

3.1 REPRESENTACIÓN DE UNA IMAGEN

Sea 𝐶(𝑥, 𝑦, 𝑡, 𝜆) la representación espacial de la distribución de energía de una fuente con coordenadas (𝑥, 𝑦), en un tiempo 𝑡 y a una longitud de onda 𝜆. Debido a que la intensidad de la luminosidad es una cantidad real positiva, la función de luminosidad de la imagen es real y no-negativa, debido a que la intensidad es el módulo al cuadrado del campo eléctrico. Además, en prácticamente todos los sistemas de imágenes una pequeña cantidad de luz de fondo siempre está presente. Los sistemas físicos de imagen también imponen cierta restricción en la intensidad máxima de una imagen, por ejemplo, la saturación en una película y el calentamiento del fósforo en un tubo de rayos catódicos (TRC). Por lo tanto, se asume que:

0 < 𝐶(𝑥, 𝑦, 𝑡, 𝜆) ≤ 𝐴. (3.1)

Donde A es la máxima intensidad de la imagen. Una imagen física está limitada en extensión por el sistema que se utiliza y el medio donde se graba. Por simplicidad matemática, todas las imágenes se consideran positivas sobre una región rectangular para la cual:

−𝐿𝑥 ≤ 𝑥 ≤ 𝐿𝑥 . (3.2)

−𝐿𝑦 ≤ 𝑦 ≤ 𝐿𝑦. (3.3)

La imagen física es por supuesto, observable únicamente sobre un intervalo finito de tiempo. Entonces sea:

−𝑇 ≤ 𝑡 ≤ 𝑇. (3.4)

La función de luminosidad de la imagen 𝐶(𝑥, 𝑦, 𝑡, 𝜆) es, entonces, una función limitada en cuatro dimensiones con variables independientes limitadas. Y como restricción final, se asume que la función de la imagen es continua sobre su dominio de definición.

La respuesta de intensidad de observación de una persona común hacia una función de luminosidad de una imagen es medida comúnmente en términos de la luminancia instantánea del campo de luz definido como:

𝑌(𝑥, 𝑦, 𝑡) = ∫ 𝐶(𝑥, 𝑦, 𝑡, 𝜆)∞

0

𝑉(𝜆)𝑑𝜆. (3.5)

donde 𝑉(𝜆) representa la función de eficiencia relativa de brillo, esto es, la respuesta espectral de la visión humana. De forma similar, la respuesta al color de un observador común es medida comúnmente en términos de un conjunto de valores triestímulo que son linealmente proporcionales a las cantidades de rojo, verde y azul necesarios para que sean igual a una luz de color. Para un sistema arbitrario de coordenadas rojo-verde-azul, los valores triestímulos instantáneos son:

𝑅(𝑥, 𝑦, 𝑡) = ∫ 𝐶(𝑥, 𝑦, 𝑡, 𝜆)∞

0

𝑅𝑠(𝜆)𝑑𝜆. (3.6)

𝐺(𝑥, 𝑦, 𝑡) = ∫ 𝐶(𝑥, 𝑦, 𝑡, 𝜆)∞

0

𝐺𝑠(𝜆)𝑑𝜆. (3.7)

Page 61: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

47

𝐵(𝑥, 𝑦, 𝑡) = ∫ 𝐶(𝑥, 𝑦, 𝑡, 𝜆)∞

0

𝐵𝑠(𝜆)𝑑𝜆. (3.8)

Donde 𝑅𝑠(𝜆), 𝐺𝑠(𝜆)𝑦 𝐵𝑠(𝜆) son los valores espectrales triestímulos para el conjunto primario de rojo, verde y azul. Los valores espectrales triestímulos son en efecto, los valores triestímulos requeridos para igualar una unidad de luz a una longitud de onda 𝜆. En un sistema de imágenes multiespectrales, el campo de la imagen es modelado como una integral de pesos espectrales de la función de luminosidad de una imagen. El enésimo campo espectral de una imagen está dada entonces por :

𝐹𝑖(𝑥, 𝑦, 𝑡) = ∫ 𝐶(𝑥, 𝑦, 𝑡, 𝜆)∞

0

𝑆𝑖(𝜆)𝑑𝜆 (3.9)

donde 𝑆𝑖(𝜆) es la respuesta espectral de enésimo sensor.

Por simplicidad en la notación, una única función de imagen 𝐹(𝑥, 𝑦, 𝑡) es seleccionada para representar el campo de una imagen en un sistema físico de imágenes. Para un sistema monocromático de imágenes, la función de imagen 𝐹(𝑥, 𝑦, 𝑡) denota nominalmente la luminancia de la imagen, mientras que en un sistema de imágenes a color, 𝐹(𝑥, 𝑦, 𝑡) significa uno de los valores triestímulos o alguna función de un valor triestímulo. La función de imagen 𝐹(𝑥, 𝑦, 𝑡) también es usada para denotar de forma general campos de tres dimensiones, como lo es el ruido variante en el tiempo de un escáner de imágenes.

En correspondencia con la definición estándar para señales de tiempo en una dimensión, el tiempo promedio de una función de imagen en una posición dada (𝑥, 𝑦) está definida como:

⟨𝐹(𝑥, 𝑦, 𝑡)⟩𝑇 = lim𝑇→∞

[1

2𝑇∫ 𝐹(𝑥, 𝑦, 𝑡)

𝑇

−𝑇

𝐿(𝑡)𝑑𝑡]. (3.10)

donde 𝐿(𝑡) es una función de tiempo. De forma similar, el promedio de brillo de la imagen en un tiempo determinado está dado por su promedio espacial,

⟨𝐹(𝑥, 𝑦, 𝑡)⟩𝑆 = lim𝐿𝑥→∞,𝐿𝑦→∞

[1

4𝐿𝑥𝐿𝑦∫ ∫ 𝐹(𝑥, 𝑦, 𝑡)

𝐿𝑦

−𝐿𝑦

𝑑𝑥𝑑𝑦𝐿𝑥

−𝐿𝑥

]. (3.11)

En muchos sistemas de imágenes, como los dispositivos de proyección de imágenes, la imagen no cambia con el tiempo, entonces, la variable del tiempo puede ser retirada de la función de imagen. Para otros tipos de sistemas, como las películas de cine, la función de imagen es muestreada en el tiempo. También, es posible convertir la variación en el espacio en variación del tiempo, como en la televisión por un proceso de escaneo de la imagen. En adelante, la variable del tiempo será retirada de las expresiones del campo de la imagen.

3.2 SISTEMAS EN DOS DIMENSIONES

Un sistema de dos dimensiones, es en su forma más general, un mapeo simple de las entradas de algunos conjuntos de funciones de dos dimensiones 𝐹1(𝑥, 𝑦), 𝐹2(𝑥, 𝑦), … , 𝐹𝑁(𝑥, 𝑦) a un conjunto de funciones de salida también en dos dimensiones 𝐺1(𝑥, 𝑦), 𝐺2(𝑥, 𝑦), … , 𝐺𝑀(𝑥, 𝑦), donde (−∞ < 𝑥, 𝑦 < ∞) denota las variables continuas espaciales independientes de las funciones. Este mapeo puede ser representado por el operador 𝑂𝑚{ . } para 𝑚 = 1,2,… ,𝑀, que relaciona los conjuntos de funciones de entrada y salida con un conjunto de ecuaciones:

Page 62: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

48

[ 𝐺1(𝑥, 𝑦) = 𝑂1{𝐹1(𝑥, 𝑦), 𝐹2(𝑥, 𝑦), … , 𝐹𝑁(𝑥, 𝑦)}

⋮𝐺𝑚(𝑥, 𝑦) = 𝑂𝑚{𝐹1(𝑥, 𝑦), 𝐹2(𝑥, 𝑦), … , 𝐹𝑁(𝑥, 𝑦)}

⋮𝐺𝑀(𝑥, 𝑦) = 𝑂𝑀{𝐹1(𝑥, 𝑦), 𝐹2(𝑥, 𝑦), … , 𝐹𝑁(𝑥, 𝑦)}]

. (3.12)

En casos específicos, el mapeo puede ser de muchos a unos cuantos, de unos cuantos a muchos, o uno a uno. El mapeo uno a uno está definido como:

𝐺(𝑥, 𝑦) = 𝑂{𝐹(𝑥, 𝑦)} (3.13)

Para continuar con la discusión de las propiedades de los sistemas de dos dimensiones, es necesario definir algunos tipos de operadores específicos.

3.2.1 OPERADORES DE SINGULARIDAD

Los operadores de singularidad son ampliamente utilizados en el análisis de sistemas de dos dimensiones, especialmente en sistemas que involucran el muestreo de funciones continuas. La función delta Dirac en dos dimensiones es un operador singular que posee las siguientes propiedades:

∫ ∫ 𝛿(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = 1𝜀

−𝜀

𝜀

−𝜀

.

para 휀 > 0

(3.14)

∫ ∫ 𝐹(𝜉, 𝜂)𝛿(𝑥 − 𝜉, 𝑦 − 𝜂)𝑑𝜉𝑑𝜂 = 𝐹(𝑥, 𝑦)𝜀

−𝜀

𝜀

−𝜀

. (3.15)

En la ecuación (3.14), 휀 es un límite infinitesimalmente pequeño de integración; la ecuación (3.15) es llamada propiedad de sifting de la función delta Dirac.

La función delta en dos dimensiones puede ser descompuesta en el producto de dos funciones delta de una dimensión definidas a lo largo de coordenadas ortogonales. Entonces:

𝛿(𝑥, 𝑦) = 𝛿(𝑥), 𝛿(𝑦). (3.16)

donde la función delta de una dimensión satisface las versiones de las ecuaciones (3.14) y (3.15) en una dimensión. La función delta también puede ser definida como un límite sobre una familia de funciones. Otros ejemplos pueden ser encontrados en [32] y [33].

3.2.2 OPERADORES LINEALES ADITIVOS

Se dice que un sistema de dos dimensiones es un sistema lineal aditivo, si el sistema obedece a la ley aditiva de superposición. En el caso especial de mapeos uno a uno, la propiedad de superposición aditiva requiere que:

𝑂{𝑎1𝐹1(𝑥, 𝑦) + 𝑎2𝐹2(𝑥, 𝑦)} = 𝑎1𝑂{𝐹1(𝑥, 𝑦)} + 𝑎2𝑂{𝐹2(𝑥, 𝑦)}. (3.17)

donde 𝑎1 y 𝑎2 son constantes que probablemente son números complejos. Esta propiedad de superposición aditiva puede ser fácilmente extendida al mapeo general de la ecuación (3.12). Una función de entrada al sistema 𝐹(𝑥, 𝑦) puede ser representada como la suma de los pesos de las amplitudes de las funciones delta Dirac por la integral de sifting,

Page 63: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

49

𝐹(𝑥, 𝑦) = ∫ ∫ 𝐹(𝜉, 𝜂)𝛿(𝑥 − 𝜉, 𝑦 − 𝜂)∞

−∞

−∞

𝑑𝜉𝑑𝜂. (3.18)

donde 𝐹(𝜉, 𝜂) es el factor de peso del impulso localizado en las coordenadas (𝜉, 𝜂) en un plano 𝑥 − 𝑦. Si la salida de un sistema lineal uno a uno está definida como:

𝐺(𝑥, 𝑦) = 𝑂{𝐹(𝑥, 𝑦)}. (3.19)

Entonces:

𝐺(𝑥, 𝑦) = 𝑂 {∫ ∫ 𝐹∞

−∞

(𝜉, 𝜂)∞

−∞

𝛿(𝑥 − 𝜉, 𝑦 − 𝜂)𝑑𝜉𝑑𝜂}. (3.20)

O bien

𝐺(𝑥, 𝑦) = ∫ ∫ 𝐹∞

−∞

(𝜉, 𝜂)∞

−∞

𝛿(𝑥 − 𝜉, 𝑦 − 𝜂)𝑑𝜉𝑑𝜂. (3.21)

El cambio que existe de la ecuación (3.20) a (3.21) se debe a la aplicación del operador lineal 𝑂{ . } y el operador de la integral ha cambiado de posición. También, el operador linear ha sido aplicado únicamente en términos del integrando que depende de las variables espaciales (𝑥, 𝑦). El segundo término del integrando en la ecuación que es redefinido como:

𝐻(𝑥, 𝑦; 𝜉, 𝜂) ≡ 𝑂{𝛿(𝑥 − 𝜉, 𝑦 − 𝜂)}. (3.22)

es llamado la respuesta al impulso de un sistema de dos dimensiones. En los sistemas ópticos, la respuesta al impulso es llamada frecuentemente la función de diferencia de puntos del sistema. La sustitución de la función de respuesta al impulso en la ecuación (3.21) da lugar a integral de superposición aditiva:

𝐺(𝑥, 𝑦) = ∫ ∫ 𝐹∞

−∞

−∞

(𝜉, 𝜂)𝐻(𝑥, 𝑦; 𝜉, 𝜂)𝑑𝜉𝑑𝜂. (3.23)

Un sistema de dos dimensiones lineal aditivo es llamado invariante en el espacio si su respuesta al impulso depende únicamente de los factores 𝑥 − 𝜉 y 𝑦 − 𝜂. En un sistema óptico, como se muestra en la implica que la imagen de una fuente puntual en un plano focal cambiará únicamente de posición, no de forma funcional, como un lugar del movimiento de la fuente puntual en el plano del objeto. Para un sistema invariante en el espacio

𝐻(𝑥, 𝑦; 𝜉, 𝜂) = (𝑥 − 𝜉, 𝑦 − 𝜂). (3.24)

y la integral de superposición se reduce al caso especial llamado integral de convolución dada por:

𝐺(𝑥, 𝑦) = ∫ ∫ 𝐹∞

−∞

−∞

(𝜉, 𝜂)𝐻(𝑥 − 𝜉, 𝑦 − 𝜂)𝑑𝜉𝑑𝜂. (3.25)

Simbólicamente,

𝐺(𝑥, 𝑦)𝐹(𝑥, 𝑦) ⊛ 𝐻(𝑥, 𝑦). (3.26)

denota la operación de convolución. La integral de convolución es simétrica en el sentido que:

Page 64: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

50

𝐺(𝑥, 𝑦) = ∫ ∫ 𝐹(𝑥 − 𝜉, 𝑦 − 𝜂)𝐻(𝜉, 𝜂)𝑑𝜉𝑑𝜂∞

−∞

−∞

. (3.27)

3.2.3 OPERADORES DIFERENCIALES

La detección de bordes en imágenes es generalmente alcanzada desarrollando una diferenciación espacial del campo de la imagen seguida de una operación de umbral para determinar los puntos donde existen cambios de amplitud abruptos. Las derivadas espaciales horizontales y verticales están definidas como:

𝑑𝑥 =𝜕𝐹(𝑥, 𝑦)

𝜕𝑥. (3.28)

𝑑𝑦 =𝜕𝐹(𝑥, 𝑦)

𝜕𝑦. (3.29)

La derivada direccional del campo de la imagen a lo largo de un vector de dirección 𝑧 subtiende un ángulo 𝜙 con respecto al eje horizontal dado por:

∇{𝐹(𝑥, 𝑦)} =𝜕𝐹(𝑥, 𝑦)

𝜕𝑧= 𝑑𝑥𝑐𝑜𝑠𝜙 + 𝑑𝑦𝑠𝑒𝑛𝜙. (3.30)

La magnitud del gradiente es entonces:

|∇{𝐹(𝑥, 𝑦)}| = √𝑑𝑥2 + 𝑑𝑦

2 . (3.31)

Las segundas derivadas en las direcciones horizontal y vertical están definidas como:

𝑑𝑥𝑥 =𝜕2𝐹(𝑥, 𝑦)

𝜕𝑥2. (3.32)

𝑑𝑦𝑦 =𝜕2𝐹(𝑥, 𝑦)

𝜕𝑦2. (3.33)

La suma de estas dos derivadas espaciales es llamada operador Laplaciano

∇2{𝐹(𝑥, 𝑦)} =𝜕2𝐹(𝑥, 𝑦)

𝜕𝑥2+

𝜕2𝐹(𝑥, 𝑦)

𝜕𝑦2. (3.34)

3.3 LA TRANSFORMADA DE FOURIER EN DOS DIMENSIONES

La transformada de Fourier de dos dimensiones de la función de una imagen 𝐹(𝑥, 𝑦) está definida como:

ℱ(𝜔𝑥 , 𝜔𝑦) = ∫ ∫ 𝐹(𝑥, 𝑦)𝑒𝑥𝑝{−𝑖(𝜔𝑥𝑥 + 𝜔𝑦𝑦)}𝑑𝑥𝑑𝑦∞

−∞

−∞

. (3.35)

donde 𝜔𝑥 y 𝜔𝑦 son frecuencias espaciales e 𝑖 = √−1. De forma notacional, la transformada de

Fourier se escribe como:

ℱ(𝜔𝑥 , 𝜔𝑦) = ℛ(𝜔𝑥 , 𝜔𝑦) + 𝑖𝑙(𝜔𝑥 , 𝜔𝑦). (3.36)

En la forma de magnitud y ángulo de fase,

Page 65: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

51

ℱ(𝜔𝑥 , 𝜔𝑦) = ℳ(𝜔𝑥 , 𝜔𝑦)𝑒𝑥𝑝{𝑖𝜙(𝜔𝑥 + 𝜔𝑦)}. (3.37)

donde:

ℳ(𝜔𝑥 , 𝜔𝑦) = [ℛ2(𝜔𝑥, 𝜔𝑦) + 𝐼2(𝜔𝑥 , 𝜔𝑦)]1/2

. (3.38)

𝜙(𝜔𝑥 , 𝜔𝑦) = 𝑎𝑟𝑐𝑡𝑎𝑛 {𝐼(𝜔𝑥 , 𝜔𝑦)

ℛ(𝜔𝑥 , 𝜔𝑦)}. (3.39)

Una condición suficiente para la existencia de la transformada de Fourier de 𝐹(𝑥, 𝑦) es que la función debe ser absolutamente integrable. Esto es,

∫ ∫ |𝐹(𝑥, 𝑦)|𝑑𝑥𝑑𝑦 < ∞∞

−∞

−∞

. (3.40)

La función de entrada 𝐹(𝑥, 𝑦) puede ser recuperada de su transformada de Fourier mediante su fórmula inversa:

𝐹(𝑥, 𝑦) =1

4𝜋2∫ ∫ ℱ

−∞

−∞

(𝜔𝑥 , 𝜔𝑦)𝑒𝑥𝑝{𝑖(𝜔𝑥𝑥 + 𝜔𝑦𝑦)}𝑑𝜔𝑥𝑑𝜔𝑦. (3.41)

o en forma de operador:

𝐹(𝑥, 𝑦) = 𝑂ℱ−1{ℱ(𝜔𝑥, 𝜔𝑦)}. (3.42)

Las funciones 𝐹(𝑥, 𝑦) y ℱ(𝜔𝑥 , 𝜔𝑦) son llamadas pares de transformadas de Fourier. Las

transformadas de Fourier de dos dimensiones pueden ser calculadas en dos pasos como el resultado de la separabilidad del núcleo. Entonces, sea:

ℱ𝑦(𝜔𝑥 , 𝑦) = ∫ 𝐹(𝑥, 𝑦)𝑒𝑥𝑝{−𝑖(𝜔𝑥 , 𝑥)}𝑑𝑥∞

−∞

. (3.43)

Luego:

ℱ(𝜔𝑥 , 𝜔𝑦) = ∫ ℱ𝑦(𝜔𝑥 , 𝑦)𝑒𝑥𝑝{−𝑖(𝜔𝑦, 𝑥)}𝑑𝑦∞

−∞

. (3.44)

Las siguientes son varias propiedades útiles de la transformada de Fourier en dos dimensiones.

Separabilidad. Si la función de imagen es espacialmente separable tal que

𝐹(𝑥, 𝑦) = 𝑓𝑥(𝑥)𝑓𝑦(𝑦). (3.45)

Entonces:

ℱ𝑦(𝜔𝑥 , 𝜔𝑦) = 𝑓𝑥(𝜔𝑥)𝑓𝑦(𝜔𝑦). (3.46)

donde 𝑓𝑥(𝜔𝑥) y 𝑓𝑦(𝜔𝑦) son las transformadas de Fourier en una dimensión de 𝑓𝑥(𝑥) y 𝑓𝑦(𝑦),

respectivamente. También, si 𝐹(𝑥, 𝑦) y ℱ(𝜔𝑥 , 𝜔𝑦) son dos pares de transformadas de Fourier en

dos dimensiones, la transformada de Fourier de 𝐹∗(𝑥, 𝑦) es ℱ∗(−𝜔𝑥, −𝜔𝑦). El asterisco* se utiliza

para denotar un complejo conjugado de una variable. Finalmente si 𝐹(𝑥, 𝑦) = 𝐹(−𝑥,−𝑦),

entonces ℱ(𝜔𝑥 , 𝜔𝑦) = ℱ(−𝜔𝑥, −𝜔𝑦).

Linealidad. La transformada de Fourier es un operador lineal. En consecuencia:

Page 66: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

52

𝑂ℱ{𝐹(𝑎𝑥, 𝑏𝑦)} =1

|𝑎𝑏|ℱ (

𝜔𝑥

𝑎,𝜔𝑦

𝑏). (3.47)

Por lo tanto, la expansión de un eje en un dominio resulta en la compresión del eje correspondiente en otro dominio más un cambio en la amplitud.

Desplazamiento. Un desplazamiento en la posición en el plano de entrada, resulta en un cambio de fase en un plano de salida:

𝑂ℱ{𝐹(𝑥 − 𝑎, 𝑦 − 𝑏)} = ℱ(𝜔𝑥 , 𝜔𝑦)𝑒𝑥𝑝{−𝑖(𝜔𝑥𝑎 + 𝜔𝑦𝑏)}. (3.48)

Alternativamente, un cambio en la frecuencia en el plano de Fourier resulta en la equivalencia:

𝑂ℱ−1{ℱ(𝜔𝑥 − 𝑎,𝜔𝑦 − 𝑏)} = 𝐹(𝑥, 𝑦)𝑒𝑥𝑝{𝑖(𝑎𝑥 + 𝑏𝑦)}. (3.49)

Convolución. La transformada de Fourier en dos dimensiones de dos funciones que convolucionan es igual al producto de las transformadas de las funciones. Así:

𝑂ℱ{𝐹(𝑥, 𝑦) ⊛ 𝐻(𝑥, 𝑦)} = ℱ(𝜔𝑥 , 𝜔𝑦)ℋ(𝜔𝑥 , 𝜔𝑦). (3.50)

El teorema inverso establece que:

𝑂ℱ{𝐹(𝑥, 𝑦)𝐻(𝑥, 𝑦)} =1

4𝜋2ℱ(𝜔𝑥 , 𝜔𝑦) ⊛ ℋ(𝜔𝑥 , 𝜔𝑦). (3.51)

Teorema de Parseval. La energía en el dominio espacial y de Fourier está relacionada por:

∫ ∫ |𝐹(𝑥, 𝑦)|2𝑑𝑥𝑑𝑦∞

−∞

=1

4𝜋2∫ ∫ |ℱ(𝜔𝑥 , 𝜔𝑦)|

2𝑑𝜔𝑥𝑑𝜔𝑦

−∞

−∞

−∞

. (3.52)

Teorema de autocorrelación. La transformada de Fourier de la autocorrelación espacial de una función es igual a la magnitud al cuadrado de su transformada de Fourier. Por lo tanto:

𝑂ℱ {∫ ∫ 𝐹(𝛼, 𝛽)𝐹∗(𝛼 − 𝑥, 𝛽 − 𝑦)𝑑𝛼𝑑𝛽∞

−∞

−∞

} = |ℱ(𝜔𝑥 , 𝜔𝑦)|2. (3.53)

Diferenciales espaciales. La transformada de Fourier de una derivada direccional de una función de imagen está relacionada con la transformada de Fourier a través de:

𝑂ℱ {𝜕𝐹(𝑥, 𝑦)

𝜕𝑥} = −𝑖𝜔𝑥ℱ(𝜔𝑥 , 𝜔𝑦). (3.54)

𝑂ℱ {𝜕𝐹(𝑥, 𝑦)

𝜕𝑦} = −𝑖𝜔𝑦ℱ(𝜔𝑥, 𝜔𝑦). (3.55)

Consecuentemente, la transformada de Fourier del Laplaciano de una función de imagen es igual a:

𝑂ℱ {𝜕2𝐹(𝑥, 𝑦)

𝜕𝑥2+

𝜕2𝐹(𝑥, 𝑦)

𝜕𝑦2 } = −(𝜔𝑥2 + 𝜔𝑦

2)ℱ(𝜔𝑥 , 𝜔𝑦). (3.56)

El teorema de convolución de la transformada de Fourier, establecido en la ecuación (3.51), es una herramienta muy útil para el análisis de sistemas lineales aditivos. Considerando una función de imagen 𝐹(𝑥, 𝑦) que es la entrada a un sistema lineal aditivo con una respuesta al impulso 𝐻(𝑥, 𝑦). La función de imagen de salida está dada por la integral de convolución:

Page 67: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

53

𝐺(𝑥, 𝑦) = ∫ ∫ 𝐹(𝛼, 𝛽)𝐻(𝑥 − 𝛼, 𝑦 − 𝛽)𝑑𝛼𝑑𝛽∞

−∞

−∞

. (3.57)

Tomando ambos lados de la transformada de Fourier de la ecuación (3.57) e invirtiendo el orden de integración del lado derecho se tiene que:

𝒢(𝜔𝑥 , 𝜔𝑦) = ∫ ∫ 𝐹(𝛼, 𝛽) [∫ ∫ 𝐻(𝑥 − 𝛼, 𝑦 − 𝛽)𝑒𝑥𝑝{−𝑖(𝜔𝑥𝑥 + 𝜔𝑦𝑦)}𝑑𝑥𝑑𝑦∞

−∞

−∞

] 𝑑𝛼𝑑𝛽∞

−∞

−∞

. (3.58)

Por el teorema de desplazamiento de la transformada de Fourier de la ecuación (3.50), la integral interior es igual a la transformada de Fourier de 𝐻(𝑥, 𝑦) multiplicada por un factor exponencial de desplazamiento de fase. Así:

𝒢(𝜔𝑥 , 𝜔𝑦) = ∫ ∫ 𝐹(𝛼, 𝛽)ℋ(𝜔𝑥 , 𝜔𝑦)∞

−∞

𝑒𝑥𝑝{−𝑖(𝜔𝑥𝛼 + 𝜔𝑦𝛽)}∞

−∞

𝑑𝛼𝑑𝛽. (3.59)

Realizando la transformación de Fourier indicada se obtiene:

𝒢(𝜔𝑥 , 𝜔𝑦) = ℋ(𝜔𝑥 , 𝜔𝑦)ℱ(𝜔𝑥 , 𝜔𝑦).

𝒢(𝜔𝑥 , 𝜔𝑦) = ∫ ∫ 𝐹(𝛼, 𝛽)ℋ(𝜔𝑥 , 𝜔𝑦)∞

−∞

𝑒𝑥𝑝{−𝑖(𝜔𝑥𝛼 + 𝜔𝑦𝛽)}∞

−∞

𝑑𝛼𝑑𝛽. (3.60)

Entonces la transformación inversa de la ecuación (3.60) proporciona la función de imagen de salida:

𝐺(𝑥, 𝑦) =1

4𝜋2∫ ∫ ℋ(𝜔𝑥 , 𝜔𝑦)ℱ(𝜔𝑥 , 𝜔𝑦)exp {𝑖(𝜔𝑥𝑥 + 𝜔𝑦𝑦)}𝑑𝜔𝑥𝑑𝜔𝑦

−∞

−∞

. (3.61)

Las ecuaciones (3.57) y (3.61) representan dos formas alternativas de determinar la respuesta de salida de una imagen en un sistema aditivo lineal e invariante en el tiempo.

3.4 CARACTERIZACIÓN ESTOCÁSTICA DE UNA IMAGEN

Es frecuentemente conveniente considerar a una imagen como una muestra de procesos estocásticos. Para las imágenes continuas, la función de imagen 𝐹(𝑥, 𝑦, 𝑡) se asume como miembro de un proceso estocástico continuo de tres dimensiones con variables espaciales (𝑥, 𝑦) y la variable del tiempo (𝑡).

El proceso estocástico 𝐹(𝑥, 𝑦, 𝑡) puede ser descrito completamente conociendo su densidad de probabilidad conjunta:

𝑝{𝐹1, 𝐹2, … , 𝐹𝑗; 𝑥1, 𝑦1, 𝑡1, 𝑥2, 𝑦2, 𝑡2, … , 𝑥𝑗, 𝑦𝑗 , 𝑡𝑗}, (3.62)

para todos los puntos de muestreo 𝐽, donde (𝑥𝑗 , 𝑦𝑗 , 𝑡𝑗) representan muestras de tiempo y espacio

de la función de imagen 𝐹𝑗(𝑥𝑗, 𝑦𝑗 , 𝑡𝑗). En general, las densidades de probabilidad conjunta de alto

orden para imágenes son desconocidas además de ser muy difíciles de modelar. La densidad de probabilidad de primer orden 𝑝(𝐹; 𝑥, 𝑦, 𝑡) puede en ocasiones ser modelada exitosamente en la base de la física de las medidas del histograma del proceso. Por ejemplo, la densidad de probabilidad de primer orden del ruido aleatorio de un sensor electrónico es normalmente bien modelado utilizando una densidad de probabilidad Gaussiana de la forma:

Page 68: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

54

𝑝{𝐹; 𝑥, 𝑦, 𝑡} = [2𝜋𝜎𝐹2(𝑥, 𝑦, 𝑡)]−1/2𝑒𝑥𝑝 {

[𝐹(𝑥, 𝑦, 𝑡) − 𝜂𝐹(𝑥, 𝑦, 𝑡)]2

2𝜎𝐹2(𝑥, 𝑦, 𝑡)

}, (3.63)

donde los parámetros 𝜂𝐹(𝑥, 𝑦, 𝑡) y 2𝜎𝐹2(𝑥, 𝑦, 𝑡) denotan la media y la varianza del proceso. La

densidad de probabilidad Gaussiana también es un modelo razonablemente preciso para la densidad de probabilidad de la amplitud de los coeficientes unitarios de una imagen. La densidad de probabilidad de la función de luminancia debe ser una probabilidad de un solo lado ya la medida de luminancia es positiva.

Las densidades de probabilidad condicionales también son útiles en la caracterización de procesos estocásticos. La probabilidad condicional de una imagen evaluada en (𝑥1, 𝑦1, 𝑡1) proporciona información de la función de la imagen en (𝑥1, 𝑦1, 𝑡1) y está definida como:

𝑝{𝐹1; 𝑥1, 𝑦1, 𝑡1|𝐹2; 𝑥2, 𝑦2, 𝑡2} =𝐹1, 𝐹2; 𝑥1, 𝑦1, 𝑡1, 𝑥2, 𝑦2, 𝑡2

𝑝{𝐹2; 𝑥2, 𝑦2, 𝑡2}. (3.64)

Las probabilidades condicionales de orden alto están definidas de una forma similar.

Otras formas de describir un proceso estocástico son a través del cálculo de su conjunto de valores promedio. El primero momento o media de una imagen está definida como:

𝜂𝐹(𝑥, 𝑦, 𝑡) = 𝐸{𝐹(𝑥, 𝑦, 𝑡)} = ∫ 𝐹(𝑥, 𝑦, 𝑡)𝑝{𝐹; 𝑥, 𝑦, 𝑡}𝑑𝐹∞

−∞

, (3.65)

donde 𝐸{ . } es el operador esperanza, como se definió en el lado derecho de la ecuación (3.65).

El segundo momento o función de autocorrelación está dado por:

𝑅(𝑥1, 𝑦1, 𝑡1; 𝑥2, 𝑦2, 𝑡2) = 𝐸{𝐹(𝑥1, 𝑦1, 𝑡1)𝐹∗(𝑥2, 𝑦2, 𝑡2)}, (3.66)

o de forma explícita:

𝑅(𝑥1, 𝑦1, 𝑡1; 𝑥2, 𝑦2, 𝑡2) = ∫ ∫ 𝐹(𝑥1, 𝑦1, 𝑡1)∞

−∞

−∞

𝐹∗(𝑥2, 𝑦2, 𝑡2)

× 𝑝{𝐹1, 𝐹2; 𝑥1, 𝑦1, 𝑡1, 𝑥2, 𝑦2, 𝑡2}𝑑𝐹1𝑑𝐹2.

(3.67)

La autocovarianza del proceso de una imagen es la autocorrelación alrededor de la media, definida como:

𝐾(𝑥1, 𝑦1, 𝑡1; 𝑥2, 𝑦2, 𝑡2) = 𝐸{[𝐹(𝑥1, 𝑦1, 𝑡1) − 𝜂𝐹(𝑥1, 𝑦1, 𝑡1)][𝐹∗(𝑥2, 𝑦2, 𝑡2) − 𝜂𝐹

∗ (𝑥2, 𝑦2, 𝑡2)]} (3.68)

o

𝐾(𝑥1, 𝑦1, 𝑡1; 𝑥2, 𝑦2, 𝑡2) = 𝑅(𝑥1, 𝑦1, 𝑡1; 𝑥2, 𝑦2, 𝑡2) − 𝜂𝐹(𝑥1, 𝑦1, 𝑡1)𝜂𝐹∗ (𝑥2, 𝑦2, 𝑡2). (3.69)

Finalmente, la varianza del proceso de la imagen es:

𝜎𝐹2(𝑥, 𝑦, 𝑡) = 𝐾(𝑥, 𝑦, 𝑡; 𝑥, 𝑦, 𝑡). (3.70)

Una imagen es llamada estacionaria en el sentido estricto si sus momentos no son afectados por desplazamientos en sus tiempos y espacios iniciales. El proceso de la imagen se dice que es estacionario en el sentido amplio si su media es constante y su autocorrelación depende de las diferencias en las coordenadas de la imagen, 𝑥1 − 𝑥2, 𝑦1 − 𝑦2, 𝑡1 − 𝑡2, y no en sus valores individuales. En otras palabras, la autocorrelación no es una función de posición o tiempo. Para procesos de imagen estacionarios,

Page 69: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

55

𝐸{𝐹(𝑥, 𝑦, 𝑡)} = 𝜂𝐹 . (3.71)

𝑅(𝑥1, 𝑦1, 𝑡1; 𝑥2, 𝑦2, 𝑡2) = 𝑅(𝑥1 − 𝑥2, 𝑦1 − 𝑦2, 𝑡1 − 𝑡2). (3.72)

La función de autocorrelación puede escribirse como:

𝑅(𝜏𝑥 , 𝜏𝑦, 𝜏𝑡) = 𝐸{𝐹(𝑥 + 𝜏𝑥 , 𝑦 + 𝜏𝑦, 𝑡 + 𝜏𝑡)𝐹∗(𝑥, 𝑦, 𝑡)}. (3.73)

debido a que:

𝑅(−𝜏𝑥 , −𝜏𝑦, −𝜏𝑡) = 𝑅∗(𝜏𝑥, 𝜏𝑦, 𝜏𝑡). (3.74)

entonces para una función de imagen con 𝐹 real, la autocorrelación es real y una función par de 𝜏𝑥 , 𝜏𝑦, 𝜏𝑡. La densidad espectral de potencia, también llamado espectro de potencia, de un proceso

estacionario de imagen está definido como como una transformada de Fourier de Tres dimensiones de su función de autocorrelación dada por:

𝒲(𝜔𝑥 , 𝜔𝑦, 𝜔𝑡) = ∫ ∫ ∫ 𝑅(𝜏𝑥 , 𝜏𝑦, 𝜏𝑡)∞

−∞

exp {−𝑖(𝜔𝑥𝜏𝑥 + 𝜔𝑦𝜏𝑦 + 𝜔𝑡𝜏𝑡)}𝑑𝜏𝑥𝑑𝜏𝑦𝑑𝜏𝑡

−∞

−∞

. (3.75)

En muchos sistemas de imágenes, los procesos de tiempo y espacio son separables, de este modo la función de correlación estacionaria puede ser escrita como:

𝑅(𝜏𝑥 , 𝜏𝑦, 𝜏𝑡) = 𝑅𝑥𝑦(𝜏𝑥, 𝜏𝑦)𝑅𝑡(𝜏𝑡). (3.76)

Además, la autocorrelación espacial, es frecuentemente considerada como el producto de las funciones de autocorrelación en los ejes 𝑥 y 𝑦,

𝑅𝑥𝑦(𝜏𝑥, 𝜏𝑦) = 𝑅𝑥(𝜏𝑥)𝑅𝑦(𝜏𝑦). (3.77)

para la simplicidad en los cálculos.

Una imagen es frecuentemente modelada como un proceso Markoviano de primer orden para el cual la correlación entre los puntos de la imagen es proporcional a su separación geométrica. La función de autocovarianza para un proceso Markoviano en dos dimensiones es:

𝑅𝑥𝑦(𝜏𝑥, 𝜏𝑦) = 𝐶𝑒𝑥𝑝 {−√𝛼𝑥2𝜏𝑥

2 + 𝛼𝑦2𝜏𝑦

2}. (3.78)

donde 𝐶 es una constante de energía y 𝛼𝑥 y 𝛼𝑦 son constantes de espacio. El espectro de potencia

correspondiente es:

𝒲(𝜔𝑥 , 𝜔𝑦) =1

√𝛼𝑥𝛼𝑦

2𝐶

1 + [𝜔𝑥

2

𝛼𝑥2 +

𝜔𝑦2

𝛼𝑦2]

. (3.79)

Con fines de simplificación, el proceso Markoviano se asume frecuentemente como separable con una función de autocovarianza:

𝐾𝑥𝑦(𝜏𝑥, 𝜏𝑦) = 𝐶𝑒𝑥𝑝{−𝛼𝑥|𝜏𝑥| − 𝛼𝑦|𝜏𝑦|}. (3.80)

El espectro de potencia de este proceso es:

𝒲(𝜔𝑥 , 𝜔𝑦) =4𝛼𝑥𝛼𝑦𝐶

(𝛼𝑥2 + 𝜔𝑥

2)(𝛼𝑦2 + 𝜔𝑦

2). (3.81)

A menudo, la densidad de probabilidad o los momentos de un campo de imagen estocástico son conocidos a la entrada de un sistema. Si la función de transferencia del sistema es algebraico, la densidad de probabilidad a la salida puede ser determinada en los términos de la densidad de

Page 70: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

56

probabilidad a la entrada mediante una transformación. Por ejemplo, si la salida del sistema está relacionada con la entrada del sistema por:

𝐺(𝑥, 𝑦, 𝑡) = 𝑂𝐹{𝐹(𝑥, 𝑦, 𝑡)}. (3.82)

donde 𝑂𝐹{ . } es un operador monotónico sobre 𝐹(𝑥, 𝑦). La densidad de probabilidad a la salida del campo es entonces:

𝑝{𝐺; 𝑥, 𝑦, 𝑡} =𝑝{𝐹; 𝑥, 𝑦, 𝑡}

|𝑑𝑂𝐹{𝐹(𝑥, 𝑦, 𝑡)}/𝑑𝐹|. (3.83)

Los momentos a la salida de un sistema pueden ser directamente obtenidos si se conoce la densidad de probabilidad a la salida, o en ciertos casos, indirectamente en términos del operador del sistema. Por ejemplo, si el operador del sistema es lineal y aditivo, la media a la salida del sistema es:

𝐸{𝐺(𝑥, 𝑦, 𝑡)} = 𝐸{𝑂𝐹{𝐹(𝑥, 𝑦, 𝑡)}} = 𝑂𝐹{𝐸{𝐹(𝑥, 𝑦, 𝑡)}}. (3.84)

Se puede demostrar que si un operador del sistema es lineal aditivo, y si la entrada al sistema es una imagen estacionaria en el sentido estricto, la salida del sistema será también estacionaria en el sentido estricto. Además, si la entrada es estacionaria en el sentido amplio, la salida será también estacionaria en el sentido amplio.

Si se considera un sistema lineal aditivo invariante en el tiempo para el cual su salida está descrita por la integral de convolución en tres dimensiones:

𝐺(𝑥, 𝑦, 𝑡) = ∫ ∫ ∫ 𝐹(𝑥 − 𝛼, 𝑦 − 𝛽, 𝑡 − 𝛾)𝐻(𝛼, 𝛽, 𝛾)𝑑𝛼𝑑𝛽𝑑𝛾∞

−∞

−∞

−∞

. (3.85)

donde 𝐻(𝛼, 𝛽, 𝛾) es la respuesta al impulso del sistema. La media a la salida es entonces:

𝐸{𝐺(𝑥, 𝑦, 𝑡)} = ∫ ∫ ∫ 𝐸{𝐹(𝑥 − 𝛼, 𝑦 − 𝛽, 𝑡 − 𝛾)}𝐻(𝛼, 𝛽, 𝛾)𝑑𝛼𝑑𝛽𝑑𝛾∞

−∞

−∞

−∞

. (3.86)

Si el campo de la imagen a la entrada es estacionario, su media 𝜂𝐹 es una constante que puede ser sacada de la integral. Como resultado:

𝐸{𝐺(𝑥, 𝑦, 𝑡)} = 𝜂𝐹 ∫ ∫ ∫ 𝐻(𝛼, 𝛽, 𝛾)𝑑𝛼𝑑𝛽𝑑𝛾∞

−∞

= 𝜂𝐹ℋ(0,0,0)∞

−∞

−∞

. (3.86)

donde ℋ(0,0,0), es la función de transferencia del sistema lineal evaluado en el origen. Siguiendo las mismas técnicas, puede ser fácilmente demostrado que las funciones de autocorrelación de la entrada y salida del sistema están relacionadas por:

𝑅𝐺(𝜏𝑥, 𝜏𝑦, 𝜏𝑡) = 𝑅𝐹(𝜏𝑥 , 𝜏𝑦, 𝜏𝑡) ⊛ 𝐻(𝜏𝑥 , 𝜏𝑦, 𝜏𝑡) ⊛ 𝐻∗(−𝜏𝑥, −𝜏𝑦, −𝜏𝑡). (3.87)

Tomando la transformada de Fourier de ambos lados de la ecuación (3.87) e invocando el teorema de convolución de la transformada de Fourier, se obtiene la relación del espectro de potencia de la imagen de entrada y salida,

𝒲𝐺(𝜔𝑥, 𝜔𝑦, 𝜔𝑡) = 𝒲𝐹(𝜔𝑥 , 𝜔𝑦, 𝜔𝑡)ℋ(𝜔𝑥 , 𝜔𝑦, 𝜔𝑡)ℋ∗(𝜔𝑥, 𝜔𝑦, 𝜔𝑡). (3.88)

o

𝒲𝐺(𝜔𝑥 , 𝜔𝑦, 𝜔𝑡) = 𝒲𝐹(𝜔𝑥 , 𝜔𝑦 , 𝜔𝑡)|ℋ(𝜔𝑥 , 𝜔𝑦, 𝜔𝑡)|2. (3.89)

El resultado obtenido es útil cuando se analiza el efecto del ruido en sistemas de imagen.

Page 71: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

57

3.5 ELEMENTOS DEL PROCESAMIENTO DIGITAL DE IMÁGENES

En su forma más básica, el procesamiento digital de imágenes requiere de una computadora donde se pueda procesar una imagen y dos equipos externos para la entrada y salida de información: un digitalizador de imágenes y un dispositivo para mostrarlas [23].

De forma natural no podemos someter directamente una imagen a un análisis por computadora. Puesto que las computadoras trabajan principalmente con datos numéricos, una imagen debe ser convertida a una forma numérica antes de cualquier procesamiento por computadora.

Figura 3.1 Representación de una imagen en pixeles.

La Figura 3.1 muestra como un arreglo rectangular de números puede representar una imagen física. Esta imagen física está dividida en pequeñas regiones llamadas en inglés picure elements o pixels (pixeles). El esquema más común de subdivisiones es un muestreo en forma de reja rectangular como se muestra en la Figura 3.1. La imagen es dividida en líneas horizontales de pixeles adyacentes. El número que se encuentra localizado en cada posición de pixel representa el brillo de la imagen correspondiente a ese punto. La figura 3.1 presenta cómo una imagen física al ser digitalizada se convierte en una serie de datos numéricos.

Figura 3.2 Estructura digital de una imagen.

Esta conversión es llamada digitalización y una forma común de representarla se observa en la Figura 3.1. En cada posición de pixel, el brillo de la imagen es muestreado y cuantificado. Este paso genera, para cada pixel, un entero que representa el brillo u oscuridad de la imagen en ese punto. Cuando este proceso se realiza para todos los pixeles de la imagen, esta última es representada entonces por un arreglo rectangular de enteros. Cada pixel tiene un entero de localización o dirección (línea o número de fila y muestra o número de columna) y un valor entero o nivel de gris,

Niveles de Gris

Pixeles Imagen física Imagen digital

Negro

Gris

Blanco

256

128

0 Espacio entre muestras

Pixel

Columna de muestras

Fila

Page 72: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

58

tal como se observa en la Figura 3.2. Una vez terminado este procedimiento se puede decir que el arreglo de datos digitales es ahora un candidato para someterse al procesamiento por computadora.

3.6 TERMINOLOGÍA DEL PROCESO DIGITAL DE IMÁGENES

Las imágenes pueden existir de varias formas, algunas son visibles y otras no, algunas son abstractas y otras físicas. Es por ello importante estar conscientes de los diferentes tipos de imágenes. La falta de consciencia puede provocar confusión, particularmente cuando las personas tratan de comunicar ideas relacionadas con imágenes cuando existen diferencias acerca de lo que una imagen es.

Una imagen contiene información descriptiva acerca del objeto que representa. Una fotografía muestra esta información de tal forma que permite al espectador el objeto mismo. Nótese que bajo esta relativamente amplia definición de imagen caen muchas representaciones que no son perceptibles por el ojo humano.

Figura 3.3 Clasificación de imágenes.

Las imágenes pueden ser clasificadas en varios tipos basadas en su forma, su método o la forma de generarlas. En este sentido, resulta informativo emplear un conjunto de enfoques teóricos. Si consideramos todo el conjunto de objetos, las imágenes forman un subconjunto de las mismas, y existe una correspondencia entre cada imagen y el subconjunto de objetos que representa. Dentro del mismo conjunto de imágenes, existe un subconjunto muy importante de que contiene todas las imágenes visibles, aquellas que son percibidas y vistas por el ojo humano. De nuevo, dentro de este conjunto, existen varios subconjuntos representando los diversos métodos para generar

Objetos

Imágenes

Funciones matemáticas

Discretas (digitales)

Continuas

Imágenes físicas (no visibles)

Imágenes visibles

Figuras

Fotografías

Dibujos

Pinturas

Ópticas

Page 73: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

59

imágenes. Estos incluyen fotografías, dibujos y pinturas. Otro subconjunto contiene imágenes ópticas, esto es, aquellas formadas con lentes, rejillas y hologramas.

Las imágenes físicas son distribuciones reales de materia o energía. Por ejemplo, las imágenes ópticas son distribuciones espaciales de intensidad de luz. Estas pueden ser vistas por el ojo humano y en consecuencia son imágenes visibles también. Ejemplos de imágenes físicas no visibles, son la temperatura, la presión, la elevación y los mapas de densidad de población. Un subconjunto de imágenes físicas son las imágenes multiespectrales que son aquellas que tienen más de una propiedad local definida para cada punto. Un ejemplo sería una imagen triespectral (rojo, verde, azul) ya que es reproducida en televisión y fotografías a color. Mientras que una imagen tiene un valor de brillo en cada punto, las imágenes a color tienen tres valores de brillo, uno para el rojo, otro para el verde y uno distinto para el azul. Los tres valores representan la intensidad en diferentes bandas espectrales, las cuales son percibidas por el ojo como colores diferentes.

Otro subconjunto de imágenes contiene las imágenes abstractas de las matemáticas en funciones continuas y funciones discretas o imágenes digitales. Únicamente las imágenes digitales pueden ser procesadas por computadora. Una forma de ver la clasificación de las imágenes se ilustra en la Figura 3.3, donde se muestran los conjuntos y subconjuntos de los tipos de imágenes.

Para el siguiente trabajo el término imagen digital será empleado para referirse a una función bidimensional muestreada y cuantificada que sido generada por medios ópticos y que está muestreada de forma no-uniforme y cuantificada en intervalos no uniformes en amplitud.

El muestreo en este caso significa medir los niveles de gris de una imagen en cada ubicación de pixel. La cuantificación es la representación con un número entero de un valor medido. Debido a que las computadoras procesan números, es necesario reducir los valores continuos a unidades discretas y representarlas con enteros.

La resolución en escala de grises se refiere al número de niveles de gris por unidad de medida de la amplitud de la imagen. Almacenar una imagen digital en bytes de 8 bits, por ejemplo, lleva a una escala de 256 niveles de gris.

3.7 CONCEPTOS DE MUESTREO Y RECONSTRUCCIÓN DE IMÁGENES

En el diseño de sistemas de muestreo y reconstrucción de imágenes usualmente consideran a una imagen como un campo determinístico [24-28]. Sin embargo, también existen modelos que consideran al ruido como parte del sistema y caracterizan a las imágenes como procesos aleatorios bidimensionales [29].

En términos físicos, el periodo de muestreo de una imagen, debe ser igual o más pequeño que la mitad del periodo de detalle más fino dentro de la imagen. Este criterio de muestreo es equivalente al teorema de muestreo unidimensional para las señales variantes en el tiempo donde el criterio de Nyquist indica que para lograr un proceso de muestreo-reconstrucción debe de tomarse por lo menos el doble de la frecuencia más alta dentro de la señal. Si esta igualdad de criterios se conserva entonces se dice que una imagen debe ser muestreada a una tasa de Nyquist si el espacio entre las muestras de la imagen es muy pequeño se considera que se está sobre-muestreando la imagen, y por otro lado, si la imagen se muestrea a una tasa mayor que este criterio, entonces se considera que la imagen está sub-muestreada.

Page 74: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

60

Si la imagen original es muestreada a una tasa suficiente como para que no exista traslapes en el espectro de la imagen, la reconstrucción exacta de la imagen puede ser alcanzada filtrando las muestras con el filtro apropiado.

3.8 EL HISTOGRAMA DE NIVELES DE GRIS

El histograma de niveles de gris es una caracterización inicial concisa de una imagen. La cual puede ser utilizada para evaluar totalmente sus cualidades y determinar el procesamiento adecuado para mejorarla [30]. El histograma es una trama que muestra el número de pixeles, en cualquier lugar de la imagen, la cual muestra cada valor discreto posible de pixel 𝑎𝑖. Cada valor de pixel graficado a lo largo de un eje horizontal es representado por un histograma binario cuya altura representa el número de pixeles de imagen con ese valor particular. Un nombre más adecuado para el histograma de nieles de gris sería el histograma de valor de pixeles, puesto que los valores de pixel y los niveles de gris no son sinónimos. Podemos cambiar los niveles de gris cambiado los valores de pixel utilizando una tabla (look-up table).

Un histograma muestra el número de pixeles que poseen cierto valor pero no guardan la localización de esos pixeles en la imagen. De este modo la información espacial se descarta. El histograma es único para cada imagen particular, pero diferentes imágenes pueden tener el mismo histograma. No obstante, muestra de manera breve algunas propiedades útiles de la imagen original.

La suma de todas las alturas de las variables dentro del histograma es igual al número total de pixeles en la imagen. Un histograma normalizado se puede obtener dividiendo las alturas de las variables dentro del histograma por este número, de este modo la suma de las alturas de las variables dentro del histograma equivaldrá a la unidad. En términos estadísticos, el histograma normalizado es la función de densidad de probabilidad (fdp) de una imagen, e indica la probabilidad, en una escala entre 1 y 0, de observar un valor de pixel particular en la imagen. Los valores máximos y mínimos de pixel dentro de una imagen para ser fácilmente obtenidos del histograma/función densidad de probabilidad o de la gráfica de la función acumulativa de distribución.

El histograma de niveles de gris muestra si una imagen es totalmente oscura o luminosa, el valor medio de pixel �̅�, puede ser obtenido del histograma sumando el producto del valor de pixel por su correspondiente altura binaria y dividiéndolo por el número total de pixeles. Un valor medio de pixel cercano a la mitad del máximo valor posible, por ejemplo 127 o 128 para una imagen de 8 bits con 256 valores de gris, indica un brillo óptimo. Un valor significativamente por debajo o por encima de este indica que la imagen es totalmente oscura o brillante, respectivamente.

3.9 OTRAS CARACTERÍSTICAS DEL HISTOGRAMA.

Los momentos espaciales son una forma muy simple y poderosa de describir la distribución espacial de valores dentro de una distribución dada. Pueden ser aplicados a una distribución unidimensional como el histograma de niveles de gris, así como a distribuciones de órdenes altos como la imagen misma.

Aplicado a una distribución unidimensional discreta con N valores posibles, xi, el enésimo momento está dado por:

Page 75: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

61

𝑚𝑛(𝑥) = ∑𝑃(𝑥𝑖)𝑥𝑖𝑛

𝑁

𝑖=0

. (3.90)

Los momentos centrales están definidos en torno a la esperanza �̅�, así el enésimo momento central está dado por:

𝜇𝑛(𝑥) = ∑𝑃(𝑥𝑖)(𝑥𝑖 − �̅�)𝑛

𝑁

𝑖=0

. (3.91)

El primer momento del histograma nos da la esperanza de valor de pixel,

𝑚1 = ∑𝑃(𝑎𝑖)𝑎𝑖 = �̅�

255

𝑖=0

. (3.92)

Y el segundo momento central nos da la varianza:

𝜇1(𝑥) = ∑𝑃(𝑎𝑖)(𝑎𝑖 − �̅�)2 = 𝜎𝑎2

255

𝑖=0

. (3.93)

donde la suma de 0 hasta 255 aplica para una imagen de 8 bits. El tercer momento central indica la falta de simetría de la distribución [30]. Si es numéricamente igual a cero, el histograma es simétrico. Un valor negativo de la falta de simetría indica que el histograma es asimétrico a la izquierda, y un positivo que es asimétrico a la derecha. El cuarto momento central proporciona la kurtosis, que es una medida de cuan cercano está a una forma Gaussiana, una kurtosis de cero indica que es Gaussiana, mientras que un valor positivo o negativo, indica que es más aplanada o más picuda que una Gaussiana.

Page 76: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

62

Capítulo 4. Análisis de Reconstrucción con Muestreo No-Uniforme

En esta sección se presentan tres análisis de error de reconstrucción para tres tipos diferentes de muestreo no uniforme. Estos resultados fueron analizados mediante la función de covarianza obtenida a la salida de circuitos RC de una, dos y tres etapas.

4.1 MUESTREO NO UNIFORME

Para los resultados que a continuación se presentan se utilizaron tres tipos de muestreo no uniforme. Es importante mencionar que para los resultados, que a continuación se presentan, se utilizaron 126 muestras distribuidas en un plano con valores sobre el eje x de -3 a 3, y de igual forma en y de -3 a 3. El primer resultado está dado por una configuración de tipo cruz, la cual puede observarse en la Figura 4.1.

a) b)

Figura 4.1 Configuración de muestras de tipo cruz con 126 muestras y 6 trazos.

Con esta configuración se espera que la función de error de reconstrucción tenga valores muy pequeños en el perímetro y al centro del campo. A su vez, puede intuirse que en el área donde se forma la cruz al centro del campo, los errores medibles sean pequeños y vayan incrementándose a en las zonas donde no hay muestra alguna.

En segundo lugar, tenemos la configuración radial que consta de seis círculos concéntricos, los cuales tienen un radio de separación entre sí a un intervalo de R = 0.5 y están distribuidos como lo muestra la Figura 4.2.

Figura 4.2 Configuración de muestras de tipo radial con 126 muestras y 6 radios.

-3 -2 -1 0 1 2 3 -3

-2

-1

0

1

2

3

x

y

-3 -2 -1 0 1 2 3 -3

-2

-1

0

1

2

3

x

y

3 4

5

2 1

6

R

Page 77: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

63

Las expresiones que dan lugar a este tipo de configuración son las siguientes:

𝑥(𝑡) = 𝑅 𝑐𝑜𝑠(𝑡), 𝑦(𝑡) = 𝑅 𝑠𝑒𝑛(𝑡)

Donde R es el radio de la circunferencia.

De esta configuración podemos esperar que derivado de la posición de las muestras se obtengan errores muy pequeños alrededor de los círculos formados por éstas [38]. Sin embargo, debido a que el campo a reconstruir tiene una forma cuadrangular, la función de error de reconstrucción tendrá valores más grandes a las orillas del círculo más lejano del centro.

Por último, se va a utilizar una configuración en espiral de la cual se espera que los resultados que se obtengan tengan valores de error menores al de los casos anteriormente presentados. Esto debido principalmente a que la forma de la espiral utilizada permite que las muestras se aproximen más unas con otras. La forma de la configuración se puede ver en la Figura 4.3.

Figura 4.3 Configuración de muestras de tipo espiral con 126 muestras y 5 espiras.

Para este estudio se va a utilizar una espiral de Arquímedes, donde su radio t es igual si se toma como referencia el centro de la espiral y se traza una línea transversal a la espiral, en este caso t tiene un valor de 0.6 y se utilizarán 5 radios. Las expresiones matemáticas de esta espiral de Arquímedes son:

𝑥(𝑡) = 𝑎𝑡 𝑐𝑜𝑠(𝑡), 𝑦(𝑡) = 𝑎𝑡 𝑠𝑒𝑛(𝑡)

Donde a es una constante.

4.2 FUNCIÓN DE ERROR DE RECONSTRUCCIÓN DE TIPO CRUZ UTILIZANDO UN CIRCUITO RC DE UNA ETAPA

La distancia que existe entre las 126 muestras a lo largo de esta configuración es de 0.1429, de tal forma que las muestras forman una “equis” al centro del campo la cual tiene al rededor un cuadrado como en la Figura 4.1b.

La función de covarianza normalizada obtenida de circuito RC de una etapa es la siguiente:

𝑒−𝛼|∆𝑥|−𝛼|∆𝑦|.

Donde α es una constante de espacio y sirve para normalizar la función de covarianza y Δx y Δy son la diferencia de espacio entre muestras.

Los errores medidos con este tipo de configuración y función de covarianza pueden observarse en la Figura 4.4.

t

3

4

5

2

1

Page 78: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

64

Figura 4.4 Errores medidos en la función de error de reconstrucción a la salida de un circuito RC

alimentado con ruido blanco usando una configuración de tipo cruz

Podemos ver que en la zona de las diagonales donde se forma la “x”, los errores máximos llegan a ser de 0.5. Se observa, además, que el error permanece casi constante en 0.3 a lo largo del proceso. Las zonas donde se presenta un error mayor se encuentran dentro de las intersecciones formadas por la “x”. Pese a esto y debido a la influencia que ejercen las muestras que se encuentran en el perímetro, el error no incrementa su valor de manera abrupta a las orillas del campo.

Figura 4.5 Función de error de reconstrucción a la salida de un circuito RC de una etapa alimentado con ruido blanco utilizando un tipo de muestreo de cruz.

En la Figura 4.5, se muestra la representación espacial de la configuración de cruz para una función de covarianza Markoviana. Se observa que los valores del error a lo largo de la “x” central son más pequeños comparados con aquellos que se encuentran fuera de ella. A las orillas de los ejes x y y puede apreciarse como existen valores que tocan el fondo del plano, esto ocurre debido a que existe una muestra en ese punto y por lo tanto el valor de la incertidumbre o error de reconstrucción es cero.

Esto puede apreciarse de manera más clara si se observa la Figura 4.6.

En la Figura 4.6, se muestra la vista superior de la representación espacial de la Figura 4.5. Las zonas más claras dentro de la Figura representan el error máximo dentro del campo, mientras que a medida que estas zonas se tornan de grises más oscuros el error va disminuyendo, llegando a ser cero en los puntos donde se encuentra una muestra, tal y como se mencionó anteriormente.

0 0.5 1 1.5 2 2.5 30

0.5

1

1.5

2

2.5

3

0.20.2

0.2 0.2

0.2 0.2

0.30.3

0.3

0.4

0.4

0.4

0.4

0.4

0.5

0.5

0.5

0.5

YX

Page 79: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

65

Figura 4.6 Vista superior de la función de error de reconstrucción a la salida de un circuito RC de una

etapa alimentado con ruido blanco utilizando un tipo de muestreo de cruz.

4.3 FUNCIÓN DE ERROR DE RECONSTRUCCIÓN DE TIPO CRUZ UTILIZANDO UN CIRCUITO RC DE DOS ETAPAS.

Para este caso se va a utilizar la siguiente función de covarianza normalizada obtenida de un circuito RC de dos etapas:

(1 + 𝛼|∆𝑥|)(1 + 𝛼|∆𝑦|)𝑒−𝛼|∆𝑥|−𝛼|∆𝑦|.

A diferencia de la función de covarianza obtenida de un circuito RC de una etapa la cual tenía un comportamiento Markoviano, esta segunda función tiene un comportamiento más suave, es decir, el espacio de covarianza entre muestras decae más lentamente, lo que influye en los resultados que a continuación se presentan.

Figura 4.7 Errores medidos en la función de error de reconstrucción a la salida a la salida de un circuito

RC de dos etapas para una configuración de tipo cruz.

Dentro de la Figura 4.7 el valor del error disminuye de manera considerable con respecto al obtenido con la primera función de covarianza. Pueden observarse errores dentro del campo con valores de 0.005 para los más pequeños y 0.15 para los más grandes. Como se mencionó anteriormente, el error es mayor entre los espacios que existen dentro de las intersecciones de la forma de muestreo, mientras que en las zonas donde existen muestras cercanas, el error tiende a disminuir.

0.5 1 1.5 2 2.5 30

0.5

1

1.5

2

2.5

3

0.005

0.005 0.005

0.005

0.0050.005

0.005 0.005

0.0050.015 0.015

0.015

0.015

X

Y

Page 80: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

66

Figura 4.8 Función de error de reconstrucción a la salida de un circuito RC de dos etapas utilizando un

tipo de muestreo de cruz.

La Figura 4.8 muestra la representación espacial de la función de error de reconstrucción a la salida de un circuito RC de dos etapas. Aquí se puede ver cómo el error ha disminuido su valor dentro de todo el campo, y puede apreciarse la posición de las muestras al centro y de extremo a extremo.

Figura 4.9 Vista superior de la función de error de reconstrucción a la salida de un circuito RC de dos

etapas utilizando un tipo de muestreo de cruz.

Observando la función de error desde un plano superior como se muestra en la Figura 4.9 puede apreciarse que las zonas alejadas de las muestras poseen un error más grande que aquellas alrededor de las concentraciones de muestras al centro y en el perímetro del campo. En las zonas dentro de las intersecciones el valor de la función de error presenta variaciones de entre 0.01 y 0.02, mientras que las zonas cercanas a las muestras poseen valores entre 0.004 y 0.007.

4.4 FUNCIÓN DE ERROR DE RECONSTRUCCIÓN DE TIPO CRUZ UTILIZANDO UN CIRCUITO RC DE TRES ETAPAS.

La última función de covarianza que se va a utilizar fue obtenida a partir de un circuito RC de tres etapas y es la siguiente:

(1 + 𝛼|∆𝑥| +𝛼∆𝑥2

3)(1 + 𝛼|∆𝑦| +

𝛼∆𝑥2

3)𝑒−𝛼|∆𝑥|−𝛼|∆𝑦|.

Page 81: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

67

Para este caso, y debido a que el error es mucho más pequeño que en los casos anteriores, esto puede verse de manera cuantitativa en la Figura 4.10.

Figura 4.10 Errores medidos en la función de error de reconstrucción a la salida de un circuito RC de tres

etapas para una configuración de tipo cruz.

En la Figura 4.10 podemos ver el valor del error a la largo del campo. El valor del error alrededor de las muestras es de 0.0001, en las zonas donde no existen muestras contiguas el error es de 0.0009 siendo este el máximo en todo el campo

Figura 4.11 Función de error de reconstrucción a la salida de un circuito RC de dos etapas utilizando un

tipo de muestreo de cruz.

En la Figura 4.11 se presenta la representación espacial de una configuración de cruz utilizando un circuito RC de tres etapas.

Al igual que en la Figura 4.9 del circuito RC de dos etapas, podemos ver que con la vista superior es más claro entender la influencia entre las muestras a lo largo del proceso.

En la Figura 4.12 se ve la configuración de cruz al centro, mientras que a las orillas puede verse que existen muestras contiguas, es por ello que esta zona está totalmente oscura ya que como se comentó anteriormente el error que existe en esta zona es 0.0002. Al igual que en los casos anteriores en las zonas fuera de las intersecciones donde se realiza el muestreo el número de muestras es menor y por lo tanto el error alcanza sus valores máximos.

0 0.5 1 1.5 2 2.5 30

0.5

1

1.5

2

2.5

3

0.0001

0.0001

0.0001

0.0001

0.0001

0.0001

0.0001

0.0002

0.0004

0.0005

0.0005

0.0009

0.0009

0.0009

0.0009Y

X

Page 82: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

68

Figura 4.12 Vista superior de la función de error de reconstrucción a la salida de un circuito RC de dos

etapas utilizando un tipo de muestreo de cruz.

4.5 FUNCIÓN DE ERROR DE RECONSTRUCCIÓN RADIAL UTILIZANDO UN CIRCUITO RC DE UNA ETAPA

En este primer caso utilizamos la configuración radial y con una función de covarianza obtenida a partir de un circuito RC de una etapa. Es importante mencionar que en adelante se van a considerar las mismas tres funciones de covarianza utilizadas con la configuración de tipo cruz.

Figura 4.13 Errores medidos en la función de error de reconstrucción a la salida de un circuito RC de una

etapa para una configuración radial.

Se puede observar en la Figura 4.13 que los errores máximos se encuentran en aquellas zonas donde existen las separaciones entre las circunferencias. El error mínimo con esta función de covarianza y con este tipo de muestreo es de 0.2, llegando a ser de 0.8 al exterior del diámetro de la última circunferencia.

-3 -2 -1 0 1 2 3

-3

-2

-1

0

1

2

3

0.2

0.2

0.20.2

0.20.2

0.2

0.2

0.2

0.4

0.4

0.4

0.4

0.40.4

0.4

0.4

0.6

0.60.6

X

Y

Page 83: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

69

Figura 4.14 Función de error de reconstrucción a la salida de un circuito RC de una etapa utilizando un

tipo de muestro radial.

En la Figura 4.14 podemos ver la configuración radial en dos dimensiones. Observando esta Figura podemos deducir entonces que dependencia entre muestras es muy pequeña y se pierde rápidamente, es por ello que por ejemplo, uno de los errores más grandes dentro del campo esté justo al centro.

Figura 4.15 Vista superior de la función de error de reconstrucción a la salida de un circuito RC de una

etapa utilizando un tipo de muestreo radial.

Debido a la naturaleza de la función de covarianza Markoviana, las circunferencias que forman el conjunto de muestras pueden apreciarse a simple vista como se observa en la Figura 4.15.

Figura 4.16 Errores medidos en la función de error de reconstrucción a la salida de un circuito RC de dos

etapas para una configuración radial.

0.001

0.002

0.006

0.014

0.004

0.019 0.001

0.02

0.005

0.003

0.004

0.005

0.004

0.005

0.005

0.004

0.004

0.005

0.001

0.001

0.002

0.002

Page 84: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

70

4.6 FUNCIÓN DE ERROR DE RECONSTRUCCIÓN RADIAL UTILIZANDO UN CIRCUITO RC DE DOS ETAPAS

A continuación, se presentan los resultados obtenidos con una función de covarianza obtenida de un circuito RC de dos etapas utilizando el mismo esquema de muestreo radial.

En la Figura 4.16 se observa que los errores máximos considerables dentro del campo se encuentran en las últimas circunferencias de muestreo. Esto quiere decir, que al centro de la configuración tenemos un error muy pequeño y casi uniforme siendo el mínimo de 0.002. Como se mencionó anteriormente, los errores que pueden medirse bajo este esquema, tienen un valor máximo de 0.02. Comparando este resultado con el obtenido con la función de covarianza obtenida de un circuito RC de una etapa tenemos que esté es 20 veces menor, es decir, la calidad de reconstrucción con esta función de covarianza es mayor.

Figura 4.17 Función de error de reconstrucción a la salida de un circuito RC de dos etapas utilizando un

tipo de muestreo radial.

La forma que adquiere la función de error de reconstrucción con un filtro RC de dos etapas en el espacio, puede apreciarse en la Figura 4.17. La zona entre radios representa los valores donde el error se encuentra entre 0.001 y 0.003.

Figura 4.18 Vista superior de la función de error de reconstrucción a la salida de un circuito RC de dos

etapas utilizando un tipo de muestreo radial.

Podemos ver que en la medida en que esas zonas tienden a aclararse, el valor del error aumenta. Este fenómeno puede verse más concretamente a las afueras de la tercera circunferencia en la Figura 4.18.

Page 85: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

71

Figura 4.19 Errores medidos en la función de error de reconstrucción a la salida de un circuito RC de tres

etapas para una configuración radial.

4.7 FUNCIÓN DE ERROR DE RECONSTRUCCIÓN RADIAL UTILIZANDO UN CIRCUITO RC DE TRES ETAPAS

En el siguiente ejemplo, se ve claramente como la influencia entre las muestras es tan fuerte que al centro de la Figura 4.19 tenemos un error muy pequeño comparado con los dos resultados anteriores.

Los errores medidos para este caso se observan en la Figura 4.19. Estos errores son producidos por la falta de muestras a las orillas de la configuración radial son aproximadamente de 0.0007 y los errores mínimos son de 0.001 es decir, es diez veces menor al error encontrado cuando se utilizó una función de covarianza obtenida de un circuito RC de dos etapas y cien veces menos al error cuando se utilizó una función de covarianza Markoviana.

Figura 4.20 Función de error de reconstrucción a la salida de un circuito RC de tres etapas utilizando un

tipo de muestreo radial.

La forma en el espacio de la función de error de reconstrucción para esta función de covarianza se ilustra en la Figura 4.20, debido a que los errores al centro son muy pequeños, pueden apreciarse como la influencia entre muestras afecta a la cuarta circunferencia de la configuración de muestreo.

0.0001

0

0

0

0.0001

0.0001

0.0001

0.0001

0.0002 0.0006

0.0003

0.0001

Page 86: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

72

Figura 4.21 Vista superior de la función de error de reconstrucción a la salida de un circuito RC de tres

etapas utilizando un tipo de muestreo radial.

En la Figura 4.21, vemos la representación en el espacio de la función de error de reconstrucción vista desde un plano superior. Como se mencionó en la Figura 4.20, las esquinas representan como el error en el proceso va aumentando a medida que nos vamos alejando del centro que es el lugar donde existen más muestras.

4.8 FUNCIÓN DE ERROR DE RECONSTRUCCIÓN ESPIRAL UTILIZANDO UN CIRCUITO RC DE UNA ETAPA

El último tipo de muestreo que va a revisarse es el de tipo espiral. Se utilizó una espiral de Arquímedes debido a que es similar a la configuración de muestreo con radios pero al mismo tiempo se puede obtener ventaja del hecho de que la forma de la espiral nunca deja.

Los resultados que se desprenden de este caso se describen a continuación:

Figura 4.22 Errores medidos en la función de error de reconstrucción a la salida de un circuito RC de una

etapa para una configuración en espiral.

-3 -2 -1 0 1 2 3

-3

-2

-1

0

1

2

3

0.15

0.15

0.15

0.15

0.15

0.15

0.3

0.3

0.3

0.3

0.3

0.3

0.3

0.3

0.45

0.45

0.75

0.75

0.750.75

0.75

0.75

X

Y

Page 87: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

73

Figura 4. 23 Función de error reconstrucción espiral utilizando un filtro RC de una etapa.

Figura 4.24 Vista superior de la función de error de reconstrucción a la salida de un circuito RC de una

etapa utilizando un tipo de muestreo en espiral.

En la Figura 4.22, se puede ver que el error máximo medido dentro del proceso es de 0.75 a las orillas de la espiral mientras que en el centro varían desde 0.1 hasta 0.4, siendo 0.1 el más pequeño.

De la Figura 4.23, se puede observar que la influencia de las muestras al centro de la espiral es más fuerte y que va disminuyendo conforme se aleja del mismo. También puede notarse como tres de las esquinas de la figura tienen un área relativamente mayor, esto ocurre porque la forma de espiral al contrario de los círculos concéntricos no llega a cerrarse y por lo tanto no llega a cubrir todo el espacio a muestrear.

La Figura 4.24 es la vista aérea de la función de error de reconstrucción. Aquí puede apreciarse mejor la idea anterior, se puede ver como una esquina superior izquierda es más pequeña que las demás, mientras que las otras tres esquinas tienen un área mayor.

4.9 FUNCIÓN DE ERROR DE RECONSTRUCCIÓN ESPIRAL UTILIZANDO UN CIRCUITO RC DE DOS ETAPAS

En este segundo caso de la configuración en espiral se observa que la utilización la función de covarianza a la salida de un filtro RC de dos etapas proporciona un error menor al registrado con la función de covarianza Markoviana.

Page 88: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

74

Figura 4.25 Errores medidos en la función de error de reconstrucción a la salida de un circuito RC de dos

etapas para una configuración en espiral.

Este error es el más pequeño dentro del proceso y se encuentra justo en el centro como puede observarse en la Figura 4.25.

Figura 4.26 Función de error reconstrucción espiral utilizando un circuito RC de dos etapas.

En la Figura 4.26, se aprecia que a pesar de existir un error considerable en las esquinas, es menor que el que aparece en el mismo lugar cuando se utiliza una función de covarianza Markoviana.

Figura 4.27 Vista superior de la función de error de reconstrucción a la salida de un circuito RC de dos

etapas utilizando un tipo de muestreo en espiral.

0.020.007

0.006

0.015

0.01

0.01

0.009

0.02

0.005

0.001

0.002

0.002

0.002

0.005

0.0010.001

0.001

0.001

Page 89: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

75

Si comparamos la vista superior de la Figura 4.27 con la obtenida de una función de covarianza Markoviana se puede observar la influencia entre las muestras al centro de la espiral lo que ocasiona que la separación entre ella sea poco perceptible.

4.10 FUNCIÓN DE ERROR DE RECONSTRUCCIÓN ESPIRAL UTILIZANDO UN CIRCUITO RC DE TRES ETAPAS

Los últimos resultados obtenidos con la configuración en espiral que arrojaron estas mediciones están marcados en la Figura 4.28.

Figura 4.28 Errores medidos en la función de error de reconstrucción a la salida de un circuito RC de tres

etapas para una configuración en espiral.

El error al centro de la Figura 4.28 es muy pequeño y a las orillas del proceso el error se encuentra entre 0.0001 y 0.0005 siendo este último el máximo dentro de toda la espiral.

Figura 4.29 Vista superior de la función de error de reconstrucción a la salida de un circuito RC de tres

etapas utilizando un tipo de muestreo en espiral.

En la Figura 4.29 y en contraste con las Figuras 4.24 y 4.27 la influencia entre muestras contiguas es mayor.

0.0005

0.0002

0.0001

0.0002

0.0002

0.00020.0011

0.0001

0.0003

0.00050.0001

0.0004

0.0001

0.0001

0.0001 0

Page 90: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

76

Figura 4.30 Vista superior de la función de error de reconstrucción a la salida de un circuito RC de tres

etapas utilizando un tipo de muestreo en espiral.

En la vista superior mostrada en la Figura 4.30 puede constatarse como el espacio entre las muestras que forman la espiral es cada vez menos, por lo menos hasta el cuarto radio.

Figura 4.31 Ejemplo de una imagen muestreada uniformemente dentro de un espacio finito donde cada

muestra representa un valor de tono de color gris.

Los resultados anteriores pueden ser aplicados en campos aleatorios Gaussianos de nxm muestras y utilizando un espacio de muestreo finito. Como se ha mencionado en el capítulo 3, una imagen está representada por una serie de pixeles los cuales representan una característica de una imagen.

Por lo tanto, podríamos considerar a toda la imagen como un espacio finito y cada uno de sus pixeles como la representación de una muestra dentro de ese espacio. El concepto anterior puede entenderse mejor mirando la Figura 4.31. Ahora bien, si se quisiera utilizar cualquiera de las configuraciones anteriormente presentadas, utilizando el teorema clásico de muestreo, la imagen no podría ser reconstruida totalmente puesto que las configuraciones radial y espiral poseen una forma de circunferencia dejando información importante fuera del área de muestreo.

Una de las principales ventajas al utilizar la regla de la esperanza matemática condicional es que se puede utilizar un tipo de muestreo no uniforme [39] y dada la naturaleza de las configuraciones radial y espiral se puede utilizar una menor cantidad de muestras de información. Los siguientes resultados se obtuvieron a través de los modelos para procesos aleatorios descritos en el capítulo 2.

Page 91: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

77

Si en realidad lo que demostraron los resultados anteriormente presentados fue la relación de dependencia estadística entre las muestras dentro de un campo definido, ¿podrían utilizarse configuraciones de muestras no uniformes de forma que se adaptaran a un espacio definido de dimensiones rectangulares mxn como por ejemplo en una imagen digital?

4.12 FUNCIONES DE RECONSTRUCCIÓN CON MUESTREO NO UNIFORME

A continuación se van a describir una serie de funciones de reconstrucción y error de reconstrucción que se basan en los resultados obtenidos en la primera sección de este capítulo para demostrar que es posible utilizar configuraciones no uniformes dentro de un espacio finito rectangular. Para este capítulo sólo serán consideradas las configuraciones radial y espiral ya que fueron las que obtuvieron los mejores resultados para el ejemplo que se propondrá a continuación.

Como se mencionó en el capítulo 3, una imagen en escala de grises puede ser utilizada como un ejemplo de campo Gaussiano.

La imagen que se pretende reconstruir con las configuraciones de muestreo no uniforme radial y espiral es la siguiente:

Figura 4.32 Imagen a reconstruir utilizando muestreo radial y espiral.

La Figura 4.32 muestra una imagen en escala de grises. Esta imagen es un rostro de perfil que tiene un tamaño de 20x20 pixeles. Anteriormente, en el capítulo 3 se mencionó que un píxel representa una característica de una imagen, y en este caso cada pixel representa una característica del rostro.

Ahora bien, para poder aplicar adecuadamente las configuraciones de muestreo no uniforme espiral y radial a una imagen de 400 pixeles (20x20 pixeles) primero hay que definir el tamaño del pixel. Si bien un pixel es únicamente un valor de gris en este ejemplo, podemos considerar entonces un área que represente ese valor en un plano.

Figura 4.33 Imagen con áreas definidas como pixeles.

En la imagen 4.33, se propone un área de 4x4 unidades donde cada pixel tiene un área de 0.2x0.2 unidades, esto quiere decir que cada área con 0.2 unidades cuadrados tiene un valor único de pixel.

Page 92: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

78

4.13 CONFIGURACIÓN RADIAL Y ESPIRAL

En la Figura 4.33 se estableció el área que abarcará la imagen a reconstruir, por lo que ahora corresponde ajustar las configuraciones radial y espiral a esa área.

a) b)

Figura 4.34 Configuración a) radial y b) espiral para un espacio finito rectangular.

La Figura 4.34 muestra cómo fueron ajustadas las configuraciones de muestreo no uniformes a un plano de 4x4 unidades. Para este caso, ambas configuraciones utilizan 361 muestras de la imagen, para la configuración radial se utilizaron un total de 30 radios sobre los cuales existen 12 muestras separadas a una distancia de 0.166 unidades. Para la configuración en espiral existen 11 espiras o vueltas con 30 muestras cada una y una con 31 muestras, la separación entre espiras es de 0.167 unidades. El número de muestras y la distancia de separación entre anillos y espiras fueron propuestos para que los resultados obtenidos se pudieran comparar bajo las mismas condiciones.

a) b)

Figura 4. 35 Configuración de las muestras a) radial y b) espiral para un espacio finito rectangular.

En la Figura 4.35, se observan las diferencias que existen entre cada configuración de muestreo. A simple vista, la principal diferencia existe en el centro de las figuras, donde la concentración de muestras está distribuida de manera distinta. Por otro lado, también se puede apreciar que mientras que en la configuración radial se pueden distinguir las circunferencias generadas por los diferentes radios, en la configuración espiral no se puede ver donde termina una espira y comienza otra. La importancia de las diferencias antes mencionadas es como en conjunto con la función de covarianza influirán en el proceso de reconstrucción de la imagen que se va a utilizar como ejemplo.

Page 93: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

79

Una vez establecidos los parámetros de muestreo se procede a aplicarlos a la imagen.

a) b)

Figura 4.36 Muestreo de la imagen con configuraciones a) radial y b) espiral.

En la Figura 4.36 los conjuntos de muestras no uniformes se colocan dentro de la imagen. Es claro que dada su forma, éstos no abarcarán por completo el espacio de 4x4 unidades, nuevamente, las funciones de covarianza descritas en el capítulo 2 ayudarán a estimar los valores que se encuentran dentro de las áreas donde no se están considerando muestras.

4.14 FUNCIONES DE RECONSTRUCCIÓN RADIAL UTILIZANDO CIRCUITOS DE UNA, DOS Y TRES ETAPAS

En la Figura 4.37 pueden verse las reconstrucciones que se obtuvieron al utilizar la configuración radial utilizando una función de covarianza Cartesiana obtenida a la salida de circuitos RC de 1, 2 y 3 etapas.

Reconstrucción con la función de covarianza

RC1 Reconstrucción con la función de covarianza

RC2

Reconstrucción con la función de covarianza RC3

Figura original

Figura 4.37 Funciones de reconstrucción utilizando funciones de covarianza Cartesiana de 1 a 3 etapas y el muestreo radial.

De la Figura 4.37, vemos de forma cualitativa como la reconstrucción con una función de covarianza RC1 presenta una buena aproximación a la figura original pero sin demasiados detalles. Por otro lado, la reconstrucción con la función de covarianza RC2 tiene líneas más definidas, mientras que la reconstrucción de la imagen con la función de covarianza RC3 fue la que menos se acercó a la imagen original.

Page 94: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

80

Superficie de reconstrucción con una función de covarianza RC1

Superficie de reconstrucción con una función de covarianza RC2

Superficie de reconstrucción con una función de covcarianza 3

Figura 4.38 Superficies de reconstrucción cuando se utiliza un muestreo radial Cartesiano.

La razón por la cual la reconstrucción con la función de covarianza RC3 no obtuvo los mejores resultados puede entenderse mejor si se observa la Figura 4.38. Esta figura muestra las superficies de reconstrucción obtenidas a partir de cada una de las funciones de covarianza. Las superficies de reconstrucción representan los valores de la imagen reconstruida en el espacio. Como se puede ver, la superficie resultante de la función de covarianza RC3 pretende modelar la imagen como un proceso suave, esto es, que no presenta muchos cambios y por este motivo la imagen resultante fue la menos parecida a la original.

Reconstrucción con la función de covarianza RC1

Reconstrucción con la función de covarianza RC2

Reconstrucción con la función de covarianza RC3

Figura original

Figura 4.39 Funciones de reconstrucción utilizando una función de covarianza RC de una, dos y tres etapas y muestreo radial.

Page 95: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

81

Las reconstrucciones anteriores consideraron una función de covarianza Cartesiana, es decir, la influencia sólo actuaba en muestras que estuvieran sobre las mismas coordenadas a lo largo del eje x y del eje y. Analicemos ahora las reconstrucciones obtenidas cuando la función de covarianza es espacial, esto significa que la influencia que exista entre muestras se hará presente en un área y no sólo sobre los ejes Cartesianos.

En la Figura 4.39, se puede ver como las reconstrucciones se asemejan más a la figura original que las que se obtuvieron en la figura 4.38, esto se debe a que como se mencionó anteriormente, la influencia que existe entre las muestras dentro del proceso es espacial. Esto ayuda principalmente a que la estimación de valores de calcule mejor dentro de un área donde existan muestras cercanas. Las superficies de reconstrucción se muestran en la Figura 4.40.

Superficie de reconstrucción con la función de

covarianza RC1 Superficie de reconstrucción con la función de

covarianza RC2

Superficie de reconstrucción con la función de covarianza RC3

Figura 4.40 Superficies de reconstrucción cuando se utiliza un muestreo radial espacial.

Para fines de comparación, la Figura 4.41 muestra las reconstrucciones logradas con las funciones de covarianza RC1, RC2 y RC3 tanto espacial como Cartesianas.

Page 96: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

82

Reconstrucción con función de covarianza RC1 Reconstrucción con función de covarianza RC2

lineal

espacial

lineal

espacial

Reconstrucción con función de covarianza RC3 Figura original

lineal

espacial

Figura 4.41 Comparación entre las funciones de reconstrucción utilizando una función de covarianza RC de una, dos y tres etapas y muestreo radial.

De todas las reconstrucciones, con la configuración radial y los diferentes tipos de función de covarianza, se pueden considerar con una mejor reconstrucción a las obtenidas en las figuras RC1 y RC2 de la que utilizan la función de covarianza lineal.

Reconstrucción RC1 Reconstrucción RC2 Imagen original

Figura 4.42 Comparación entre las reconstrucciones RC1 y RC2 que utilizan la función de covarianza espacial y la imagen original.

4.15 FUNCIONES DE RECONSTRUCCIÓN ESPIRAL UTILIZANDO CIRCUITOS DE UNA, DOS Y TRES ETAPAS

Reconstrucción con función de covarianza RC1 Reconstrucción con función de covarianza RC2

Reconstrucción con función de covarianza RC3 Figura original

Figura 4.43 Funciones de reconstrucción utilizando una función de covarianza RC de una, dos y tres etapas y muestreo espiral.

La Figura 4.43 presenta las reconstrucciones obtenidas a partir de la configuración de muestreo espiral. Se puede observar de forma cualitativa que estas reconstrucciones, tienen menos detalles que las reconstrucciones con la configuración radial. Las principales áreas donde es más clara esta falta de detalle es en la zona donde se encuentran la nariz y el ojo del rostro. Las superficies de reconstrucción para esta configuración se muestran a continuación:

Page 97: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

83

Superficie de reconstrucción con la función de covarianza RC1

Superficie de reconstrucción con la función de covarianza RC2

Superficie de reconstrucción con la función de covarianza RC3

Figura 4.44 Superficies de reconstrucción cuando se utiliza un muestreo espiral.

En la Figura 4.44, se observan las superficies de reconstrucción para cada imagen. Como se ha mencionado anteriormente, los modelos de función de covarianza tratan de adaptarse al proceso que se quiere reconstruir.

En la Figura 4.45 se presentan las reconstrucciones realizadas cuando la función de covarianza es espacial. Reconstrucción con función de covarianza RC1 Reconstrucción con función de covarianza RC2

Reconstrucción con función de covarianza RC3 Figura original

Figura 4.45 Funciones de reconstrucción utilizando una función de covarianza espacial RC de una, dos y tres etapas y muestreo espiral.

Page 98: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

84

Las reconstrucciones realizadas con la función de covarianza espacial ilustran como la llamada “influencia entre muestras” ayuda a que la recuperación de la imagen tenga mejor calidad. Estas nuevas reconstrucciones presentan menos errores, en particular las reconstrucciones RC1 y RC2.

Superficie de reconstrucción con la función de covarianza RC1

Superficie de reconstrucción con la función de covarianza RC2

Superficie de reconstrucción con la función de covarianza RC3

Figura 4.46 Superficies de reconstrucción cuando se utiliza un muestreo espiral.

De las superficies de reconstrucción mostradas en la Figura 4.46 se puede destacar el comportamiento de las diferentes funciones de covarianza cuando se reconstruye la imagen. Un claro ejemplo de esto aparece si comparamos la superficie de reconstrucción RC1 y RC3. La escala de la superficie RC1 se encuentra entre valores comprendidos entre 0 y 1. Por otro, lado los límites de la superficie RC2 se encuentran entre -1 y 2. Este fenómeno se produce debido a que cada orden de función de covarianza se comporta de forma distinta según el intervalo de muestreo. El intervalo de muestreo está determinado por la distancia entre las muestras dentro del proceso. Más adelante se profundizará en este punto. Reconstrucción con función de covarianza RC1 Reconstrucción con función de covarianza RC2

lineal

espacial

lineal

espacial

Page 99: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

85

Reconstrucción con función de covarianza RC3 Figura original

lineal

espacial

Figura 4.47 Comparación entre las funciones de reconstrucción utilizando una función de covarianza RC de una, dos y tres etapas y muestreo espiral.

Igual que en el caso de la configuración de la configuración radial, la Figura 4.47 muestra la comparación entre las diferentes reconstrucciones obtenidas de los diferentes tipos de función de covarianza. Nuevamente fueron las reconstrucciones RC1 y RC2 que utilizan la función espacial de covarianza las que lograron los mejores resultados. La comparación estos resultados se muestra a continuación en la Figura 4.48:

Reconstrucción RC1 Reconstrucción RC2 Imagen original

Figura 4.48 Comparación entre las reconstrucciones RC1 y RC2 que utilizan la función de covarianza

espacial y la imagen original.

Observando todos los resultados que se obtuvieron se puede ver claramente que la reconstrucción hecha con la función de covarianza 1 espacial, tanto en la configuración radial como espiral, fueron con las que se logró la mejor estimación con respecto a la imagen original.

RC1 radial RC1 espiral Imagen original

Figura 4.49 Comparación entre las reconstrucciones RC1 radial y RC1 espiral y la imagen original.

La Figura 4.49 muestra los dos mejores resultados cualitativos según el tipo de configuración de muestreo y la función de covarianza. Lo que podemos destacar desde el punto de vista cualitativo es que a pesar de que se están empleando menos muestras para reconstruir la imagen, los resultados ofrecen reconstrucciones con una calidad aceptable.

4.16 ANÁLISIS DEL ERROR DE RECONSTRUCCIÓN PARA LAS FUNCIONES DE COVARIANZA CARTESIANAS Y ESPACIALES

Si bien, hasta ahora se ha analizado nuestro particular caso de reconstrucción de una imagen en términos cualitativos, es momento de utilizar una de las expresiones que definen a la esperanza matemática condicional. Esta expresión conocida como la función de error ayuda a medir de forma cuantitativa el error que está presente dentro de una reconstrucción.

Al igual que la función de reconstrucción, la función de error puede representarse en un plano en el espacio. Cuando se presentaron los diferentes resultados se mencionó que existían funciones de covarianza Cartesianas y espaciales, esto hacía referencia la forma en que las muestras influían en aquellas áreas donde no existe información (es decir, otras muestras). Las funciones de covarianza

Page 100: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

86

Cartesianas sólo ejercían influencia sobre las muestras que estaban colocadas en el mismo eje; mientras que las funciones de covarianza espaciales actuaban sobre un área. Es por esta razón que los resultados obtenidos con las funciones de covarianza espaciales fueron los que tuvieron mejor calidad.

Funciones de error Cartesianas Funciones de error espaciales

Tipo RC1 Tipo RC1

Tipo RC2 Tipo RC2

Tipo RC3 Tipo RC3

Figura 4.50 Funciones de error Cartesianas y espaciales a un intervalo de 0.167

Considerando que el promedio del intervalo de muestreo entre muestras adyacentes es de 0.167 tenemos las funciones de error mostradas en la Figura 4.50. Como se mencionó con anterioridad, las funciones de covarianza de tipo espacial, tienen influencia sobre un área, no siendo este el caso de las funciones Cartesianas, tal como se aprecia en la Figura 4.50.

Page 101: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

87

La representación física nos permite conocer cómo se comporta el error de reconstrucción entre las muestras que existen dentro de un proceso. Pero, para realizar un análisis cuantitativo del error es necesario calcular su valor en todo el proceso.

Comparación de errores de reconstrucción utilizando funciones de error Cartesianas

Comparación de errores de reconstrucción utilizando funciones de error espaciales

Figura 4.51 Gráfica de los valores de la función de error de reconstrucción a diferentes intervalos de muestreo utilizando funciones de covarianza Cartesianas y espaciales.

Comparación de errores de reconstrucción utilizando funciones de error Cartesianas y espaciales

Figura 4.52 Comparación de las gráficas de los valores de la función de error de reconstrucción a diferentes intervalos de muestreo utilizando funciones de covarianza Cartesianas y espaciales.

0 0.5 1 1.5 2 2.5 30

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

Distancia

Va

lor

de

l e

rro

r

RC1

RC2

RC3

0 0.5 1 1.5 2 2.5 30

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

Distancia

Va

lor

de

l e

rro

r

RC1

RC2

RC3

0 0.5 1 1.5 2 2.5 30

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

Distancia

Va

lor

de

l e

rro

r

RC1-C

RC2-C

RC3-C

RC1-E

RC2-E

RC3-E

Page 102: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

88

Las Figuras 4.51 y 4.52 muestran la comparación de los valores de error cuando se utilizan funciones de covarianza Cartesianas y espaciales. Para el caso Cartesiano, el valor del error en la función de covarianza RC1 tiende a incrementarse más rápido que en las funciones de covarianza RC2 y RC3, pero llegando a una distancia de 2.5, los tres valores de error convergen y tienden a 1 de una forma muy similar. Esto quiere decir que a distancias cortas, las funciones de covarianza RC2 y RC3 logran hacer una mejor estimación de los valores en ese eje, ya que si recordamos lo dicho en secciones anteriores, una función de covarianza Cartesiana sólo tiene influencia sobre el eje donde se encuentren las muestras que están presentes en el momento que se realiza la reconstrucción. La siguiente tabla permite ver la relación que existe entre el valor del error y la distancia cuando el tipo de función de covarianza es Cartesiana.

Tabla 4.1 Valores del error de reconstrucción según la distancia y el tipo de función de covarianza Cartesiana.

Distancia Valor de error (RC1) Valor de error (RC2) Valor de error (RC3)

0 0 0 0

0.5 0.42 0.09 0.02

1 0.71 0.4 0.28

1.5 0.86 0.72 0.66

2 0.95 0.91 0.89

2.5 0.98 0.98 0.98

3 0.99 0.99 0.99

Ahora bien, en el caso de las funciones de covarianza espacial la principal diferencia que se puede notar con respecto a las funciones de covarianza Cartesianas es que el valor del error disminuye para los tres tipos de función de covarianza, especialmente para el tipo RC1. Al igual que en el caso anterior, se elaboró una tabla para poder observar mejor estas diferencias.

Tabla 4.2 Valores del error de reconstrucción según la distancia y el tipo de función de covarianza espacial.

Distancia Valor de error (RC1) Valor de error (RC2) Valor de error (RC3)

0 0 0 0

0.5 0.28 0.07 0.02

1 0.51 0.3 0.23

1.5 0.69 0.61 0.59

2 0.82 0.82 0.82

2.5 0.90 0.94 0.95

3 0.95 0.98 0.99

Tomando como referencia las reconstrucciones obtenidas anteriormente, podemos decir que el modelo que mejor se ajusta para el ejemplo mostrado es aquel proporcionado por la función de covarianza RC1.

Page 103: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

89

Tabla 4.3 Comparación de los valores del error de reconstrucción según la distancia para las funciones de covarianza Cartesiana y espacial.

Distancia Valor de error (RC1 Cartesiana)

Valor de error (RC1 espacial)

0 0 0

0.5 0.42 0.28

1 0.71 0.51

1.5 0.86 0.69

2 0.95 0.82

2.5 0.98 0.90

3 0.99 0.95

Una vez establecido el modelo que se va a utilizar y los valores de error que se encuentran dentro de las reconstrucciones, se procede a calcular las funciones de error según las configuraciones de muestreo radial y espiral.

Superficie de la función de error RC1

Cartesiana con muestreo radial Superficie de la función de error RC1 espacial

con muestreo radial

a) b)

Figura 4.53 Superficies de la función de error a) Cartesiana y b) espacial con muestreo radial

En la Figura 4.53 se pueden apreciar las superficies de la función de error cuando se utiliza un tipo de muestreo radial. En la superficie de error Cartesiana se pueden ver que el error máximo dentro de la reconstrucción es 0.8, mientras que en la superficie que utiliza la función espacial es de 0.78. Este error máximo se encuentra en las esquinas del proceso que es donde se tiene la mínima cantidad de información.

Es claro que es difícil determinar los valores de error observando únicamente la superficie de la función de error. Por esta razón, la mejor opción es utilizar el valor de la superficie desde una vista superior.

Page 104: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

90

Valores dentro de la función de error RC1 Cartesiana

Valores dentro de la función de error RC1 espacial

a) b)

Figura 4.54 Superficies de la función de error a) Cartesiana y b) espacial con muestreo radial

La Figura 4.54 muestra los valores de la función de error cuando se utiliza una función de covarianza Cartesiana y espacial y se utiliza una configuración de muestreo radial. La primera diferencia que se puede notar es que en la vista superior de la función de error de la función de covarianza espacial, las circunferencias de la configuración radial están más definidas que aquellas que se encuentran cuando se utiliza una función de covarianza Cartesiana. Como se mencionó en la sección anterior, la influencia que existe entre las muestras determina la forma de la función de error. En este caso, debido a que la influencia que existe cuando se utiliza una función espacial actúa sobre un área, los valores de error pueden ser calculados entre las áreas que separan las circunferencias, mientras que esto no es posible con la función de covarianza del tipo Cartesiano.

Superficie de la función de error RC1

Cartesiana Superficie de la función de error RC1 espacial

a) b)

Figura 4.55 Superficies de la función de error a) Cartesiana y b) espacial con muestreo espiral

0 0.5 1 1.5 2 2.5 3 3.5 40

0.5

1

1.5

2

2.5

3

3.5

4

0.05

0.05

0.1

0.1

0.1

0.1

0.35

0.5 0.55

0.6

X

Y

0 0.5 1 1.5 2 2.5 3 3.5 40

0.5

1

1.5

2

2.5

3

3.5

4

0.05

0.05

0.05

0.1

0.1

0.1

0.25

0.5

0.55 0.55

X

Y

Page 105: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

91

La explicación anterior también puede aplicarse a la configuración espiral.

El concepto de influencia entre muestras puede entenderse mejor si volvemos a la sección 4.14 donde se encuentran las funciones de reconstrucción. Ahora es más claro porqué aparecen líneas en la reconstrucción hecha con la función de covarianza Cartesiana. De la misma manera se puede entender entonces que la reconstrucción obtenida con la función de covarianza espacial obtuvo mejores resultados.

Superficie de la función de error RC1 Cartesiana

Superficie de la función de error RC1 espacial

a) b

Figura 4.56 Superficies de la función de error a) Cartesiana y b) espacial con muestreo espiral

La Figura 4.55 muestra la superficie de la función de error Cartesiana y espacial cuando se utiliza la configuración espiral. Aquí el máximo error dentro de la figura fue 0.8 para la función Cartesiana y 0.7 para la función espacial.

Tabla 4.4 Comparación de los valores del error de reconstrucción obtenidos de funciones de covarianza espaciales RC1 utilizando configuraciones de muestreo radial, espiral y uniforme.

Zona Valor del error radial Valor del error espiral Valor del error uniforme

Borde de la figura 0.1871 0.2088 0.1013

0.1677 0.1787 0.1013

0.1556 0.1628 0.1013

0.1387 0.1466 0.1013

0.1185 0.1344 0.1013

intermedia 0.1102 0.1081 0.1013

0.0986 0.0967 0.1013

0.0863 0.0833 0.1013

0.0789 0.0796 0.1013

0.0625 0.0698 0.1013

0.0460 0.0709 0.1013

Centro de la figura 0.0347 0.0365 0.1013

0 0.5 1 1.5 2 2.5 3 3.5 40

0.5

1

1.5

2

2.5

3

3.5

4

0

0.05

0.05

0.05

0.1

0.1

0.1 0.1

0.1

0.1

0.35

0.55

0.6

0.75

X

Y

0 0.5 1 1.5 2 2.5 3 3.5 40

0.5

1

1.5

2

2.5

3

3.5

4

0.05

0.05

0.050.05

0.1

0.1

0.1

0.1

0.3

0.6

0.6

0.7

X

Y

Page 106: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

92

Nuevamente en la Figura 4.56 se muestra la vista superior de la función de error cuando se utiliza la configuración de muestreo espiral. De esta figura se puede destacar que al tener una mayor concentración de muestras al centro, el error es muy pequeño comparado con otras áreas de la figura, como por ejemplo el área que se encuentra fuera de las primeras tres espiras.

La Tabla 5 muestra los resultados obtenidos a partir de la función de error desde un extremo hasta el centro de la figura.

De los resultados destaca que del borde de la figura hasta la zona intermedia el error es más pequeño si se utiliza el tipo de muestreo uniforme. Pero de la zona intermedia al centro de la figura se obtienen mejores resultados con las configuraciones no-uniformes. En las mediciones para los tipos de muestro espiral y radial los resultados son muy similares, aunque cualitativamente las reconstrucciones logradas con el tipo de muestreo radial fueron las mejor logradas.

En cualquier caso ambas cumplieron con el objetivo de la reconstrucción de la imagen. Además, ambas reconstrucciones tuvieron un promedio del 19% de error máximo en las zonas donde si había información presente y hasta un 79% de error en promedio cuando no existía ningún tipo de información, el cual es el caso más extremo. En contraste, al centro de la figura se logró un error promedio del 3% para las dos configuraciones no-uniformes en comparación con el 10% que se presentó en la misma área al utilizar una configuración de muestro uniforme.

Page 107: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

93

Capítulo 5. Conclusiones

5.1 EL MUESTREO NO UNIFORME

Se utilizó la regla de la esperanza matemática condicional para describir las funciones de reconstrucción y error de reconstrucción de campos Gaussianos. Además, se observó cómo la configuración de muestreo y la función de covarianza obtenida de cada circuito RC influyó en cada una de las reconstrucciones obtenidas.

En comparación con los resultados que se pueden obtener utilizando una configuración de muestreo uniforme se observó lo siguiente:

El error tiene un comportamiento que varía dependiendo de la posición de las muestras en el espacio, a este espacio se le conoce como intervalo de muestreo y está dado por la configuración de muestro, ya sea ésta uniforme o no uniforme.

En el muestreo uniforme, el error se distribuye de manera constante dentro del proceso, mientras que en las configuraciones no uniformes como las radiales y espirales, disminuye de manera progresiva a medida que nos acercamos al centro del campo.

En comparación con las configuraciones de muestreo uniformes, las configuraciones no uniformes pueden prescindir de cierto número de muestras para poder llevar a cabo la reconstrucción de un campo aleatorio.

Si se tuviera que discutir acerca de cuál tipo de muestreo es el que se aproxima más a los resultados que se obtienen de la configuración de muestras uniforme, la respuesta más adecuada sería que depende del tipo de imagen que se va a reconstruir. En el caso particular que aquí se presentó, la mejor reconstrucción se obtuvo de una configuración de muestreo radial.

El muestreo no uniforme de tipo radial puede utilizarse como una alternativa al muestreo uniforme. Por otro lado, el muestreo de tipo espiral también puede utilizarse como alternativa además de tener la ventaja de tener valores más aproximados a lo originales al centro del campo aleatorio.

El segundo factor importante para la realización de las reconstrucciones fue sin duda la función de covarianza. Su importancia radica en que describe la dependencia entre las muestras dentro de un proceso, lo cual podría traducirse como el comportamiento del campo aleatorio en el espacio. La finalidad de utilizar circuitos RC diferentes era precisamente obtener distintas expresiones que describieran distintos tipos de campos aleatorios. Por lo tanto, estas expresiones influían directamente en la descripción de las reconstrucciones.

Las tres funciones de covarianza que se utilizaron fueron obtenidas a partir de un análisis basado en circuitos RC debido a la simplicidad que implica obtener sus expresiones analíticas. Esto quiere decir que también pueden utilizarse otro tipo de circuitos, los cuales según la función de covarianza que se obtenga a partir de ellos, proporcionarán distintos resultados a los aquí presentados.

5.2 EL TEOREMA CLÁSICO DE MUESTREO

En cuanto a la comparación entre el teorema clásico de muestreo y la regla de la esperanza matemática condicional para describir el proceso de muestreo-reconstrucción puede mencionarse lo siguiente:

Page 108: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

94

La función de covarianza es de suma importancia en las reconstrucciones, ya que describe el comportamiento en el espacio de los campos aleatorios. Este comportamiento puede ser caótico (función de covarianza RC1), o puede ser un comportamiento suave (función de covarianza RC3)

Además, se encontró que la función de covarianza está directamente relacionada con la densidad espectral de potencia a través del teorema de Wiener-Khinchine. Esto quiere decir, que la expresión Sen x /x corresponde a un caso particular de densidad espectral finita de tipo rectangular.

El intervalo de muestreo puede tener carácter no uniforme si se utiliza la regla de la esperanza matemática condicional. Esto no es posible si se utiliza el teorema clásico de muestreo, ya que éste tiene que cumplir con ciertos criterios, entre ellos el de Nyquist.

Se puede considerar un conjunto finito de muestras del cual se obtendrá toda la información necesaria para la reconstrucción del proceso. Esto quedó demostrado con las configuraciones de muestreo espiral y radial, ya que utilizaban un número menor de muestras que la configuración de muestreo uniforme.

La función de error es el método cuantitativo por el cual se puede calcular la calidad de una reconstrucción, prácticamente en cualquier punto del campo a reconstruir. Depende principalmente del espacio de muestreo (el cual está dado directamente por la configuración de muestreo) y la función de covarianza.

5.3 TRABAJOS FUTUROS

En este trabajo, se demostró cómo es posible utilizar configuraciones no uniformes de muestreo para la reconstrucción de procesos aleatorios en dos dimensiones utilizando diferentes tipos de función de covarianza. Sin embargo, sería importante considerar configuraciones de muestreo no uniformes distintas a las que aquí se presentan con el fin de comparar los resultados que se obtuvieron en este estudio. De la misma manera, puede considerarse el utilizar funciones de covarianza distintas, lo cual implicaría el uso de circuitos distintos al RC para obtenerlas. Es claro que el uso de circuitos como por ejemplo los digitales (Chevyshev, Butterworth, etc.) van a requerir el uso de herramientas adicionales como los métodos numéricos para calcular su función de covarianza. Estas nuevas funciones de covarianza van a generar resultados diferentes de acuerdo al tipo de campo aleatorio que modelen en el espacio.

Page 109: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

95

ANEXO A:

Programas de cómputo

Page 110: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

96

Programa que calcula la función de reconstrucción utilizando una función de covarianza obtenida de un sistema lineal RC1

%%BLOQUE DE DATOS DE ENTRADA%% %ALFA TIENE UN VALOR DE 1 PARA LA NORMALIZACIÓN DE LA FUNCIÓN DE

%COVARIANZA RC1. ax = 1; ay = 1; %SE CREA EL CAMPO EN EL ESPACIO PARA EVALUAR LA FUNCIÓN DE COVARIANZA Y

%LA FUNCIÓN DE RECONSTRUCCIÓN tx = 0:0.1:4; ty = 0:0.1:4; %SE OBTIENE EL NÚMERO TOTAL DE MUESTRAS DEL PROCESO SEGÚN LA

%CONFIGURACIÓN DE MUESTREO

N = length(Tx);

% SE OBTIENE LA LONGITUD TOTAL DEL CAMPO longitud = length(tx);

%%CALCULO DE LA MATRIZ k(MATRIZ DE COVARIANZA)%% for i=1:1:N for j=1:1:N k(i,j) = exp((-ax*(abs(Tx(i) - Tx(j)))) + (-ay*(abs(Ty(i) -

Ty(j))))); end end

%MATRIZ INVERSA DE LA FUNCION DE COVARIANZA A = inv(k);

%%CALCULO DE LA FUNCION ESPERANZA MATEMATICA (DE RECONSTRUCCIÓN)%% for x = 1:1:longitud for y = 1:1:longitud rsuma(x,y) = 0; for i=1:1:N

%PARA UNA FUNCIÓN ESPACIAL, SE DEBE DE UTILIZAR LA FÓRMULA

%C = RAIZ(A^2+B^2) PARA CADA MUESTRA Y ESPACIO DE MUESTREO for j=1:1:N rt(x,y)=exp((-ax*abs(tx(x)-Tx(i)))+(-ay*abs(ty(y)-

Ty(i))))*A(i,j)*X(j); rsuma(x,y)= rsuma(x,y) + rt(x,y); end j=0; end end end

%SE GRAFICA EL CAMPO RECONSTRUIDO surf(tx,ty,rsuma) xlabel('X') ylabel('Y') zlabel('Z(X,Y)')

Page 111: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

97

Programa que calcula la función de reconstrucción utilizando una función de covarianza obtenida de un sistema lineal RC2

%%BLOQUE DE DATOS DE ENTRADA%% %ALFA TIENE UN VALOR DE 2 PARA LA NORMALIZACIÓN DE LA FUNCIÓN DE

%COVARIANZA RC2.

ax = 2; ay = 2; %SE CREA EL CAMPO EN EL ESPACIO PARA EVALUAR LA FUNCIÓN DE COVARIANZA Y

%LA FUNCIÓN DE RECONSTRUCCIÓN tx = 0:0.1:4; ty = 0:0.1:4; %SE OBTIENE EL NÚMERO TOTAL DE MUESTRAS DEL PROCESO SEGÚN LA

%CONFIGURACIÓN DE MUESTREO

N = length(Tx);

% SE OBTIENE LA LONGITUD TOTAL DEL CAMPO longitud = length(tx);

%%CALCULO DE LA MATRIZ k(MATRIZ DE COVARIANZA)%% for i=1:1:N for j=1:1:N k(i,j) = (1+(ax*abs((Tx(i)-Tx(j)))))*(1+ (ay*abs(Ty(i)-

Ty(j))))*exp((-ax*(abs(Tx(i) - Tx(j)))) + (-ay*(abs(Ty(i) - Ty(j))))); end end

%MATRIZ INVERSA DE LA FUNCION DE COVARIANZA A = inv(k);

%%CALCULO DE LA FUNCION ESPERANZA MATEMATICA (DE RECONSTRUCCIÓN)%% for x = 1:1:longitud for y = 1:1:longitud rsuma(x,y) = 0; for i=1:1:N

%PARA UNA FUNCIÓN ESPACIAL, SE DEBE DE UTILIZAR LA FÓRMULA

%C = RAIZ(A^2+B^2) PARA CADA MUESTRA Y ESPACIO DE MUESTREO for j=1:1:N rt(x,y)=(1+(ax*abs((tx(x)-Tx(i)))))*(1 + ay*abs(ty(y)-

Ty(i)))*exp((-ax*(abs(tx(x) - Tx(i)))) + (-ay*(abs(ty(y) -

Ty(i)))))*A(i,j)*X(j); rsuma(x,y)= rsuma(x,y) + rt(x,y); end j=0; end end end

%SE GRAFICA EL CAMPO RECONSTRUIDO surf(tx,ty,rsuma) xlabel('X') ylabel('Y') zlabel('Z(X,Y)')

Page 112: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

98

Programa que calcula la función de reconstrucción utilizando una función de covarianza obtenida de un sistema lineal RC3

%%BLOQUE DE DATOS DE ENTRADA%% %ALFA TIENE UN VALOR DE 2 PARA LA NORMALIZACIÓN DE LA FUNCIÓN DE

%COVARIANZA RC2.

ax = 8/3; ay = 8/3; %SE CREA EL CAMPO EN EL ESPACIO PARA EVALUAR LA FUNCIÓN DE COVARIANZA Y

%LA FUNCIÓN DE RECONSTRUCCIÓN tx = 0:0.1:4; ty = 0:0.1:4; %SE OBTIENE EL NÚMERO TOTAL DE MUESTRAS DEL PROCESO SEGÚN LA

%CONFIGURACIÓN DE MUESTREO

N = length(Tx);

% SE OBTIENE LA LONGITUD TOTAL DEL CAMPO longitud = length(tx);

%%CALCULO DE LA MATRIZ k(MATRIZ DE COVARIANZA)%% for i=1:1:N for j=1:1:N k(i,j) = (1+(ax*abs((Tx(i)-Tx(j))))+(ax^2*(Tx(i)-

Tx(j))^2)/3)*(1+(ay*abs(Ty(i)-Ty(j)))+(ay^2*(Ty(i)-Ty(j))^2)/3)*exp((-

ax*(abs(Tx(i) - Tx(j)))) + (-ay*(abs(Ty(i) - Ty(j))))); end end

%MATRIZ INVERSA DE LA FUNCION DE COVARIANZA A = inv(k);

%%CALCULO DE LA FUNCION ESPERANZA MATEMATICA (DE RECONSTRUCCIÓN)%% for x = 1:1:longitud for y = 1:1:longitud rsuma(x,y) = 0; for i=1:1:N

%PARA UNA FUNCIÓN ESPACIAL, SE DEBE DE UTILIZAR LA FÓRMULA

%C = RAIZ(A^2+B^2) PARA CADA MUESTRA Y ESPACIO DE MUESTREO for j=1:1:N rt(x,y)=(1+(ax*abs((tx(x)-Tx(i))))+ax^2*((tx(x)-

Tx(i))^2)/3)*(1+ay*abs(ty(y)-Ty(i))+ay^2*((ty(y)-Ty(i))^2)/3)*exp((-

ax*(abs(tx(x) - Tx(i)))) + (-ay*(abs(ty(y) - Ty(i)))))*A(i,j)*X(j); rsuma(x,y)= rsuma(x,y) + rt(x,y); end j=0; end end end

%SE GRAFICA EL CAMPO RECONSTRUIDO surf(tx,ty,rsuma) xlabel('X') ylabel('Y') zlabel('Z(X,Y)')

Page 113: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

99

ANEXO B:

Artículos publicados en congresos

Page 114: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

100

Page 115: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

101

Page 116: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

102

Page 117: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

103

Page 118: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

104

Page 119: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

105

Page 120: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

106

Page 121: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

107

Page 122: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

108

Page 123: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

109

Referencias

[1] C. E. Shannon, “A Mathematical Theory of Communication”, Bell System Technical Journal, Vol. 27, pp. 379-423, 623-656, July, October, 1948.

[2] A. V. Balakrishnan, “A Note on the Sampling Principle for Continuous Signals”, IRE Trans. on Inf. Theory, Vol. IT-3, pp. 143-146, 1957.

[3] A. Papoulis, "Error Analysis in Sampling Theory," Proceedings of the IEEE, vol. 54, no. 7, pp. 947-955, July 1966.

[4] D. P. Peterson and D. Middleton, "Sampling and Reconstruction of Wave Number-Limited Functions in N Dimensional Euclidean Spaces", Information and Control, Vol. 5, pp. 279-323, 1962.

[5] J. J. Clark, M. R. Palmer, P.D. Lawrence, "A Transformation Method for the Reconstruction of Functions Nonuniformly spaced Samples", IEEE Trans. on Acoustics, Speech, and Signal Processing, vol. ASSP-33, no. 4, pp. 1151-1165, 1985.

[6] R. Jankowski, H. Walukiewicz, “Modeling of Two-Dimensional Random Fields”, Probabilistic Engineering Mechanics, Volume 12, Issue 2, pp. 115-121, April 1997.

[7] Fure-Chinq Jeng; Woods, J.W., "Simulated Annealing in Compound Gaussian Random Fields [Image Processing]", IEEE Transactions on Information Theory, vol.36, no.1, pp.94-107, January 1990.

[8] Woods, John W.; Dravida, S.; Mediavilla, Ricardo, "Image Estimation Using Doubly Stochastic Gaussian Random Field Models," IEEE Transactions on Pattern Analysis and Machine Intelligenc, vol. PAMI-9, no. 2, pp. 245-253, March 1987.

[9] A. Balakrishnan, "On the Problem of Time Jitter in Sampling," IRE Transactions on Information Theory, vol. 8, no. 3, pp. 226-236, April 1962.

[10] J. Higgins, "A Sampling Theorem for Irregularly Spaced Sample Points," IEEE Transactions on Information Theory, vol. 22, no. 5, pp. 621-622, Sep 1976.

[11] J. J. Clark, M. Palmer, P. Lawrence, "A Transformation Method for the Reconstruction of Functions from Nonuniformly Spaced Samples," IEEE Transactions on Acoustics, Speech and Signal Processing, vol. 33, no. 5, pp. 1151-1165, Oct 1985.

[12] Jeng Fure-Chinq, J. W. Woods, "Compound Gauss-Markov Random Fields for Image Estimation," IEEE Transactions on Signal Processing, vol. 39, no. 3, pp. 683-697, Mar 1991.

[13] J. Goutsias, "A Comparative Study of Two useful Discrete-Valued Random Fields for the Statistical Modeling of Images," Computer Vision and Pattern Recognition, vol. 8, no.1, pp. 310-315, Jun 1988.

[14] M. F. Tappen, C. Liu, E. H. Adelson, W. T. Freeman, "Learning Gaussian Conditional Random Fields for Low-Level Vision," IEEE Conference on Computer Vision and Pattern Recognition 2007,CVPR '07, pp. 1-8, 17-22 June 2007.

[15] V. Murino, E. Frumento, F. Gabino, A. Trucco, "A Markov Random Field Approach for Restoration of Underwater Acoustic Images," IEEE Conference Proceedings Challenges of Our Changing Global Environment, pp. 1900-1906, 9-12 Oct 1995.

Page 124: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

110

[16] K. Sasaki, "A New Flexible 2D-Image Reconstruction in Computed Tomography based on Non-uniform Sampling Theorem for Spatially Band-Limited Signals," International Conference on Multisensor Fusion and Integration for Intelligent Systems 1999, pp. 50-55, 1999.

[17] D. Marco, "Markov Random Processes are not Recoverable after Quantization and Mostly not Recoverable From Samples," IEEE International Symposium on Information Theory, ISIT 2007, pp. 2886-2890, 24-29 June 2007.

[18] Y. Futian Q. Yuntao, H. Zhenfang, L. Jiming, "A Novel Hyperspectral Remote Sensing Images Classification using Gaussian Processes with Conditional Random Fields," International Conference on Intelligent Systems and Knowledge Engineering, ISKE 2010, pp. 197-202, 15-16 Nov. 2010.

[19] H. Luong, B. Goossens, J. Aelterman, L. Platisa, W. Philips, "Optimizing Image Quality in MRI: On the Evaluation of K-Space Trajectories for Under-Sampled MRI Acquisition," Fourth International Workshop on Quality of Multimedia Experience, QoMEX 2012, pp. 25-26, 5-7 July 2012.

[20] B. S. Priya, A. Suruliandi, "Empirical Evaluation of Image Reconstruction Techniques," Third International Conference on Computing Communication & Networking Technologies, ICCCNT 2012, pp. 1-8, 26-28 July 2012.

[21] F. Faille, M. Petrou, “Invariant Image Reconstruction from Irregular Samples and Hexagonal Grid Splines”, Image and Vision Computing, Volume 28, Issue 8, pp. 1173-1183, August 2010.

[22] L. Condat, “Reconstruction from Non-uniform Samples: A Direct, Variational Approach in Shift-Invariant Spaces”, Digital Signal Processing, Volume 23, Issue 4, pp. 1277-1287, July 2013.

[23] K. R. Castleman, Digital Image Processing, Prentice Hall, Upper Saddle River, N.J., 1996.

[24] F. T. Whittaker, “On the Functions which are Represented by the Expansions of the Interpolation Theory”, Proc. Royal Society of Edinburgh, A35, pp. 181–194, 1915.

[25] C. E. Shannon, “Communication in the Presence of Noise,” Proc. IRE, Volume 37, Issue 1, pp. 10–21, January 1949.

[26] H. J. Landa, “Sampling, Data Transmission and the Nyquist Rate,” Proc. IEEE, Volume 55, Issue 10, pp. 1701–1706, October 1967.

[27] J. W. Goodman, Introduction to Fourier Optics, 2nd ed., McGraw-Hill, New York, 1996.

[28] A. Papoulis, Systems and Transforms with Applications in Optics, McGraw-Hill, New York, 1966.

[29] S. P. Lloyd, “A Sampling Theorem for Stationary (Wide Sense) Stochastic Processes,” Trans. American Mathematical Society, Volume 92, Issue 1, pp. 1–12, July 1959.

[30] G. Dougherty, Digital Image Processing for Medical Applications, Cambridge University Press, 2009.

[31] J. M. S. Prewitt, “Object Enhancement and Extraction,” in Picture Processing and Psychopictorics, Eds: B. S. Lipkin and A. Rosenfeld, Academic Press, New York, 1970.

Page 125: tesis.ipn.mxtesis.ipn.mx/jspui/bitstream/123456789/17958/1/Procedimiento de... · i Contenido Índice de Figuras v Índice de Tablas viii Objetivo ix Justificación x Resumen xi Abstract

111

[32] A. Papoulis, Systems and Transforms with Applications in Optics, McGraw-Hill, New York, 1968.

[33] V. A. Kotel’nikov, “On the Transmission Capacity of the “Ether” and Wire in Electrocommunications”, Izd. Red. Upr. Svyazi RKKA, Moscow, 1933.

[34] E. Parzen, “On Spectral Analysis with Missing Observations and Amplitude Modulation”, Time Series Analysis Papers, Holden-Day, pp. 180-189, 1967.

[35] O. I. Klesov, “The Restoration of a Gaussian Random Field with Finite Spectrum by Readings on a Lattice”, Kibernetika, No. 4, pp. 41-46, 1985.

[36] F. M. Reza, An Introduction to Information Theory, McGraw-Hill, New York, 1961.

[37] E. Margolis, Y. C. Eldar, “Nonuniform Sampling of Periodic Bandlimited Signals”, IEEE Transactions on Signal Processing, vol. 56, no. 7, pp. 2728-2745, July 2008.

[38] V. Kazakov, L. Méndez, D. Rodríguez. “Análisis del error de reconstrucción de campos Gaussianos con filtros RC alimentados con ruido blanco”. XIII Congreso Nacional de Ingeniería Electromecánica y de Sistemas, México D.F., Nov. 2012

[39] V. Kazakov, L. Méndez, D. Rodríguez. “Error Functions of Gaussian Fields using Radial and Spiral Sampling”. International Conference on Mechatronics, Electronics and Automotive Engineering ICMEAE 2013, Cuernavaca Mor., Oct. 2013