caso práctico - asociación española de teledetección | aet · 2012-06-08 · ro el ratio entre...

6
Introducción Actualmente existe una gran diversidad de sensores para responder a las necesidades que exigen las técnicas de observación de la tierra. Además el desarrollo de aplicaciones requiere disponer de datos de calidad, por lo que en la práctica, el usuario debe establecer una rela- ción adecuada calidad/coste de las imágenes para trabajar. Uno de los criterios principales en la elección de imágenes suele ser, por ejem- plo, la resolución espacial, de forma que el usuario prefiere una imagen de 1 m frente a otra de 4 m. Sin embargo, ¿se comprenden ade- cuadamente estos datos?. Una llamada de aten- ción sobre los parámetros electro-ópticos que es necesario conocer, para comparar dos sen- sores, la realiza Joseph (2000) en una comuni- cación abierta, como presidente de la Comi- sión Técnica del ISPRS (International Society for Photogrammetry and Remote Sensing), de- nominada «Sensors, Platforms and Imagery», para sugerir una reflexión acerca de la infor- mación precisa que los usuarios de imágenes deberían disponer a fin de decidir por la cali- dad de las imágenes utilizadas. Otra de las dificultades a las que se enfren- tan los usuarios es que no existe una unifica- ción clara de las definiciones en la caracteri- zación de un sensor. Esta afirmación se pone de manifiesto si realizamos una consulta a los manuales técnicos, o a las tablas de caracteri- zación que proporcionan los proveedores de imágenes. Caso práctico Revisando el concepto de resolución en teledetección A. Calle y P. Salvador Departamento de Física Aplicada. Universidad de Valladolid Resumen Un sensor viene representado a través de su resolución espacial, temporal, radiométrica y espec- tral, aunque estas definiciones no siempre son usadas con precisión. El trabajo que se presenta tiene un perfil académico en teledetección, que realiza una revisión de las definiciones de las magnitudes relacionadas con el diseño de sensores, para que puedan ser comparados. Los conceptos analizados son la caracterización espacial, espectral, radiométrica y resolución temporal. Palabras clave: resolución espectral, espacial, radiométrica, MTF, PSF, NET, NE∆ρ. Abstract A revision of the concept of resolution, in remote sensing A satellite sensor is characterized by its spatial, temporal, radiometric and spectral resolution; ho- wever these features are not clearly addressed. This work has an academic profile into the remote sen- sing topics; it is a review of the main sensor magnitudes related to design of sensors, in order to have knowledge to compare them. The concepts analysed here are, mainly, the spatial, spectral and radio- metric characterization and the temporal resolution. Key words: spectral, spatial and radiometric resolution, MTF, PSF, NET, NE∆ρ. Asociación Española de Teledetección Revista de Teledetección 37, 74-79 ISSN: 1988-8740 Autor para la correspondencia: [email protected] Recibido: 28-03-12; Aceptado: 03-05-12.

Upload: trankhuong

Post on 27-Oct-2018

214 views

Category:

Documents


0 download

TRANSCRIPT

Introducción

Actualmente existe una gran diversidad desensores para responder a las necesidades queexigen las técnicas de observación de la tierra.Además el desarrollo de aplicaciones requieredisponer de datos de calidad, por lo que en lapráctica, el usuario debe establecer una rela-ción adecuada calidad/coste de las imágenespara trabajar. Uno de los criterios principalesen la elección de imágenes suele ser, por ejem-plo, la resolución espacial, de forma que elusuario pref iere una imagen de 1 m frente aotra de 4 m. Sin embargo, ¿se comprenden ade-cuadamente estos datos?. Una llamada de aten-ción sobre los parámetros electro-ópticos quees necesario conocer, para comparar dos sen-

sores, la realiza Joseph (2000) en una comuni-cación abierta, como presidente de la Comi-sión Técnica del ISPRS (International Societyfor Photogrammetry and Remote Sensing), de-nominada «Sensors, Platforms and Imagery»,para sugerir una reflexión acerca de la infor-mación precisa que los usuarios de imágenesdeberían disponer a fin de decidir por la cali-dad de las imágenes utilizadas.

Otra de las dificultades a las que se enfren-tan los usuarios es que no existe una unifica-ción clara de las definiciones en la caracteri-zación de un sensor. Esta afirmación se ponede manifiesto si realizamos una consulta a losmanuales técnicos, o a las tablas de caracteri-zación que proporcionan los proveedores deimágenes.

Caso práctico

Revisando el concepto de resolución en teledetección

A. Calle y P. SalvadorDepartamento de Física Aplicada. Universidad de Valladolid

Resumen

Un sensor viene representado a través de su resolución espacial, temporal, radiométrica y espec-tral, aunque estas definiciones no siempre son usadas con precisión. El trabajo que se presenta tieneun perfil académico en teledetección, que realiza una revisión de las definiciones de las magnitudesrelacionadas con el diseño de sensores, para que puedan ser comparados. Los conceptos analizadosson la caracterización espacial, espectral, radiométrica y resolución temporal.

Palabras clave: resolución espectral, espacial, radiométrica, MTF, PSF, NE∆T, NE∆ρ.

Abstract

A revision of the concept of resolution, in remote sensing

A satellite sensor is characterized by its spatial, temporal, radiometric and spectral resolution; ho-wever these features are not clearly addressed. This work has an academic profile into the remote sen-sing topics; it is a review of the main sensor magnitudes related to design of sensors, in order to haveknowledge to compare them. The concepts analysed here are, mainly, the spatial, spectral and radio-metric characterization and the temporal resolution.

Key words: spectral, spatial and radiometric resolution, MTF, PSF, NE∆T, NE∆ρ.

Asociación Española de Teledetección Revista de Teledetección 37, 74-79ISSN: 1988-8740

Autor para la correspondencia: [email protected]: 28-03-12; Aceptado: 03-05-12.

De forma intencionada se han incluido al-gunos términos escritos en inglés (aparte de losacrónimos), por llevar atribuido, de forma in-trínseca, un significado más preciso; en algu-nos casos se necesitaría una frase para realizaruna traducción poco afortunada.

Caracterización espacial

A menudo se ofrece la definición de reso-lución espacial como la dimensión del objetomás pequeño que se puede discernir en unaimagen. Esto es no decir nada si no se estable-ce el contraste ni se precisa la dimensión delpíxel del que procede la radiancia(W/m2/µm/sr); tal def inición resulta insuf i-ciente e imprecisa. Hay dos conceptos que tien-den a usarse como sinónimos para definir el pí-xel: el IGFOV (Instantaneous Geometric Fieldof View) que es el tamaño de la imagen del de-tector proyectado por el sistema óptico sobreel suelo (también conocido como footprint) yel GSD (Ground Sampling Distance) que cuan-tifica la distancia del suelo a la que son graba-dos dos pixeles consecutivos; si expresamos elGSD como el ángulo de muestreo del sensortendremos el IFOV (Instantaneous Field ofView) en unidades angulares.

IGFOV y GSD son conceptos diferentes pe-ro el ratio entre ellos tiene un impacto directosobre el valor de la radiancia que atribuimos aun píxel. Es muy recomendable el artículo derevisión que hace Cracknell (1998) que titulacon la pregunta: «what’s in a pixel?» acerca delcontenido radiométrico real de un píxel de ima-gen, dado que la relación que existe entre losvalores IGFOV y GSD determina la mezcla decubiertas del suelo que contribuyen al valor ra-diométrico.

Debe entenderse que el IGFOV no es unafunción cuadrada uniforme, sino que tiene unadegradación mayor en los bordes de forma quese parece a una función gaussiana tridimen-sional. Esta degradación se produce debido avarios factores: i) difracción del sistema ópti-co, ii) limitación del detector, iii) influencia delos circuitos eléctricos y iv) la interacción dela radiación con la atmósfera; todo ello tiendea generar un IGFOV parecido a una mancha de-gradada, con la consiguiente reducción del

contraste. Por ello, la función más importantepara establecer la resolución espacial es laMTF (Modulation Transfer Function) que es-tablece el contraste de la imagen. La MTFcuantifica la sensibilidad del sensor para de-tectar el contraste a través de la frecuencia delas variaciones radiométricas de la escena; di-cho de otro modo, la función MTF tiene el mis-mo significado, en el dominio de las frecuen-cias, que la PSF (Point Spread Function) en eldominio espacial. Para comprender la relaciónentre MTF y PSF y su determinación analíticaa través de un modelo de sensor se recomien-da el artículo de Markham (1985) dedicado ala caracterización espacial de los sensoresLandsat MSS (Multispectral Scanner) y Land-sat TM (Thematic Mapper).

El impacto de la forma de la PSF puede pa-sar desapercibido en la observación de varia-bles continuas, donde se manifestará como unemborronamiento de la imagen; sin embargopuede tener drásticas consecuencias cuando seobservan fenómenos en superficie que exhibendiscontinuidades de radiancia, como el caso defronteras de cubiertas, en el espectro solar(Huang et al., 2002). También en el espectrotérmico, en la observación de fenómenos pun-tuales como los hot-spots; en este sentido vé-ase Calle et al. (2009) acerca del impacto deesta función en la detección y cuantificaciónde parámetros térmicos de incendios sobre elsensor SEVIRI (Spinning Enhanced Visible &InfraRed Imager ) de MSG así como los pro-blemas que plantea el sensor MODIS (Mode-rate Resolution Imaging Spectroradiometer)para realizar la detección de hot-spots debidoal fuerte solapamiento de la PSF entre pixelescontiguos (Kaufman and Justice, 1998).

La ventaja de la función MTF es que sim-plifica la caracterización de un sensor, debidoa que trabajar en el dominio espacial equivalea obtener la MTF del sistema como el produc-to de las funciones MTF individuales que re-presentan cada uno de los factores, menciona-dos anteriormente, que degradan la imagen delsensor. En cualquier caso se impone la medi-da de la MTF cuando el sensor se encuentra envuelo porque dicho valor difiere de la aporta-da en el banco de pruebas; no sólo por el efec-to atmosférico de degradación sino por el sis-tema electrónico adicional. Las medidas de la

Revisando el concepto de resolución en teledetección 75

MTF en sensores de alta resolución espacial si-guen protocolos estándar (véase Helder et al.,2006, para el caso de IKONOS y QuickBird)

Resolución espacial: definición

La recomendación de la NASA (1973) paraestablecer un concepto de resolución espacialque permita comparar sensores fue introducirel EIFOV (Effective Instantaneous GeometricField of View) definido como la dimensión es-pacial en la superficie de la tierra correspon-diente a la frecuencia para la cual el valor dela MTF es 0,5. Debe tenerse en cuenta que loscuatro factores mencionados que degradan laMTF del sensor son diferentes para las direc-ciones de movimiento del satélite (track) y ba-rrido de línea de imagen (scan); la MTFscanestá más degradada debido al mayor impactode la componente electrónica necesaria pararegistrar los pixeles de cada línea con mayorvelocidad que en la dirección track, donde lacomponente electrónica casi no tiene efecto.Por lo tanto el valor MTF 0,5, en cada direc-ción, establece la resolución espacial corres-pondiente y, por lo tanto, diferente.

Existe un límite de frecuencia máxima es-tablecida por la mitad de la frecuencia de mues-treo (valor del GSD en el dominio de las fre-cuencias), más allá del cual, el detector nopuede discriminar ninguna variabilidad de con-traste; este límite es la frecuencia de Nyquist,fN (fN = 0.5/IFOV ciclos/rad). Si la señal que es-tá siendo muestreada tiene componentes de fre-cuencia más altas que la frecuencia de Nyquist,entonces el muestreo produce una degradacióndenominada aliasing. Precisamente el valor deMTF en la frecuencia de Nyquist es una figu-ra de mérito de los sensores.

Discusión y relación de magnitudesespaciales

La caracterización espacial se completa con la relación de las magnitudes involucradas:IGFOV, EIFOV, GSD y MTF. En el caso ideal,con una MTF de valor 1 para frecuencias me-nores de Nyquist y nula para superiores, ten-dríamos que IGFOV, EIFOV y GSD deberían

coincidir. Sin embargo en el caso real, ocurreque el EIFOV es menor que el IGFOV, por loque las funciones PSF de pixeles contiguos seencuentran superpuestas y el valor de GSD de-bería ser muy cercano al EIFOV. El grado decercanía lo establece al final la diferencia en-tre las resoluciones scan y track. Un ajuste enla dirección track implicará un exceso de so-lapamiento en la dirección scan, y mayor em-borronamiento. Este caso, no obstante, es pre-ferible a ajustar la dirección scan queconllevaría la introducción potencial de alia-sing en la dirección track.

Un ejemplo interesante es la Figura 1 adap-tada del análisis de Markham (1985), en la quelos autores han incluido algunos cálculos ex-plicativos de las magnitudes de la presente dis-cusión. En dicha f igura se muestra el sensorTM, que con un IFOV de 42,5 mrad le corres-ponde una frecuencia de Nyquist de 11.765 ci-clos/rad. Los valores de MTF 0.5 correspon-den a resoluciones de 31,7 y 35,3 metros.Ajustando el GSD a la resolución track existeun ligero solapamiento, para evitar el aliasing.

Caracterización espectral

La base física de la teledetección consisteen: observar lo interesante donde la atmósferalo permita. Ello implica diseñar sensores concapacidades espectrales en ventanas atmosfé-

76 A. Calle y P. Salvador / Revista de Teledetección (2012) 37, 74-79

Figura 1. Funciones MTF del sensor Tm y determi-nación de las resoluciones espaciales en direccionestrack y scan. En la f igura, adaptada de Markham(1985), los autores han incluido algunos cálculos ex-plicativos.

ricas, pero en longitudes de onda donde las cu-biertas del suelo exhiben discontinuidades enreflectancia y/o temperatura; ello implica labúsqueda de intervalos espectrales bien loca-lizados y mediante bandas espectrales que nosuperen un valor umbral de anchura. Aumen-tar la anchura espectral permite recibir más ra-diancia de pixeles más pequeños (mejora de ladiscriminación espacial) pero implica la mez-cla de características espectrales y por lo tan-to pérdida de información. Esta afirmación, ne-tamente cualitativa, constituye el argumento dediscusión resolución espacial versus resoluciónespectral; sin embargo no existe una definiciónclara de anchura espectral efectiva para cuan-tificarla (Dl) y lo más importante, la longitudde onda representativa, lc.

La SRF (Spectral Responsivity Function) esla función que especifica la sensibilidad con laque el sensor detecta radiancia para cada lon-gitud de onda, l, y tiene valores nulos por de-bajo y por encima de dos límites dados de lon-gitud de onda. Un método muy extendido, paraexpresar la anchura de una banda espectral, esel FWHM (Full-Width at Half-Maximum) con-sistente en establecer como Dl la diferencia en-tre los valores de l en los que la SRF tiene elvalor del 50%. Este procedimiento, sin em-bargo, es impreciso cuando se aplica a funcio-nes SRF asimétricas, que son la mayoría, dadoque lleva a establecer una longitud de onda cen-tral, lc, en el valor medio, introduciendo unerror cualitativo en la interpretación del valorde la radiancia en esa banda, al no tener encuenta la ponderación de la SRF por su forma.

Palmer (1984) realiza una discusión muy es-clarecedora acerca de los métodos de caracte-rización espectral y los inconvenientes que pre-senta cada uno, proponiendo, f inalmente, latécnica de normalización radiométrica del an-cho de banda (Radiometric bandwidth norma-lization), consistente en asignar a un sensor conSRF conocida, una función equivalente cua-drada con un valor de respuesta constante, Rn.En la Figura 2, se muestra una función asimé-trica real para esquematizar gráficamente estadefinición; el área de la función cuadrada se-rá el mismo que el área de la SRF real, el va-lor de lc es el centro de la función cuadrada yel ancho efectivo, Dl, es la anchura de la fun-ción cuadrada.

[1]

De esta forma lc es el centroide de la funciónSRF. En concepto de centroide, que no es otracosa que el concepto geométrico de centro demasas, pondera adecuadamente las funcionesSRF asimétricas. Obsérvese que SRF(l1) ySRF(l2) no tienen el valor de 0,5, que es lo quehabría sido propuesto mediante el métodoFWHM que, en el ejemplo de la Figura 2, ha-bría supuesto un sesgo hacia la izda (menor lc).

La calidad espectral de los sensores tambiénestá limitada por factores ópticos derivados delsistema telescópico que realiza la convergenciade la radiancia sobre el plano focal. Para sen-sores de alta resolución espacial (en el entornode 1 m) la longitud focal del telescopio excedelas dimensiones del bus del satélite, por lo queel diseño involucra lentes y espejos que intro-ducen algunas aberraciones y limitan la calidadespectral. Su discusión está fuera del alcancede este trabajo, pero se recomienda al lector eltrabajo de Cawthorne, et al. (2008), autores quepertenecen a SSTL (Surrey Satellite Techno-logy Limited) y que realizan una excelente re-visión de los sistemas de telescopios en satéli-tes de muy alta resolución espacial, explicandoventajas e inconvenientes, de cada diseño, re-lacionadas con la caracterización espectral y ra-diométrica. También se puede encontrar unadiscusión académica en Larson&Wertz (1999).

λc

=λ·SRF λ( )·dλ∫SRF λ( )·dλ∫

; SRF λ( )·dλ∫ = Rn·∆λ

Revisando el concepto de resolución en teledetección 77

Figura 2. Representación de una SRF asimétrica, y lafunción cuadrada auxiliar que permite definir la an-chura efectiva, ∆λ = (λ2-λ1) y la longitud central, λc

(véase texto).

Caracterización radiométrica

Otro concepto que, frecuentemente, se ma-neja con imprecisión es la resolución radio-métrica, debido a que en este campo confluyenfactores informáticos, electrónicos y físicos.De forma grosera la resolución radiométrica esentendida como el número de bits que usa unsensor para cuantificar la medida física de laradiancia (W/m2/µm/sr). Mucho más precisaes la caracterización radiométrica de un sensora través de la temperatura/reflectancia dife-rencial equivalente en ruido NE∆T/NE∆ρ(Noise Equivalent diferential Temperature/Re-flectance), en el espectro térmico/solar que sig-nif ica el mínimo cambio en temperatura/re-flectancia que puede ser detectado por elsensor. Esta definición física, sin embargo, ex-hibe una dependencia con la magnitud SNR(Signal to Noise Ratio), con el rango dinámi-co en que se establece la saturación y el nú-mero de bits de cuantificación de la señal. Conla idea de unificar los espectros térmico y so-lar, Joseph (2000) propone y usar la radianciadiferencial equivalente en ruido, NE∆R, a tra-vés de las unidades propias de la radiancia es-pectral.

Discusión y relación de magnitudesradiométricas

Es habitual encontrar la referencia del pará-metro SNR en las características de los senso-res por parte de los fabricantes, dado que esuna figura de mérito; sin embargo se alcanzanvalores elevados de SNR gracias a dispositivosexternos como el TDI (Time Delay and Inte-gration) que consiste en usar el movimiento dela imagen a lo largo de las filas que componenel array del plano focal para aumentar el tiem-po de integración de la radiancia entrante. Laventaja del uso del TDI consiste en aumentarconsiderablemente el parámetro SNR y, consi-guientemente, la resolución radiométrica; sinembargo es un elemento mecánico que puedeproducir alteración en los parámetros de apun-tamiento (control de attitude). La forma másnatural de aumentar la SNR, en satélites de al-ta resolución espacial consistiría en aumentarel intervalo de la función de respuesta espec-

tral, de forma que se aumentaría la radianciarecibida sin necesidad de aumentar el tiempode integración. Esta es la razón de que la ban-da pancromática (PAN) proporciona mejor re-solución espacial que las bandas multiespec-trales (XS); sin embargo esto conlleva lapérdida de la capacidad para discernir discon-tinuidades en la firma espectral de las cubier-tas, como se explicaba en el apartado anterior.Por lo tanto, aquí el usuario de imágenes, tie-ne expuesto el argumento de discusión entreresolución espacial versus resolución espectralversus resolución radiométrica.

Resolución temporal

El concepto de resolución temporal suele serel que presenta menor confusión de los cuatroaspectos tratados aquí; aunque debe matizarseya que debería diferenciarse de forma precisacon el concepto de tiempo de revisita.

La resolución temporal o ciclo de repeticiónespecif ica el tiempo que tarda un sensor envolver a cubrir una localización determinadamanteniendo la geometría de visión que esta-blece el ancho de barrido (conocido en ingléscomo swath). En sensores antiguos el conceptoera inequívoco y fijo pero cuando aparecieronsatélites con la capacidad de programar elapuntamiento del sensor para realizar captu-ras solicitadas (p.e. SPOT) apareció el térmi-no de «tiempo de revisita». Los sensores concapacidad de apuntamiento aminoran el tiem-po de retraso en disponer de una captura sobrecualquier lugar (pero sin mantener la geome-tría de visión), aunque el coste de la imagenes más elevado. Tal y como sugiere Joseph(2000) resolución temporal y tiempo de revi-sita son conceptos diferentes y, por lo tanto,no debieran ser usados como sinónimos pues-to que las imágenes obtenidas mediante el ci-clo natural de repetición conservan la mismageometría de visión, de forma que las varia-ciones radiométricas provocadas por la fun-ción BRDF (Bidirectional Reflectance Distri-bution Function) son mínimas, lo que noocurre en imágenes obtenidas mediante orien-tación solicitada del sensor, en aquéllos casosen que se dispone de esta posibilidad. Esta pre-cisión cobra mayor importancia cuanta más al-

78 A. Calle y P. Salvador / Revista de Teledetección (2012) 37, 74-79

ta sea la resolución espacial y sobre todo cuan-do las aplicaciones están fundamentadas en elestudio de series temporales, como los pro-ductos biofísicos derivados de los índices devegetación. Latifopvic et al. (2003) presentanuna discusión acerca de los factores geomé-tricos, y su incidencia, sobre la modelizaciónde la función BRDF.

Por otra parte, aún en el caso de conocer unvalor del ciclo de repetición, debiera aportar-se dicho parámetro a diferentes valores de la-titud o especificar el valor a latitud 0°, que re-presenta el caso más desfavorable. Joseph(2000) propone los valores de latitud 0° y 40°como estándar representativo, para poder in-terpretar y comparar esta magnitud entre dife-rentes sensores.

Conclusión y síntesis

El aumento de sistemas de observación dela tierra y la amplia oferta en imágenes de sen-sores, sobre todo en alta resolución espacial,requiere comparar su calidad y justificar el cos-te de su adquisición. Como hemos visto losprincipales factores a tener en cuenta son losque se refieren a las caracterizaciones espacial,radiométrica y espectral; notar que la resolu-ción temporal está establecida por las condi-ciones orbitales y condicionada a las necesi-dades de disponibilidad del usuario.

En cada aplicación deberá primar más unacaracterización que otra. No obstante, si sebusca un argumento global de comparaciónentre sensores, en Larson &Wertz (1999) sepropone un índice relativo de calidad RQI(Relative Quality Index) que permite compa-rar un sensor con otro cuyas característicassirven de referencia, a través de una fórmulade síntesis de magnitudes. Este índice se de-fine como:

[2]

siendo el valor MTF a la frecuencia de Nyquisty el subíndice «ref» indica el parámetro delsensor con el que se compara.

Referencias

CAWTHORNE, A., PURLL, D., & EVES, S.(2008). Very high resolution imaging using smallsatellites, 6th Responsive Space Conference, April28-May, 1, 2008. Los Angeles, CA.

CALLE, A., CASANOVA, J-L., & GONZÁLEZ-ALONSO, F. (2009). Impact of Point SpreadFunction of MSG-SEVIRI on active fire detec-tion. International Journal of Remote Sensing 30(17), 4567-4579

CRACKNELL, A. P. (1998). Review article.Synergy in remote sensing: what’s in a pixel? In-ternational Journal of Remote Sensing 19 (11):2025-2047.

HELDER, D., CHOI, J., & ANDERSON, C. (2006),On-orbit modulation transfer function (MTF) me-asurements for IKONOS and QuickBird. In Pro-ceedings of the JACIE 2006 Civil CommercialImagery Evaluation Workshop, 14-16 March,Laurel, MD, USA, sponsored by NASA/NGA/ USGS (CD-ROM).

HUANG, C., TOWNSHEND, J. R. G., LIANG, S.,KALLURI, S. N. V., & DEFRIES, R. S., (2002).Impact of sensor’s point spread function on landcover characterization: assessment and decon-volution. Remote Sensing of Environment 80:203-212.

JOSEPH, G. (2000). How well do we understandEarth observation electro-optical sensor pa-rameters? Remote Sensing of Environment 55: 9-12.

KAUFMAN, Y., & JUSTICE, C. (1998). MODISFire Products, Algorithm Theoretical Basis Do-cument. MODIS Science Team. EOS ID#2741

LARSON, W, & WERTZ, J. R. (eds.) (1999). Spa-ce Mission Analysis and Design. 3rd Ed. SpaceTechnology Library Published jointly by Micro-cosm Press and Kluwer Academic Publishers.

LATIFOVIC, R., CIHLAR, J., & CHEN, J. (2003).A Comparison of BRDF Models for the Nor-malization of Satellite Optical Data to a Stan-dard Sun-Target-Sensor Geometry. IEEE Trans-actions on Geoscience and Remote Sensing 41(8): 1889-1898.

MARKHAM, B. L. (1985). The Landsat SensorsSpatial Responses. IEEE Transactions on Geos-cience and Remote Sensing, GE-23 (6): 864-875

NASA SP 335 (1973). Advanced scanners and ima-ging systems for earth observation. WorkingGroup Report, NASA/GSFC.

PALMER, J. M. (1984). Effective Bandwidths forLANDSAT-4 and LANDSAT-D MultispectralScanner and Thematic Mapper Subsystems. IEEETransactions on Geoscience and Remote SensingGE-22, 3: 336-338.

RQI =SNR

SNRref

MTF

MTFref

GSDref

GSD

Revisando el concepto de resolución en teledetección 79