fusión de imágenes multiespectrales y pancromáti- …en este artículo se presentan alternativas...

12
INTRODUCCIÓN La fusión de información captada por distintos sensores es una habilidad o capacidad natural de muchos seres vivos. Éstos, combinan de forma natural datos (imágenes, sonidos, olores…) recogi- dos por distintos sensores (ojos, oídos, nariz…), con el fin de tener conocimiento del entorno que les rodea y de los hechos o eventos que ocurren en ese entorno. En las últimas décadas, se han intentado emular muchas de estas capacidades para combinar datos de múltiples sensores y obtener, de este modo, información que no está disponible al operar con un único sensor de forma individual. Para hacer referencia a este concepto de combinación de datos procedentes de distintas fuentes, se emplean términos como “multiresolution correlation”, “multisource integration” o “data fusion” entre otros. Revista de Teledetección. 2002. 18: 63-73. N.º 18 - Diciembre 2002 63 Fusión de imágenes multiespectrales y pancromáti- cas: nuevas alternativas metodológicas basadas en las transformaciones wavelet discretas empleando el algoritmo de Mallat M. González-Audícana, R. García y A. Seco Correo electrónico: [email protected] Departamento de Proyectos e Ingeniería Rural. Universidad Pública de Navarra. Campus Arrosadía s/n 31006 Pamplona RESUMEN Por su naturaleza complementaria, la fusión de imágenes multiespectrales y pancromáticas es una técnica cada vez más utilizada para obtener imágenes de alta resolución espectral y espacial. Proba- blemente, los métodos de fusión más empleados sean los basados en las transformaciones IHS y el ACP. El mayor inconveniente de estos métodos es que tienden a modificar la información espectral de la imagen multiespectral original. En ocasiones, por la utilidad que se desea dar a la imagen fusionada, tal variación de información no es asumible. En este artículo se presentan nuevas alternativas metodológicas que incorporan las transformaciones wavelet discretas al proceso de fusión de imágenes mediante métodos basados en las transformaciones IHS o el ACP, que permiten minimizar el problema antes citado. La validez de los diferentes métodos de fusión se estima a través del análisis de la calidad espectral y espacial del resultado de la fusión de imágenes SPOT 4 XI (20m) e IRS PAN (5m) captadas en distinta época y año, y correspondientes a la zona de regadío de Villafranca-Cadreita en Navarra. PALABRAS CLAVE: fusión, algoritmo de Mallat, transformación wavelet, IHS, ACP. ABSTRACT Because of its complementary nature, multispectral and panchromatic image fusion is becoming a widely used technique to obtain high spectral and spatial resolution images. Some of the most popular image- fusion methods are those based on the IHS transfor- mation and the PCA. The main drawback of these methods is the high distortion of the original spectral information that the resulting multispectral images present. In this article we present new fusion alternatives methods based on the IHS transform or the PCA, using the discrete wavelet transform. These methods allow to minimize the spectral distortion problem. We have used these fusion methods, as well as standard IHS and PCA methods to merge SPOT 4 XI and IRS PAN images collected on different year and season and corresponding to the Villafranca-Cadreita irrigated area, in Navarre (Spain). We have estimated the validity of each fusion met- hod by analyzing, both visually and quatitatively, the spectral and spatial quality of the resulting fused images. KEY WORDS: image-fusion, Mallat’s algorithm, wavelet transform, IHS, PCA.

Upload: others

Post on 10-Jun-2020

5 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Fusión de imágenes multiespectrales y pancromáti- …En este artículo se presentan alternativas metodo-lógicas que incorporan las transformaciones wave-let discretas al proceso

INTRODUCCIÓN

La fusión de información captada por distintossensores es una habilidad o capacidad natural demuchos seres vivos. Éstos, combinan de formanatural datos (imágenes, sonidos, olores…) recogi-dos por distintos sensores (ojos, oídos, nariz…),con el fin de tener conocimiento del entorno que lesrodea y de los hechos o eventos que ocurren en eseentorno.

En las últimas décadas, se han intentado emularmuchas de estas capacidades para combinar datosde múltiples sensores y obtener, de este modo,información que no está disponible al operar conun único sensor de forma individual. Para hacerreferencia a este concepto de combinación dedatos procedentes de distintas fuentes, se empleantérminos como “multiresolution correlation”,“multisource integration” o “data fusion” entreotros.

Revista de Teledetección. 2002. 18: 63-73.

N.º 18 - Diciembre 2002 63

Fusión de imágenes multiespectrales y pancromáti-cas: nuevas alternativas metodológicas basadas enlas transformaciones wavelet discretas empleandoel algoritmo de Mallat

M. González-Audícana, R. García y A. SecoCorreo electrónico: [email protected]

Departamento de Proyectos e Ingeniería Rural. Universidad Pública de Navarra.Campus Arrosadía s/n 31006 Pamplona

RESUMEN

Por su naturaleza complementaria, la fusión deimágenes multiespectrales y pancromáticas es unatécnica cada vez más utilizada para obtener imágenesde alta resolución espectral y espacial. Proba-blemente, los métodos de fusión más empleados seanlos basados en las transformaciones IHS y el ACP. Elmayor inconveniente de estos métodos es que tiendena modificar la información espectral de la imagenmultiespectral original. En ocasiones, por la utilidadque se desea dar a la imagen fusionada, tal variaciónde información no es asumible.

En este artículo se presentan nuevas alternativasmetodológicas que incorporan las transformacioneswavelet discretas al proceso de fusión de imágenesmediante métodos basados en las transformacionesIHS o el ACP, que permiten minimizar el problemaantes citado.

La validez de los diferentes métodos de fusión seestima a través del análisis de la calidad espectral yespacial del resultado de la fusión de imágenes SPOT4 XI (20m) e IRS PAN (5m) captadas en distintaépoca y año, y correspondientes a la zona de regadíode Villafranca-Cadreita en Navarra.

PALABRAS CLAVE: fusión, algoritmo de Mallat,transformación wavelet, IHS, ACP.

ABSTRACT

Because of its complementary nature, multispectraland panchromatic image fusion is becoming a widelyused technique to obtain high spectral and spatialresolution images. Some of the most popular image-fusion methods are those based on the IHS transfor-mation and the PCA. The main drawback of thesemethods is the high distortion of the original spectralinformation that the resulting multispectral imagespresent.

In this article we present new fusion alternativesmethods based on the IHS transform or the PCA,using the discrete wavelet transform. These methodsallow to minimize the spectral distortion problem.

We have used these fusion methods, as well asstandard IHS and PCA methods to merge SPOT 4 XIand IRS PAN images collected on different year andseason and corresponding to the Villafranca-Cadreitairrigated area, in Navarre (Spain).

We have estimated the validity of each fusion met-hod by analyzing, both visually and quatitatively, thespectral and spatial quality of the resulting fusedimages.

KEY WORDS: image-fusion, Mallat’s algorithm,wavelet transform, IHS, PCA.

Page 2: Fusión de imágenes multiespectrales y pancromáti- …En este artículo se presentan alternativas metodo-lógicas que incorporan las transformaciones wave-let discretas al proceso

Este trabajo se centra en la fusión de un determi-nado tipo de datos, imágenes espaciales y más con-cretamente, imágenes captadas por sensores queoperan a distinta resolución espacial y espectral.Debido a condicionantes propios del diseño de lossensores, existe una relación inversa entre la reso-lución espacial y espectral de éstos. En general, lossensores con alta resolución espectral, que se carac-terizan por captar radiancia procedente de distintascubiertas en un número elevado de bandas delespectro electromagnético, no presentan una resolu-ción espacial óptima y viceversa.

Disponer de imágenes de alta resolución espec-tral y espacial es importante cuando se acometenestudios en zonas urbanas, zonas forestales hetero-géneas o zonas agrícolas muy parceladas. Por unlado, una alta resolución espectral facilita la dife-renciación o discriminación de cubiertas. Por otrolado, es necesaria una alta resolución espacial parapoder delimitar de forma precisa la superficie ocu-pada por cada cubierta, así como para localizar dis-tintas estructuras o accidentes del terreno.

Para Yocky (1995), la combinación de imágenesde distinta resolución constituye una nueva técnicade procesamiento, denominada “fusión de imáge-nes”, cuyo principal objetivo es la mejora aparentede las imágenes, así como el aumento de la fiabili-dad de su interpretación (Pohl y VanGenderen,1998).

Debido a su naturaleza, la fusión de imágenesmultiespectrales y pancromáticas es una soluciónampliamente utilizada para la obtención de imáge-nes de alta resolución espectral y espacial. Proba-blemente, los métodos de fusión más empleadossean los basados en las transformaciones Intensi-dad-Tono-Saturación (IHS) (Haydn et al., 1982;Welch y Ehlers, 1987; Carper et al., 1990; Ehlers,1991) así como los basados en el análisis de com-ponentes principales (ACP) (Chavez et al., 1991).El mayor inconveniente de estos métodos de fusión,genéricamente denominados de Sustitución deComponentes (Shettigara, 1992), es la distorsiónespectral que presentan las imágenes fusionadasresultantes respecto a la imagen multiespectral ori-ginal. En ocasiones, por la utilidad que se desea dara las imágenes fusionadas, tal distorsión o variaciónde información espectral no es asumible.

En los últimos años, distintos investigadores(Yocky, 1995; Gauguet-Duport et al., 1996; Zhou etal., 1998; Nuñez et al, 1999; Wald et al., 1997;Ranchin y Wald, 2000) han propuesto nuevos méto-dos de fusión basados en el análisis multirresolu-

ción y las transformaciones wavelet, que permitenminimizar el problema anteriormente citado.

En este artículo se presentan alternativas metodo-lógicas que incorporan las transformaciones wave-let discretas al proceso de fusión de imágenesmediante métodos clásicos basados en las transfor-maciones IHS y el ACP.

Tanto los procedimientos clásicos de fusión comonuevos procedimientos aquí propuestos, se empleanpara fusionar imágenes SPOT 4 XI e IRS-1D PAN,captadas en noviembre de 1999 y junio de 2000 res-pectivamente, y correspondientes a la zona de rega-dío de Villafranca-Cadreita (Navarra).

La validez o utilidad de cada método de fusión seha evaluado a través del análisis de la calidadespectral y espacial de las imágenes fusionadasresultantes. Estos análisis de calidad se han llevadoa cabo comparando, visual y cuantitativamente, lasimágenes fusionadas con la multiespectral y pan-cromática originales (SPOT 4 XI e IRS-1D PANrespectivamente).

Las nuevas propuestas metodológicas presenta-das en este trabajo, basadas en el empleo de lastransformaciones wavelet discretas, permiten obte-ner imágenes fusionadas de mayor calidad que losmétodos clásicos de fusión.

MÉTODOS CLÁSICOS DE FUSIÓN

Para que dos imágenes puedan fusionarse esnecesario que sean perfectamente superponibles,por lo que tanto la imagen multiespectral como lapancromática se corrigen geométricamente. El pro-ceso de corrección de la imagen multiespectral seutiliza además para remuestrearla con el fin deigualar el tamaño de píxel de esta imagen al de laimagen pancromática.

Tanto el método de fusión IHS como el ACP sebasan en el mismo principio: disociar la informa-ción espacial de una imagen multiespectral de suinformación espectral, aplicando transformacioneslineales.

Método IHS

En general, el color de un determinado píxel sedefine en función de sus componentes, es decir, enfunción de su contenido de Rojo, Verde y Azul. Deforma alternativa, puede representarse el color deun píxel en función no de sus componentes, sino de

M. González-Audícana, R. García y A. Seco

64 N.º 18 - Diciembre 2002

Page 3: Fusión de imágenes multiespectrales y pancromáti- …En este artículo se presentan alternativas metodo-lógicas que incorporan las transformaciones wave-let discretas al proceso

sus propiedades, es decir, en función de su Intensi-dad (I), Tono (H) y Saturación (S).

La amplia utilización de estas transformacionespara fusionar imágenes reside en el hecho de quelas transformaciones IHS logran desacoplar lainformación espectral de una composición RGB enlas componentes H y S, y aíslan en la componente Igran parte de la información espacial (Pohl y VanGenderen, 1998).

Se han desarrollado diversos algoritmos que per-miten convertir los valores tricromáticos RGB avalores de IHS. Además del tiempo de procesa-miento, estos algoritmos se diferencian en la meto-dología empleada para calcular el valor de la com-ponente I.

Independientemente del algoritmo seleccionado,la transformación IHS se aplica siempre a composi-ciones RGB lo que implica que la fusión sólo sepodrá realizar para tres bandas de la imagen mul-tiespectral. Como resultado de esta transformaciónse obtienen las nuevas imágenes de I, H y S. Tal ycomo muestra la Figura 1, la componente I se sus-tituye por la imagen pancromática cuyo histogramapreviamente se ha igualado al de la imagen I, con elfin de minimizar la distorsión espectral en la ima-gen fusionada. La transformación IHS inversa per-mite obtener la imagen RGB fusionada, a la que seha incorporado el detalle espacial de la imagen pan-cromática.

Método ACP

La mayoría de los sensores multiespectrales reco-gen información en bandas adyacentes del espectroelectromagnético lo que habitualmente implicadetectar información redundante, ya que muchas delas cubiertas existentes sobre la superficie terrestretienden a presentar comportamientos similares enregiones próximas del espectro.

En este contexto, el ACP permite sintetizar lasbandas originales creando nuevas bandas, los com-ponentes principales (CP), que recogen y reorgani-zan la información original.

En general, la primera componente principal (CP1)recoge información común a todas las bandas utili-zadas como datos de entrada en el ACP, es decir, lainformación espacial, mientras que la informaciónespectral propia de cada una de las bandas se recogeen el resto de componentes principales (Chavez yKwarteng, 1989). Esto hace que el ACP se presentecomo una técnica muy apropiada para la fusión deimágenes multiespectrales y pancromáticas.

En este caso, todas las bandas de la imagen mul-tiespectral original constituyen los datos de entradapara el ACP. Como resultado de este análisis seobtienen nuevas bandas, no correlacionadas entresí, los componentes principales. La primera compo-nente es reemplazada por la imagen pancromática,cuyo histograma previamente se ha igualado al dela primera componente principal. Finalmente, tal ycomo se aprecia en la Figura 2, se aplica el análisisinverso (ACP-1) al conjunto de datos formado por laimagen pancromática modificada y los CP2, CP3,CP4 y se obtienen las nuevas bandas fusionadas alas que se ha incorporado el detalle de la imagenpancromática.

MÉTODOS MEJORADOS: MÉTODOAWI, SWI, AWPC y SWPC

Cuando se emplean, para la fusión de imágenesmultiespectrales y pancromáticas, métodos basadosen las transformaciones IHS y el ACP clásicos, seasume que estas transformaciones permiten diso-ciar la información espectral y espacial de las imá-genes multiespectrales a las que se aplican. Estahipótesis nunca se cumple de forma absoluta. Dehecho, las componentes Tono, Saturación y los CP2

al CPn llevan asociada información espacial delmismo modo que las imágenes Intensidad y CP1

siempre llevan asociada cierta información espec-

Fusión de imágenes multiespectrales y pancromáticas: nuevas alternativas...

N.º 18 - Diciembre 2002 65

Figura 1. Fusión de imágenes SPOT 4 XI e IRS-ID PANutilizando el método sustitutivo basado en las transforma-ciones IHS.

Page 4: Fusión de imágenes multiespectrales y pancromáti- …En este artículo se presentan alternativas metodo-lógicas que incorporan las transformaciones wave-let discretas al proceso

tral. Por ello, es habitual que la información espec-tral de las imágenes fusionadas difiera de la de lamultiespectral original, especialmente si las imáge-nes a fusionar han sido captadas en distintas fechas

La calidad espectral y espacial de las imágenesfusionadas obtenidas utilizando los métodos IHS yACP podría mejorar sustancialmente si en lugar desustituir los componentes Intensidad y CP1 por laimagen pancromática, se introdujera en estas com-ponentes sólo el detalle espacial de la imagen pan-cromática que no está presente en la multiespectral.Esta es la idea central de las alternativas metodoló-gicas presentadas en este artículo.

Tanto la extracción del detalle de la imagen pan-cromática como su incorporación a las componen-tes Intensidad o CP1 se realiza empleando el análi-sis multirresolución propuesto por Mallat (1989).

Análisis Multirresolución y TransformacionesWavelet

El análisis multirresolución permite descomponerdatos bidimensionales en componentes de distintafrecuencia y estudiar cada componente a una reso-lución acorde con su escala. A diferente resolución,el detalle de una imagen caracteriza diferentes es-tructuras físicas de la escena (Mallat, 1989); a reso-luciones groseras, este detalle corresponde a las

estructuras de mayor tamaño mientras que a resolu-ciones más detalladas, esta información correspon-de a las estructuras de menor tamaño

El concepto de análisis multirresolución se derivade la idea de algoritmos piramidales empleada porprimera vez por Burt y Adelson (1983), quienesemplearon estos algoritmos para analizar el detallede señales a diferentes resoluciones. Con el fin defacilitar los cálculos, Burt y Adelson trabajaron conresoluciones decrecientes diádicas. También Mallatutiliza este factor de degradación.

Para poder comprender el concepto de análisismultirresolución aplicado a datos bidimensionaleses muy útil imaginar una pirámide: la base de lapirámide representa la imagen original, con ‘f’ filasy ‘c’ columnas. Cada nivel de la pirámide, al que seaccede desde el nivel inmediatamente inferior, esuna aproximación de la imagen original. Se cumpleque en cada nivel N la imagen aproximacióntiene‘f/2N’ filas y ‘c/2N’ columnas, es decir, confor-me se asciende de escalón o nivel en la pirámide,las sucesivas aproximaciones van teniendo cadavez menor resolución.

Cada una de estas aproximaciones se obtienenutilizando funciones de escala. Éstas son funcionesasociadas a la Wavelet Madre c(x) que permitenanalizar los datos a diferentes resoluciones.

Una Wavelet Madre es una función c(x) e L2(R),

es decir, , que cumple que

, donde c(x)es la trans-

formada de Fourier de c(x). Por lo tanto, es unafunción oscilante, su integral es nula y decae rápi-damente a medida que ⁄x ⁄→ ∞.

Las funciones wavelet se generan a partir dedilataciones y traslaciones de la función WaveletMadre c(x) según

donde a,b e R y a>0. El parámetro a se denominafactor de dilatación y el factor b, de traslación.

La construcción de familias wavelet ha sido obje-to de numerosas publicaciones. Son muy conocidasy utilizadas las desarrolladas por Meyer (1990),Daubechies (1992) y Cohen et al (1992). Cadafamilia conduce a descomposiciones diferentes conpropiedades diferentes.

M. González-Audícana, R. García y A. Seco

66 N.º 18 - Diciembre 2002

Figura 2. Fusión de imágenes SPOT 4 XI e IRS-ID PANutilizando el método sustitutivo basado en el ACP.

Page 5: Fusión de imágenes multiespectrales y pancromáti- …En este artículo se presentan alternativas metodo-lógicas que incorporan las transformaciones wave-let discretas al proceso

Las funciones de escala se obtienen de formasimilar a las funciones wavelet

donde j y k son números enteros y la familia de fun-ciones 5fj,k(x)6 constituyen una base ortonormal.

La aproximación de una función bidimensionalde energía finita f(x,y) a resolución 2j, se obtienepor la siguiente convolución:

donde m y n son números enteros, f(x) es la fun-ción de escala unidimensional y f2j (x) = 2jf (2j x).

La diferencia de información existente entre dosescalones sucesivos de la pirámide, por ejemploentre las imágenes A2j+1f a resolución 2j+1 y A2j f aresolución 2j, la dan las transformaciones wavelet,y se obtiene por las siguientes convoluciones:

donde m y n son números enteros, c(x) es la funciónwavelet unidimensional y c2j (x) = 2j c (2j x). D1

2j f,D2

2j f y D32j f se denominan coeficientes wavelet o

coeficientes de detalle y recogen el detalle horizo-nal, vertical y diagonal (altas frecuencias) que sepierde al pasar de una imagen aproximación deresolución 2j+1 a 2j. Si la imagen aproximación A2j+1ftienen ‘f’ filas y ‘c’ columnas, cada imagen A2j f, D1

2j f,D2

2j f y D32j f, y tendrá ‘f/2’ filas y ‘c/2’ columnas.

Si el proceso se invierte, la imagen original podráreconstruirse exactamente a partir de una imagenaproximación y todos los planos wavelet o coefi-cientes de detalle horizontal, vertical y diagonal querecojan la diferencia de información entre la ima-gen aproximación y la imagen original, es decir,A2j+1f podrá reconstruirse exactamente a partir de A2j

f, D12j f, D2

2j f y D32j f.

La implementación practica de la transformaciónwavelet discreta asociada al análisis multirresolu-ción de Mallat no se realiza utilizando directamen-te las funciones de escala (f) y wavelet (c), sinoaplicando convoluciones con filtros de cuadratura,filtros h y g asociados a dichas funciones, seguidasde operaciones de remuestreo.

El filtro h, asociado a la función de escala, es unfiltro unidimensional de paso bajo que permite ana-

lizar los datos de baja frecuencia, mientras que elfiltro g, asociado a la función wavelet es un filtrounidimensional de paso alto que permite analizarlos componentes de alta frecuencia, es decir, eldetalle espacial de la imagen

El número de coeficientes de estos filtros asícomo el valor de los mismos depende de la funciónWavelet Madre que se utilice. En este trabajo, se haempleado como función Wavelet Madre la waveletde Daubechies ‘db4’ que da lugar a filtros unidi-mensionales de cuatro coeficientes (Daubechies,1992). Los coeficientes de los filtros asociados a lafunción wavelet seleccionada y a su correspondien-te función de escala son:

Métodos AWI, SWI, AWPC y SWPC

La idea central de las nuevas alternativas metodo-lógicas propuestas en este trabajo es insertar en lascomponentes Intensidad y PC1 únicamente la infor-mación espacial de la imagen pancromática que noestá presente en la multiespectral en lugar de sustituirestas componentes por toda la imagen pancromática.Tanto para extraer de la imagen pancromática eldetalle espacial no presente en la multiespectralcomo para introducir este detalle en las componentesIntensidad y CP1, se emplean las transformacioneswavelet discretas basadas en el algoritmo de Mallat.

A continuación se muestra el procedimiento aseguir para fusionar imágenes multiespectrales ypancromáticas empleando métodos IHS o ACPmejorados, aplicado al caso SPOT 4 XI e IRS-1DPAN, en el que el ratio de resolución espacial entrelas imágenes a fusionar es 4:1.

0. Georreferenciar u ortorectificar las imágenes afusionar, remuestreando la imagen multiespectralpara conseguir que sea perfectamente superponiblea la pancromática, es decir, remuestrear la imagenmultiespectral de 20 m a 5 m.

1. Aplicar la transformación IHS o el ACP a laimagen multiespectral y obtener las componentesIntensidad o CP1.

2. Generar una nueva imagen pancromática cuyohistograma sea similar al de la imagen Intensidad oCP1, tal y como puede apreciarse en la Figura 3.

Fusión de imágenes multiespectrales y pancromáticas: nuevas alternativas...

N.º 18 - Diciembre 2002 67

Page 6: Fusión de imágenes multiespectrales y pancromáti- …En este artículo se presentan alternativas metodo-lógicas que incorporan las transformaciones wave-let discretas al proceso

3. Aplicar la transformación wavelet discreta a lasimágenes Intensidad o CP1 así como a la corres-pondiente imagen pancromática, empleando lawavelet seleccionada, en este caso, la wavelet ‘db4’de Daubechies

Al ser el ratio de resolución espacial entre lasimágenes a fusionar 4:1, se aplicará una descompo-sición de segundo orden a ambas imágenes, demodo que en cada caso se obtendrá una imagenaproximación, con una resolución de 20 m y loscoeficientes wavelet que recogen el detalle horizon-tal, vertical y diagonal que se pierde al pasar de unaresolución de 5 m a 10 m y de 10 m a 20 m.

4. Introducir el detalle espacial de la imagen pan-cromática que le falta a la multiespectral (de 5m a20 m) en las componentes Intensidad o CP1, a tra-

vés de la transformación wavelet discreta inversa,de forma aditiva,

o sustitutiva,

5. Incorporar el detalle espacial de la imagen pan-cromática en la multiespectral a través de la trans-formación IHS-RGB o el ACP inverso.

Si el detalle se incorpora de forma sustitutiva, en lacomponente I, denominamos al método SWI (Susti-

M. González-Audícana, R. García y A. Seco

68 N.º 18 - Diciembre 2002

Figura 3. Fusión de imágenes SPOT 4 XI e IRS-1D PAN utilizando el método AWPC o SWPC, basado en el algoritmode Mallat.

Page 7: Fusión de imágenes multiespectrales y pancromáti- …En este artículo se presentan alternativas metodo-lógicas que incorporan las transformaciones wave-let discretas al proceso

tución de los coeficientes wavelet en la componen-te Intensidad), mientras que si el detalle se incorpo-ra de forma aditiva, AWI. De igual modo, si el deta-lle se incorpora en la CP1, denominamos al métodoSWPC o AWPC.

El método AWL, aplicado por primera vez porNuñez et al (1997) es otra alternativa metodológicaal método IHS, que emplea la transformaciónwavelet discreta para incorporar en la componenteIntensidad (denominada L) el detalle espacial de laimagen pancromática que le falta a la multiespec-tral. Nuñez et al emplean el algoritmo “à trous”para la transformación wavelet discreta en lugar delalgoritmo de Mallat.

RESULTADOS

Tanto los métodos clásicos de fusión como lasalternativas metodológicas propuestas en este tra-bajo se emplean para fusionar imágenes SPOT 4 XIe IRS-1D PAN. Las imágenes fueron captadas ennoviembre de 1999 y junio de 2000 respectivamen-te y cubren la zona de regadío de Villafranca-Cadreita, al Sur de Navarra

Como paso previo a la fusión, tanto la imagenSPOT 4 XI como la IRS-1D PAN, se ortorrectificantomando como referencia las ortofotos 1:5000correspondientes a los municipios de Villafranca yCadreita. El proceso de ortorrectificación permiteademás, remuestrear la imagen multiespectral de20 m a 5 m e igualar de este modo el tamaño depixel de esta imagen al de la imagen pancromáticacon la que se va a fusionar

El algoritmo de transformación IHS empleado eneste trabajo se basa en el modelo de Triángulo deSmith (1978) y considera la componente Intensidadcomo la media de los valores RGB

Por otro lado, el ACP aplicado en este trabajo esel no estandarizado, por lo que el cálculo de losautovectores se realiza a partir de la matriz varian-za-covarianza.

La fiabilidad o validez de los métodos de fusiónempleados se estima a partir del análisis de la cali-dad espectral y espacial de las imágenes fusionadasresultantes.

Calidad espectral

Con el fin de que las imágenes fusionadas puedanutilizarse para aplicaciones tales como la clasifica-

ción de cultivos, la discriminación de cubiertasforestales, etc… es necesario que el proceso defusión no distorsione información espectral de laimagen multiespectral original.

La calidad espectral de las imágenes fusionadaspodría evaluarse fácilmente comparando estas imá-genes con la que habría captado el sensor multies-pectral si lo hiciese con la resolución espacial delsensor pancromático del IRS-1D. Puesto que estacomparación no es posible, las imágenes fusiona-das, de 5m de resolución espacial, se degradanhasta 20m de resolución y su contenido espectral secompara al de la imagen SPOT multiespectral ori-ginal.

Esta comparación se ha llevado a cabo visual ynuméricamente

La comparación visual se ha realizado a partir decomposiciones RGB, en la mayoría de los casoscomposiciones en falso color utilizando las bandasdel IRc, Rojo y Verde, tanto de la imagen originalcomo de la fusionada. La calidad espectral de laimagen fusionada es mayor cuanto mayor sea lacoincidencia de tono e intensidad de colores entre lacomposición RGB de esta imagen y de la original.

Además, se han utilizado parámetros cuantitati-vos para determinar la diferencia de informaciónespectral entre las imágenes fusionadas y la originaly con ello, estimar la calidad espectral de estasfusiones.

Los parámetros utilizados han sido:• El coeficiente de correlación entre bandas de la

imagen original y la fusionada. A mayor coeficien-te de correlación, mayor calidad espectral presentala imagen fusionada

• El índice ERGAS, del francés “Erreur RelativeGlobale Adimensionnelle de Synthèse”, propuestopor Wald (2000) y que se define como

donde h es la resolución espacial de la imagen pan-cromática, l la resolución espacial de la imagenmultiespectral, Mi la radiancia media de cada unade las N bandas espectrales (Bi) que intervienen enla fusión y

Fusión de imágenes multiespectrales y pancromáticas: nuevas alternativas...

N.º 18 - Diciembre 2002 69

Page 8: Fusión de imágenes multiespectrales y pancromáti- …En este artículo se presentan alternativas metodo-lógicas que incorporan las transformaciones wave-let discretas al proceso

donde sioriginal-fusionada es desviación estándar de la

imagen diferencia (original menos fusionada).Cuanto menor sea el valor de ERGAS, mayor la

calidad espectral global de la imagen fusionada ypor lo tanto, mayor la validez del método de fusiónaplicado

En la Tabla 1 se presentan los valores obtenidos,para ambos parámetros de calidad, al comparar elcontenido espectral de las imágenes fusionadas conel de la imagen SPOT original.

El coeficiente de correlación entre las imágenesfusionadas por métodos clásicos y la imagen origi-nal es muy bajo para todas las bandas, lo que indi-ca que durante el proceso de fusión se ha producidouna importante modificación del contenido espec-tral de la imagen multiespectral de partida. Parte delcontenido espectral de la imagen SPOT 4 XI hasido sustituido por el de la imagen IRS-1D PAN. Laimagen SPOT fue captada en Noviembre de 1999mientras que la IRS en junio de 2000, cuandomuchas de las parcelas estaban ocupadas por distin-tos cultivos con diferente reflectividad

La baja calidad espectral de las imágenes obteni-das aplicando los métodos IHS y ACP también puedeapreciarse visualmente, al comparar los colores delas distintas cubiertas en la composición en falsocolor de la imagen original y en las composicionesen falso color de las imágenes fusionadas (Figura 4).

Por otro lado, puede apreciarse en la misma figu-ra la alta coincidencia de tono e intensidad de colo-res entre las composiciones RGB de las imágenesfusionadas por los métodos AWI y AWPC y la ima-gen original, tanto en las zonas urbanas como en lasparcelas de cultivo.

El coeficiente de correlación espectral entre laimagen original y las fusionadas es alto para todas

las bandas cuando se emplean métodos de fusiónbasados en la transformación wavelet. Además, ladiferencia de medias entre la imagen original y lasfusionadas puede considerarse insignificante paratodas las bandas, tanto en el caso de aplicar métodosaditivos como sustitutivos. También la desviaciónestándar de la imagen diferencia (si

original-fusionada) esbastante baja para todas las bandas por lo que elíndice ERGAS es mucho menor para estas imágenesque para las obtenidas empleando los métodos clási-cos de fusión. En este punto, es conveniente recor-dar que la calidad espectral de una imagen fusiona-da será mayor cuanto menor sea el índice ERGAS.

Todo lo anterior pone de manifiesto que la cali-dad espectral de las imágenes fusionadas obtenidaspor los métodos AWI, SWI, AWPC y SWPC esmucho mayor que la de las obtenidas por métodosclásicos, no pudiendo apreciarse grandes diferen-cias entre los métodos Aditivos y Sustitutivos.

Calidad espacial

En general, cuanto mayor sea la cantidad deinformación de detalle espacial de la imagen pan-cromática incorporada a la imagen multiespectraldurante el proceso de fusión, mayor será la calidadespacial de la imagen fusionada resultante

La calidad espacial de una imagen fusionada sedetermina comparando esta imagen con la pancro-mática original. Esta comparación, al igual que enel caso del análisis de calidad espectral, se realizatanto visual como cuantitativamente

Para estimar de forma cuantitativa la calidadespacial de las imágenes fusionadas se ha seguidoel procedimiento propuesto por Zhou et al (1998).Tanto la imagen fusionada (5m de resolución espa-cial) como la IRS-ID PAN se filtran utilizando eneste caso el siguiente filtro Laplaciano:

A continuación se calcula la correlación entre lasimágenes filtradas. Un alto coeficiente de correla-ción indica que la imagen fusionada recoge granparte de la información de detalle espacial presenteen la imagen pancromática

En la siguiente tabla se presentan los valoresobtenidos, al comparar el detalle espacial de la ima-

M. González-Audícana, R. García y A. Seco

70 N.º 18 - Diciembre 2002

IHS SWI AWI

Coeficientecorrelaciónespectral

0.37320.58030.55840.3194

0.94030.96750.96150.9571

0.94370.96740.96980.9583

ERGAS 13.46 3.29 3.27

ACP SWPC AWPC

Coeficientecorrelaciónespectral

0.30100.33090.75240.3310

0.93040.94010.97920.9416

0.93760.93860.98720.9436

ERGAS 13.81 3.44 3.41

Tabla 1. Calidad espectral de las imágenes fusionadas.

Page 9: Fusión de imágenes multiespectrales y pancromáti- …En este artículo se presentan alternativas metodo-lógicas que incorporan las transformaciones wave-let discretas al proceso

Fusión de imágenes multiespectrales y pancromáticas: nuevas alternativas...

N.º 18 - Diciembre 2002 71

*Figura 4. a) SPOT 4 XI original, 20 m resolución espacial, b) IRS-1D PAN, 5 m resolución espacial; c) Fusionada IHS;d) Fusionada AWI; e) Fusionada, ACP; f) Fusionada AWPC.

Todas las figuras precedidas de asterisco se incluyen en el cuadernillo anexo de color

Page 10: Fusión de imágenes multiespectrales y pancromáti- …En este artículo se presentan alternativas metodo-lógicas que incorporan las transformaciones wave-let discretas al proceso

gen IRS-1D PAN con el de cada una de las imáge-nes fusionadas:

Desde el punto de vista espacial, y teniendo encuenta el coeficiente de correlación espacial entre laimagen SPOT XI original (remuestreada a 5m) y laimagen IRS PAN, es posible afirmar que tanto losmétodos IHS y ACP como los métodos basados enlas transformaciones wavelet (AWI, SWI, AWPC,SWPC) permiten obtener imágenes de alta calidadespacial.

CONCLUSIONES

Aunque la calidad espacial de las imágenes fusio-nadas obtenidas aplicando los métodos IHS y ACPes muy alta, su información espectral difiere muchode la presente en la imagen multiespectral original.La distorsión radiométrica provocada al emplearestos métodos es especialmente importante cuandolas imágenes a fusionar han sido captadas en distin-ta época.

Los resultados obtenidos empleando métodos basa-dos en las transformaciones IHS y el ACP mejoranclaramente si en lugar de sustituir las componentes Io PC1 por la imagen pancromática, se incorpora aestas componentes sólo el detalle espacial de la ima-gen pancromática que le falta a la multiespectral. Elalgoritmo de Mallat ha demostrado ser una adecuadaherramienta para la extracción del detalle espacialcorrespondiente a aquellas estructuras con dimensio-nes comprendidas entre el tamaño de píxel de la ima-gen pancromática y de la imagen multiespectral.

Las imágenes obtenidas aplicando los métodosAWI, SWI, AWPC y SWPC mantienen la capaci-dad de discriminación de cubiertas de la imagenmultiespectral original y además, al presentarmayor resolución espacial, permitirán delimitar de

forma más precisa los límites espaciales que defi-nen cada cubierta.

AGRADECIMIENTOS

Este trabajo se ha llevado a cabo en el marco delproyecto CICYT nº AGL2000-0978 y del proyectode Investigación del Gobierno de Navarra Resolu-ción 58/1999.

BIBLIOGRAFÍA

BURT, P. J. y ADELSON E. H. 1983. The Lapla-cian Pyramid as compact image code. IEEE Tran-sactions on communications. 31(4): 532-540.

CARPER, J., LILLESAND T. M. y KIEFER R. W.1990. The use of Intensity-Hue-Saturation trans-formation for merging SPOT panchromatic andmultispectral image data. Photogrammetric Engi-neering and Remote Sensing. 56(4): 459-467.

COHEN, A., I. DAUBECHIES I. y FEAUVEAU,J. C. 1992. Biorthogonal bases of compactly sup-ported wavelets. Communications on PureApplied Mathematics. 45: 485-560.

CHAVEZ, P. S. y KWARTENG A. Y. 1989. Extrac-ting spectral contrast in Landsat Thematic Map-per image data using selective principal compo-nent analysis. Photogrammetric Engineering andRemote Sensing. 55(3): 339-348.

CHAVEZ, P.S., STUART J., SIDES C. y ANDER-SON J. A. 1991. Comparison of three differentmethods to merge multiresolution and multispec-tral data: Landsat TM and SPOT panchromatic.Photogrammetric Engineering and Remote Sen-sing. 57(3): 259-303.

DAUBECHIES, I. 1992. Ten Lectures on Wavelets.Philadelphia: Society for Industrial and AppliedMathematics, 357 p.

EHLERS, M. 1991. Multisensor image fusion tech-niques in remote sensing. ISPRS Journal of Pho-togrammetric and Remote Sensing. 46: 19-30.

GARGUET-DUPORT, B., GIREL, J., CHASSERY,J. M y PAUTOU, G. 1996. The use of multireso-lution analysis and wavelets transform for mer-ging SPOT panchromatic and multispectral data.Photogrammetric Engineering & Remote Sen-sing. 62(9): 1057-1066.

HAYDN, R., DALKE G. W., HENKEL J. y BAREJ. E. 1982. Applications of the IHS color trans-form to the processing of multisensor data and

M. González-Audícana, R. García y A. Seco

72 N.º 18 - Diciembre 2002

IHS SWI AWI

Coeficientecorrelaciónespacial

0.98650.98320.96860.9862

0.88630.87950.85800.8787

0.88710.88120.85830.8786

ACP SWPC AWPC SPOT XIoriginal

Coeficientecorrelaciónespacial

0.99570.99820.94920.9950

0.89210.88510.83210.8448

0.89380.89360.85080.8861

0.03700.03780.00370.0174

Tabla 2. Calidad espacial de las imágenes fusionadas.

Page 11: Fusión de imágenes multiespectrales y pancromáti- …En este artículo se presentan alternativas metodo-lógicas que incorporan las transformaciones wave-let discretas al proceso

image enhancement. Proceedings: InternationalSymposium on Remote Sensing of Arid and Semi-Arid Lands, El Cairo, Egipto, 559-616.

MALLAT, S. G. 1989. A theory for multiresolutionsignal decomposition: The wavelet representa-tion. IEEE Transaction on Pattern Analysis andMachine Intelligence. 11(7): 674-693.

MEYER, Y. 1990. Ondelettes et opérateurs 1:Ondelettes. Hermann, Paris, France, 215 p

NUÑEZ, J., OTAZU X., FORS O. y PRADES, A.1997. Simultaneous image fusion and recostructionusing wavelets. Applications to SPOT and Landsatimages. Vistas in Astronomy. 41(3): 351-357.

NUÑEZ, J., OTAZU, X., FORS, O., PRADES, A.,PALÁ, V. y ARBIOL, R. 1999. Multiresolution-based image fusion with Additive WaveletDecomposition. IEEE Transaction on Geoscien-ce and Remote Sensing. 37(3): 1204-1211.

POHL, C. y VAN GENDEREN, J. L. 1998. Multi-sensor image fusion in remote sensing: concepts,methods and applications. International Journalof Remote Sensing. 19(5): 823-854.

RANCHIN, T. y WALD, L. 2000. Fusion of highspatial and spectral resolution images: TheARSIS concept and its implementation. Photo-grammetric Engineering & Remote Sensing.66(1): 49-61.

SHETTIGARA, V. K. 1992. A generalized Compo-nent Substitution technique for spatial enhance-

ment of multispectral images using a higher reso-lution data set. Photogrammetric Engineering &Remote Sensing. 58(5): 561-567.

SMITH, A. R. 1978. Color Gamout TransformPairs. Computer Graphics, August, pp. 12-18.

WALD, L., RANCHIN, T. y MANGOLINI, M.1997. Fusion of satellite images of different spa-tial resolutions: assessing the quality of resultingimages. Photogrammetric Engineering & Remo-te Sensing. 63(6): 691-699.

WALD, L. 2000 . Quality of high resolution synt-hesized images: is there a simple criterion? Pro-ceedings of the third conference on Fusion ofEarth data: merging point measurements, rastermaps and remotely sensed images, Sophia Anti-polis, France, 99-105.

WELCH, R. y EHLERS M. 1987. Merging Multi-resolution SPOT HRV and Landsat TM data.Photogrammetric Engineering and Remote Sen-sing. 53(3): 301-303.

YOCKY, D. A. (1995). Image merging and datafusion by means of the discrete two-dimensionalwavelet transform. Journal of the Optical Societyof America. 12(9): 1834-1841.

ZHOU, J., CIVCO, D. L. y SILANDER, J. A. 1998.A wavelet method to merge Landsat TM andSPOT panchromatic data. International Journalof Remote Sensing. 19(4): 743-757.

Fusión de imágenes multiespectrales y pancromáticas: nuevas alternativas...

N.º 18 - Diciembre 2002 73

Page 12: Fusión de imágenes multiespectrales y pancromáti- …En este artículo se presentan alternativas metodo-lógicas que incorporan las transformaciones wave-let discretas al proceso

FIRST ANNOUNCEMENTCALL FOR PAPERS

23rd EARSeL Symposium

Remote Sensing in Transition2-5 June 2003followed by

Workshops: Forest Fires and Coastal Zones

6-7 June 2003

Co-sponsored by: Hosted by: European Space Agency Ghent University - Department

of Geography - BelgiumCommission of the European CommunitiesCouncil of Europe

THE SYMPOSIUM

You are cordially invited to attend the General Assemblyand the 23rd Symposium of EARSeL, the European Associationof Remote Sensing Laboratories, which is to be held at "HetPand" in the centre of the city of Ghent from 2–7 June 2003 andwill be followed by two workshops on Forest Fires and CoastalZones.

The objective of the annual EARSeL meeting is to bringtogether all the European Remote Sensing Scientific, researchand user organisations and communities in order to enableclose contacts and open up channels of communication andinformation. A key role of EARSeL is to act as an interfacebetween research results and new technologies and their ope-rational applications by user communities. Other scientificaims are to improve the integration of new technologies andnew types of Remote Sensing Data as an objective data sourcefor other disciplines and with other data in Geographic Infor-mation Systems.

The main theme of the symposium is:Remote Sensing in Transition

Presentations are encouraged related to all fields of remotesensing applications and especially to those listed below, sincesessions will be organised according to these topics. Specialtutorial sessions will be given during two workshops that willfollow the symposium on:

Forest Fires and Coastal Zones

The symposium offers opportunities for special sessions ormeetings, which can be organised by private companies, leadersof international projects and of course EARSeL Special InterestGroups. Papers are welcome related to the general theme of thesymposium and we encourage presentations on:

* Envisat* Ice and Snow* RS For High School Education/Exploiting Image Data

Bases* Imaging Spectroscopy* Vegetation and Biomass* Hazards & Risks* Ground Penetrating Radar* Application of High Resolution Data* Ocean and Atmosphere* Data Calibration* Data Analysis Techniques* RS from Small Satellites

Symposium Chairman

Prof. Dr. E. Parlow

Scientific Committee

Dr. M. Rast, ESA Noordwijk, The NetherlandsProf. P. Gudmandsen, University Denmark, DenmarkProf. Dr. G. Konecny, University Hannover, GermanyDr. A. Mueller, German Aerospace Center, GermanyDr. D. Van Speybroeck, Vito, Mol, BelgiumProf. Dr. M. Buchroithner, University Dresden, GermanyProf. Dr. G. Alberti, CO.RI.STA, Naples, ItalyDr. K. Jacobsen, University Hannover, GermanyDr. R. Doerffer, GKSS, Geesthacht, GermanyProf. Dr. Chr. Heipke, University Hannover, GermanyDr. L. Wald, Ecole des Mines, Paris, France

Organising Committee

Dr. R. Reuter - University Oldenburg (D)Prof. Dr. R. Goossens - Ghent University (B)Dr. B. M. De Vliegher - Ghent University (B)Mrs. M. Godefroy - EARSeL Paris (F)Mrs. D. Godfroid - Ghent University (B)

The Workshops

The symposium will be followed by two workshops on 6and 7 June 2003. "Forest Fires" convened and chaired by Dr. E.Chuvieco, University of Alcalà de Henarès (Spain) and “CoastalZones” convened and chaired by

Dr. R. Reuter, University of Oldenburg (Germany).

Commercial Exhibition

A commercial exhibition will be organised in parallel with thesymposium. Companies interested in displaying their latest equip-ment and software should contact Mrs. Dominique Godfroid.

E-mail: [email protected]

Call for papers for symposium and workshops

Papers will be presented either orally or by poster. Both areconsidered of equal standing, and no distinction is made betwe-en them in the proceedings. Interactive poster sessions are fore-seen. Authors who prefer a poster presentation should notify theorganisers. An abstract of approximately 500 words (one A4page) should be forwarded by 1st November 2002 to:

EARSeL Secretariat - Attn. Mrs. M. Godefroy2, Ave Rapp – F-75340 Paris - Cedex 07 - FrancePhone: +33 1 45 56 73 60 - Fax +33 1 45 56 73 61E-mail: [email protected] -http://www.earsel.org