conceptos fundamentales de teoría de la imagen digital...conceptos fundamentales de toría de la...

42
Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones elementales sobre teoría de la imagen y de las señales........................................... 3 Noción general de imagen .................................................................................................................... 3 Noción informática de imagen ............................................................................................................. 4 La imagen como señal .......................................................................................................................... 4 Muestreo y cuantificación .................................................................................................................... 5 Rastreo (rastering) ................................................................................................................................ 6 Procesamiento y análisis de imágenes ................................................................................................ 7 2 Parámetros de control de la calidad de una imagen ................................................................ 9 Resolución ............................................................................................................................................ 9 Número de grises .................................................................................................................................. 9 Número de colores.............................................................................................................................. 10 3 Perturbaciones características de las imágenes y métodos de corrección............................. 10 Pixelación ........................................................................................................................................... 11 Contorneado ....................................................................................................................................... 12 Ruido .................................................................................................................................................. 12 Aliasing ............................................................................................................................................. 13 Antialiasing ........................................................................................................................................ 14 4 Medios y métodos de digitalización ..................................................................................... 16 Medios de obtención de una imagen digital ....................................................................................... 16 Escáners. Funcionamiento general ..................................................................................................... 17 Tipos de escáners ................................................................................................................................ 18 Procedimientos corrientes de digitalización ....................................................................................... 20 Cámaras digitales. Otros medios ........................................................................................................ 21 5 Almacenamiento ................................................................................................................... 22 Volumen y equipamiento requerido ................................................................................................... 22 Formatos ............................................................................................................................................. 22 Compresión ........................................................................................................................................ 24 Conversión.......................................................................................................................................... 25 6 Operaciones con imágenes.................................................................................................... 26 Operaciones geométricas.................................................................................................................... 26 Operaciones puntuales de transformación de valores. Mapas de grises. Histogramas ...................... 27 Operaciones locales de transformación de valores. Filtros ................................................................ 31 7 Impresión .............................................................................................................................. 33 Parámetros de control ......................................................................................................................... 33 Resolución y resoluciones .................................................................................................................. 33 Semitonos, "lineatura" y dithering ..................................................................................................... 34 Color ................................................................................................................................................... 36 Dispositivos ........................................................................................................................................ 39 8 Aplicaciones arquitectónicas................................................................................................. 40

Upload: others

Post on 24-Jun-2020

14 views

Category:

Documents


1 download

TRANSCRIPT

Page 1: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 1

Conceptos Fundamentales de Teoría de la Imagen Digital

1 Nociones elementales sobre teoría de la imagen y de las señales ........................................... 3Noción general de imagen .................................................................................................................... 3Noción informática de imagen ............................................................................................................. 4La imagen como señal .......................................................................................................................... 4Muestreo y cuantificación .................................................................................................................... 5Rastreo (rastering) ................................................................................................................................ 6Procesamiento y análisis de imágenes ................................................................................................ 7

2 Parámetros de control de la calidad de una imagen ................................................................ 9Resolución ............................................................................................................................................ 9Número de grises .................................................................................................................................. 9Número de colores .............................................................................................................................. 10

3 Perturbaciones características de las imágenes y métodos de corrección ............................. 10Pixelación ........................................................................................................................................... 11Contorneado ....................................................................................................................................... 12Ruido .................................................................................................................................................. 12Aliasing ............................................................................................................................................. 13Antialiasing ........................................................................................................................................ 14

4 Medios y métodos de digitalización ..................................................................................... 16Medios de obtención de una imagen digital ....................................................................................... 16Escáners. Funcionamiento general ..................................................................................................... 17Tipos de escáners ................................................................................................................................ 18Procedimientos corrientes de digitalización ....................................................................................... 20Cámaras digitales. Otros medios ........................................................................................................ 21

5 Almacenamiento ................................................................................................................... 22Volumen y equipamiento requerido ................................................................................................... 22Formatos ............................................................................................................................................. 22Compresión ........................................................................................................................................ 24Conversión .......................................................................................................................................... 25

6 Operaciones con imágenes .................................................................................................... 26Operaciones geométricas .................................................................................................................... 26Operaciones puntuales de transformación de valores. Mapas de grises. Histogramas ...................... 27Operaciones locales de transformación de valores. Filtros ................................................................ 31

7 Impresión .............................................................................................................................. 33Parámetros de control ......................................................................................................................... 33Resolución y resoluciones .................................................................................................................. 33Semitonos, "lineatura" y dithering ..................................................................................................... 34Color ................................................................................................................................................... 36Dispositivos ........................................................................................................................................ 39

8 Aplicaciones arquitectónicas ................................................................................................. 40

Page 2: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

2 Aplicaciones informáticas en arquitectura

Conceptos Fundamentales de Teoría de Imagen Digital(Esta monografía es una adaptación del capítulo 6 del libro Aplicaciones Informáticas en Arquitectura, UPC, 1999, de Javier Monedero)

El tratamiento de imágenes permite actuar direc-tamente sobre los resultados visibles del proceso de computación, tanto en fases intermedias como en la fase final de un proyecto. En este capítulo se presentan los conceptos fundamentales, las técnicas y los métodos de procesamiento de imágenes, que tienen especial incidencia en el diseño arquitectó-nico, con especial énfasis en las aplicaciones que se valen de procedimientos gráficos equivalentes a los de las técnicas tradicionales de pintura.

El tratamiento de imágenes ha conocido un desa-rrollo espectacular en los últimos años y constituye uno de los sectores de investigación más activos en los países desarrollados. Recordaremos brevemente el contexto en que esto se ha llevado a cabo antes de proseguir describiendo las herramientas que pueden relacionarse de modo más directo con las aplicaciones arquitectónicas.

Una de las primeras aplicaciones del tratamiento de imágenes consistió en la mejora de fotografías de periódico enviadas por un cable submarino en-tre Londres y Nueva York, por medio del sistema Bartlane, inventado en 1921. A través del cable se transmitían impulsos eléctricos codificados en cinco niveles de brillo. Con posterioridad, en 1929, se ampliaron estos niveles a 15 tonos, gracias a los cuales una especie de máquina de escribir imprimía la fotografía al otro lado del cable al cabo de tres horas.

Aunque las mejoras de los métodos para la transmisión de imágenes continuaron durante los 35 años siguientes, no fue hasta la aparición de los primeros ordenadores digitales que el procesamiento de imágenes se consolidó como disciplina científica. La utilización de las técnicas computacionales procedentes de las misiones es-

paciales, realizadas a partir de 1964 por el JPL (Jet Propulsion Laboratory) en Pasadena, California, se considera el inicio de lo que ahora se denomina procesamiento digital de imágenes. Los primeros trabajos fueron realizados a partir de la imágenes de la Luna, transmitidas por la sonda Ranger 7, que fueron procesadas por un computador para corregir diversos tipos de distorsión inherentes a la cámara utilizada.

Aquellas técnicas sirvieron como base a los métodos utilizados para la mejora y restauración de imágenes de los programas Surveyor, Mariner y Apollo. A partir de 1967 estas experiencias se aplicaron al campo de la salud pública con pro-gramas de investigación realizados por la Escuela de Medicina de UCLA, de las cuales se hizo eco el National Institute of Health que subvencionó al JPL en tres líneas de investigación, las imágenes en microscopía óptica, electrónica y de rayos X, para el estudio de la arteriosclerosis, el cáncer cervical, y otras patologías.

El procesamiento de imágenes es la base de otras potentes área de investigación, el análisis de imágenes y la visión por computador, de las que se han derivado indirectamente muchas herramientas de uso corriente. Estas se originaron principalmente en las investigaciones del MIT, en Harvard y de la Universidad de Stanford, en California a finales de los sesenta, en el campo de la robótica. En Japón se desarrollaron otros proyectos similares entre los que se puede citar el PIPS (Pattern-Informa-tion Procesing System) hacia 1970. En 1976, en Estados Unidos, el ARPA (Advanced Reasearch Project Agency) financió otra serie de proyectos, que permitieron avances considerables. En este contexto hay que mencionar las notables contri-

Page 3: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 3

buciones teóricas de David Marr, en la década de los setenta.

Por lo que respecta a Europa, los primeros prece-dentes del procesamiento y el análisis de imágenes se pueden remontar a los siglos XVIII y XIX, y a autores como Crofton, Euler o Minkowsky, que de-sarrollaron muchas herramientas matemáticas uti-lizadas actualmente en el tratamiento de imágenes. De 1848 son los primeros trabajos de estereología en el campo de la geología, que pueden relacio-narse con contribuciones recientes, tales como la geometría fractal de Mandelbrot o la morfología matemática de G. Matheron y J. Serra.

De todo este conjunto de investigaciones han surgido aplicaciones a muy diversas áreas, tales como la geografía o la meteorología, a partir del procesamiento de fotografías tomadas por satélites; la arqueología, en donde ha sido posible recuperar pinturas borradas mediante técnicas de análisis, en física, con aplicaciones al campo de las altas ener-gías. En arquitectura las aplicaciones principales se han dado en fotogrametría y, más recientemente, en la aplicación de técnicas de manipulación digital al desarrollo de proyectos.

1 Nociones elementales sobre teoría de la imagen y de las señales

Los apartados que siguen resumen algunas de las principales nociones teóricas que están en la base de las técnicas de aplicación a las que nos refere-

riremos más adelante.

Noción general de imagen

En términos generales, se entiende por "imagen" la apariencia visible de una forma. Esta definición se extiende corrientemente hasta aceptar que una imagen es, así, la "representación" de una forma o de una entidad determinada. La palabra "imagen" tiende a confundirse, por un lado, con la cosa misma, como sería en el caso de un objeto que sólo tuviera dos dimensiones, y, por otro lado, con un símbolo de la cosa, como sería en el caso de la planta de una vivienda, entendida como represen-tación de su espacio interior.

Además de las imágenes físicas visibles hay también imágenes físicas invisibles, o imágenes que tienen las mismas características que las visibles pero quedan fuera del rango al que los seres humanos son sensibles, por ejemplo las imágenes infrarrojas o ultravioletas, que pueden ser visualizadas por medio de filtros especiales. También cabe hablar de imágenes abstractas, tal como las imágenes matemáticas que son conceptos y, en consecuencia, invisibles, pero que admiten representaciones de diverso tipo. También pode-mos puntualizar que las imágenes físicas visibles pueden ser permanentes; por ejemplo un cuadro, un documento impreso, o transistorias tales como las producidas por un monitor CRT.

La distinción entre imagen, en su acepción

Figura 1 La imagen como función de valores (tomado de Monet: "La débâcle", 1880, Lille, Musée des Beaux-Arts)

Page 4: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

4 Aplicaciones informáticas en arquitectura

general, e imagen en el sentido técnico que se de-sarrollará en lo que sigue, es más que una precisión semántica y debe tenerse en cuenta en las aplicacio-nes a las que está introducción va dirigida.

Noción informática de imagen

En términos informáticos, una imagen es, como ve-remos a continuación, un caso particular de señal, más exactamente, una función que especifica una determinada distribución de intensidades lumíni-cas. Dicho de otro modo, una imagen es entendida, desde este punto de vista, como la serie de valores atribuidos a una función bidimensional que asigna a todos los puntos de un segmento de un plano un valor visual determinado.

En el caso de una imagen monocromática este valor vendría dado por una función simple de dos variables f(x,y), en donde x,y denotan coordena-das espaciales y f un valor en cada punto que es proporcional a la intensidad de iluminación en ese punto o "nivel de gris", en el caso de una imagen acromática. Las coordenadas x, y están referidas a un ámbito espacial determinado, por ejemplo, por un extremo inferior x0y0 y un extremo superior xmaxymax. En el caso de una imagen cromática esta valor vendría dado por tres funciones simples de dos variables, fr(x,y), fg(x,y), fb(x,y), que expresarían la intensidad de iluminación de un punto x,y, en el mismo ámbito, y para los tres componentes cromá-ticos primarios rojo (R), verde (G) y azul (B).

La figura 1 ilustra esta definición. La imagen que se muestra se puede suponer que está captada de un monitor con una resolución de 1.024 puntos en sentido horizontal y 768 en sentido vertical, una resolución corriente en los monitores actuales. Internamente, esto se representa en un sistema de coordenadas, el sistema propio del dispositivo de salida, con el origen 0,0 en la parte superior izquier-da y el final, correspondiente a las coordenadas 1.024, 768 en la parte inferior derecha.

El punto marcado tiene las coordenadas 850, 545. Vamos a suponer, para simplificar detalles técnicos que la función asociada asigna a este punto el valor 34 sobre un rango de 256 valores posibles, esto es, f(x,y) = 34. Este valor se traduce a la inten-sidad de los cañones que envían electrones hacia la pantalla, con el resultado de que los diminutos

puntos de fósfor son estimulados en una proporción equivalente para producir este nivel relativo de ilu-minación. El valor digital se traduce a un impulso analógico a lo largo de una curva continua, tal como la que se muestra en la figura 2, que recoge todos los valores correspondientes al marco activo en ese momento sobre la pantalla.

La imagen como señal

En términos corrientes, se entiende por "señal" una marca que porta un objeto y que proporciona cierta información convenida. En términos informáticos, una señal es una función asociada a un fenómeno físico cuya variación determinada en un dominio dado porta información codificada. Las imágenes, tal como las hemos definido en el apartado anterior, son 2D. Las señales son 1D.

El ámbito en que se mueve una señal se deno-mina su dominio. El dominio característico de una señal es, en principio, el propio de los sistemas de comunicación: un dominio lineal, temporal, y ba-sado principalmente en fenómenos eléctricos, que traducen fenómenos acústicos o mecánicos. En el caso de sistemas ópticos, el dominio es espacial, la función es bidimensional y el término "señal" tiende a confundirse con el término "imagen" que, como hemos visto, es una función asociada a una

Figura 2 Fragmento de imagen y señal asociada

Page 5: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 5

distribución de intensidades de luz en un determi-nado dominio espacial. Pero una imagen, de hecho, se reduce a una señal lineal que recorre un canal de determinadas características, en conformidad con la teoría de la información que especifica que, en un canal, todo mensaje se reduce a un forma temporal f (t).

Esta reducción, en el caso de un dispositivo informático de salida, tal como una impresora o un monitor, viene dada por el hecho de que la salida real se basa en un mecanismo que recorre secuencialmente, uno a uno todos los puntos de todas las líneas que componen un marco (frame), comenzando por el primero y terminando por el último. Si proseguimos, en una imagen, entendida como función de intensidades lumínicas, una de las dos dimensiones, el recorrido de una imagen monocromática a lo largo de una línea horizontal, a lo largo de la coordenada x, nos irá presentando los valores de la función para cada uno de estos puntos. Esto resultará en una distribución de inten-sidades que, en principio, será distinta para todos los puntos de esta línea. Estas intensidades pueden representarse en un diagrama que nos mostraría la intensidad o la "profundidad" de la señal en cada uno de los puntos de la imagen, grafiados sobre el eje de ordenadas, a lo largo del tiempo, grafiado sobre el eje de abscisas.

Como toda función, una señal puede representar-se en un sistema de coordenadas cartesiano. El eje vertical, de ordenadas, se utiliza para representar las amplitudes que corresponden a los valores máximos y mínimos que alcanza la función/se-ñal. El eje horizontal, de abscisas, se utiliza para representar el dominio de la señal. Si la señal es periódica, esto es, si se repite cíclicamente en un determinado dominio, lo que se representa es su frecuencia.

Las señales pueden ser continuas o discretas. Las señales analógicas, denominadas así porque son un reflejo directo del fenómeno que las ha originado, son continuas. Las señales digitales, denominadas así porque pueden ser traducidas a dígitos, a números enteros, son discretas. La infor-matización de una señal supone un paso reiterado de lo analógico a digital y viceversa. Es obvio que esto implica una perdida de información y la teoría de señales trata, en buena medida, de los sistemas y de las técnicas utilizados para controlar esta per-dida de información o, incluso, para optimizar esta pérdida, de tal modo que resulte en una ganancia, es decir, en una información más eficaz.

Muestreo y cuantificación

El proceso de seleccionar un conjunto de valores finitos, discretos, de una señal continua se denomi-na muestreo (sampling) y los valores seleccionados se denominan muestras (samples). Las muestras seleccionadas siguen siendo continuas, esto es, tienen un valor real, no acotado en un determinado rango de valores discretos. El proceso de discretiza-ción de este valor real se denomina cuantificación (quantification) y es el segundo paso en el proceso de digitalización de una señal. El tercero y último paso es la codificación de los resultados obtenidos lo que supone, en general, en informática, la tra-ducción a un código binario.

La teoría de señales establece ciertas condicio-nes que deben cumplir los procesos de muestreo y cuantificación para que la reconstrucción permita obtener una imagen idéntica a la original. Esto, como se verá, es imposible en numerosos casos y surgen perturbaciones que deben ser tratadas de diversos modos.

La señal se analiza en función de dos caracterís-ticas fundamentales: la amplitud, entendida como el registro del rango de energías que conlleva el fenómeno físico asociado y la forma, entendida como registro de las diversas configuraciones que adopta la señal. El análisis de estas diversas configuraciones se remite a unos principios funda-mentales, establecidos por Fourier, a principios del siglo pasado, y que permiten analizar las diversas configuraciones de una señal en una serie de com-ponentes simples, periódicos y armónicos. Este análisis lleva a una forma distinta de representación de las señales, más abstracta pero más reveladora, en donde se relacionan amplitudes y frecuencias en un segundo sistema de coordenadas cartesianas que se denomina el espectro de la señal.

En el capítulo dedicado a redes se volverá sobre

Page 6: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

6 Aplicaciones informáticas en arquitectura

este tema. Allí pueden encontrarse algunas figuras adicionales que ilustran los parámetros principales de una señal y el modo en que una señal periódica de distribución irregular puede ser descompuesta en una serie de señales básicas, regulares por medio del análisis de Fourier.

La teoría de señales permite obtener resultados notables mediante una modificación del marco de referencia y tomando en consideración no el dominio espacial (spatial domain) sino el dominio de frecuencias (frequency domain). Esto implica contar con algún modo de asimilar una señal que, en principio es singular, esto es, no presenta perio-dicidad aparente, a una señal que puede ser tratada como una señal cíclica caracterizada por una ampli-tud dada como función de una frecuencia. La varie-dad estadística de las configuraciones adoptadas por una señal determinada se presenta así mediante su espectro, como relación encontrada entre la gama de frecuencias y la gama de amplitudes. El análi-sis espectral se utiliza como base de los diversos métodos de corrección de las perturbaciones a las que nos referiremos más adelante.

Rastreo (rastering)

Las imágenes utilizadas en informática están ge-neradas por una señal que barre sistemáticamente todo el dominio espacial mediante líneas horizon-tales de exploración (horizontal scan lines) que van recorriendo verticalmente el ámbito propio de la imagen que se pretende captar o reconstruir. La amplitud corresponde, en este caso, a un valor que es proporcional a la intensidad luminosa en cada uno de los pixels que constituyan la imagen. El ejemplo más habitual es el monitor, pero la ma-yoría de los dispositivos de salida se basan en el mismo sistema. La figura 4 muestra un esquema en el que se representa una señal analógica a lo largo de una línea de rastreo. Al final de cada línea hay una interrupción de la señal que corresponde a un salto al comienzo de la siguiente línea.

Este procedimiento se utiliza tanto para generar la imagen como para reproducirla. En la sección 3 se describirán los medios y métodos principales de captación. Una cámara de vídeo o un escáner de sobremesa operan según un mismo principio que se resume en: 1) la presentación de la imagen que se quiere captar a un sistema óptico que conduce la imagen a unos sensores capaces de convertir la energía lumínica a señales eléctricas. Esta señal es

llevada a un conversor A/D (analógico/digital). La imagen digitalizada puede almacenarse, procesarse o enviarse a otros sistemas pero, en última instancia deberá ser sometida a un proceso inverso; 2) la modulación de la señal digital para dirigir un haz de electrones que se proyecta sobre la pantalla de un monitor, convertida de nuevo en señal analógi-ca, y activando en diferentes grados los diminutos puntos que darán lugar a una imagen equivalente a la original.

El proceso de barrido supone, de hecho, como ya hemos indicado, la conversión de la señal bidi-mensional en unidimensional. La señal de barrido lleva incorporada una señal de "intervalo de blan-queo horizontal" (horizontal blanking interval) que indica al haz de rayos que debe cesar de emitir electrones y situarse en la siguiente línea. Esta señal se produce al final de cada línea hasta llegar a la última línea en donde incorpora una señal de "intervalo de blanqueo vertical" que indica al haz de rayos que debe volver a situarse en la línea 1ª. Esto es parte de una codificación lineal que se traduce en movimientos espaciales. En sí misma, la señal electrónica sigue siendo una señal lineal, temporal, cuyo dominio completo constituye un marco.

El marco debe tener una proporción normalizada para permitir la utilización de diferentes programas y tipos de información con un mismo dispositivo. Todos los monitores utilizan una misma relación de aspecto (aspect ratio) de proporción 4/3. La

Page 7: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 7

televisión de alta definición utiliza una relación de aspecto más alargada, de 16/9.

El proceso de rasterización sirve tanto para los dispositivos de entrada como para los de salida. En ambos casos se ha seguido una evolución similar por razones parecidas. Los primeros monitores no eran de rastreo sino vectoriales. Una línea, definida por un programa de CAD como una entidad con un principio y un final, tenía unas coordenadas propias que se traducían a las coordenadas propias del dispositivo. En el caso de un monitor de rayos catódicos podía indicarse al dispositivo que enviara un flujo de electrones a lo largo del recorrido es-pecificado por este par de coordenadas, lo que se traducía en una línea perfecta, sin escalones, y con un gasto de memoria adaptado a la información requerida por la entidad.

Esto era sin duda una ventaja. Pero tal ventaja empezaba a dejar de serlo cuando lo que se trazaba en pantalla era, no unas pocas, sino un enjambre de líneas. Debido a la necesidad de refrescar la pan-talla, unas líneas comenzaban a borrarse mientras otras no habían acabado de dibujarse. Problemas similares se daban con los plotters de plumillas que funcionaban según el mismo principio. Cuando el número de líneas era muy grande, el continuo ir y venir del dispositivo trazador podía provocar desajustes y el tiempo de trazado se incrementaba considerablemente.

Un sistema de rastreo tiene dos inconvenientes importantes. En primer lugar que todo el área a imprimir o visualizar debe quedar representada en memoria. Tanto da si lo que se representa es una simple línea o una escena compleja; cada punto debe contar con una especificación. En segundo lugar, si se quieren representar líneas o bordes inclinados con precisión no hay otra opción que incrementar el número de puntos, lo que obliga a aumentar aún más la memoria. Pero tiene la ventaja de que se cuenta con un único método, preciso, para cualquier caso, lo que permite unificar los procedi-mientos y sacar el máximo partido de la tecnología disponible. Estas son las razones principales por las que las pantallas de rastreo sustituyeron a las vectoriales hace ya muchos años y los plotters elec-trostáticos a los de plumillas hace pocos años.

Procesamiento y análisis de imágenes

La literatura especializada distingue dos áreas

principales de aplicación. El procesamiento de imágenes con la finalidad de mejorar la informa-ción de modo que sea comprensible por obser-vadores humanos, y el procesamiento y análisis de imágenes, con la finalidad de hacer que sean reconocidas automáticamente por computadores especializados.

Ambos grupos se dirigen a una gran variedad de aplicaciones. La medicina, la geografía, la arqueología, la astronomía, y diversos sectores industriales interesados en automatizar tareas rea-lizadas hasta ahora por seres humanos, son algunas de las áreas pioneras en aplicaciones en este campo. La utilización de técnicas de procesamiento de imágenes en cartografía es una de las áreas más directamente relacionadas con la arquitectura en la que se han producido avances notables, así como otras que comentaremos al final de este capítulo. La utilización de robots dotados de capacidad de reconocimiento de formas que puedan llevar a cabo tareas peligrosas o difíciles en el sector de la construcción es otra de las áreas en las que se está investigando con considerable intensidad en los últimos años.

Por procesamiento se entiende genéricamente el conjunto de técnicas y métodos encaminados a mejorar una imagen, con cierta independencia de su contenido, con el fin de facilitar su posterior interpretación.

Ejemplos característicos son: el tratamiento de radiografías para realzar zonas de interés, el procesamiento de fotografías en mal estado para facilitar el reconocimiento de personas, el proce-samiento de imágenes tomadas desde aviones o desde satélites para identificar relieves del terreno o edificios significativos. En todos estos casos las técnicas van dirigidas a librar a la imagen de ruido provocado por diversas interferencias o a corregir deformaciones de los aparatos ópticos con que se han captado las imagenes o a corregir deforma-ciones secundarias de los propios objetos o de la superficie observada, como ocurre en el caso de la cartografía para generar ortofotoplanos.

Por análisis de imágenes se alude conven-cionalmente al conjunto de técnicas y métodos encaminados a facilitar la extracción automatizada de la información contenida en ellas. La finalidad principal sería llegar a hacer eficaz la visión por computador, esto es, conseguir que una máquina dotada de sensores pueda reconocer fragmentos más o menos grandes del espacio y los objetos

Page 8: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

8 Aplicaciones informáticas en arquitectura

que le rodean y ajustar su conducta de acuerdo con esta información. El proceso implica la detección, la identificación y la comprensión de patrones que son relevantes en un contexto o en una aplicación determinada.

Ejemplos en fase de experimentación que pue-den citares son: el uso de robots en cadenas de producción que pueden reconocer si un producto tiene defectos y debe ser retirado de la cadena; el uso de robots utilizados en procesos de fabricación asistida por computador para reconocer formas características, de un rango limitado de objetos, y manipularlas adecuadamente. Otros ejemplos más elementales pero que estarían en esta misma línea son los programas de reconocimiento óptico de caracteres y patrones.

Los pasos característicos en el procesamiento y análisis de imágenes son los siguientes:

a) Adquisición de la imagen. Esto requiere un conjunto de dispositivos, tales como cámaras fotográficas tradicionales, cámaras digitales, cá-maras de vídeo o escáners, capaces de grabar la información y digitalizarla para su procesamiento posterior. Se necesitarán por añadidura medios de almacenamiento y medios básicos de manipula-ción, comunicación y presentación de la imagen.

b) Preprocesamiento. Durante esta fase se llevan a cabo una serie de acciones que tienen por finalidad facilitar el trabajo posterior; acciones tales como eliminar ruidos parásitos o calibrar adecuadamente los rangos monocromáticos y cromáticos, el con-traste o la definición de las diferentes áreas.

c) Segmentación. Bajo este término se engloban los procesos destinados a separar una imagen en sus partes constituyentes, con lo que entramos en el dominio del análisis y, con ello, en el núcleo de los problemas propios del procesamiento de imágenes y nos alejamos de nuestro campo de aplicación inmediato. Sin embargo hay puntos de interés que merece la pena subrayar y que aparecerán de algún modo más adelante. La segmentación de una imagen supone en un primer estadio la detección de puntos, líneas y bordes. A partir de aquí se busca, por diversos procedimientos, identificar bordes continuos, fronteras y regiones. La segmentación depende por lo general del contexto de la aplicación que dicta las propiedades visuales de los elementos de interés cuya detección se busca. El método más general se basa en la detección de discontinuidades y el problema más general deriva del hecho de que, en general (pero no siempre), las discontinuidades

resultan de bordes significativos. d) Representación y descripción. El resultado de

la segmentación es una imagen en la que, en los casos más corrientes, se habrá diferenciado entre pixels correspondientes a bordes y pixels corres-pondientes a regiones. De nuevo, el que una u otra representación resulte más adecuada dependerá del contexto. Si lo que se busca es diferenciar figuras de fondos, como puede ser el caso de edificios sobre un terreno, la segmentación en bordes resultará más adecuada. Si lo que se busca es identificar propiedades materiales, texturas características, será preferible identificar regiones. Y puede ser que se necesiten ambas cosas.

La representación es la base de la descripción que consiste fundamentalmente en una selección de características (feature selection) que se realzan y se procesan para obtener datos adicionales dados generalmente en forma numérica o mediante espe-cificaciones acerca de la topología de la imagen (si contiene agujeros, si hay regiones conectadas de determinado modo, etc.).

e) Reconocimiento e interpretación. A partir de la descripción de la imagen es posible comparar los datos obtenidos con los datos contenidos en una base de datos adecuada a la aplicación y asignar etiquetas identificadoras a los distintos elementos. Este proceso de asignación se denomina "recono-cimiento". Por "interpretación" se alude al paso final de asignar un significado determinado a un conjunto de objetos etiquetados. Podemos compa-rar el proceso con el de reconocer letras y palabras que forman frases con sentido. Esta última fase implica por lo general contar con una base de datos del tipo de las que describiremos en el capítulo 11 en relación con los sistemas expertos.

Page 9: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 9

2 Parámetros de control de la calidad de una imagen

La calidad de una imagen se mide fundamental-mente en función de dos tipos de parámetros : los relativos a la extensión y los relativos a la inten-sión o profundidad, entendida como capacidad de distinguir diferencias de intensidad y de color en un mismo punto.

Resolución

Se entiende por resolución la capacidad de un de-tector para discriminar detalles o, más exactamente, la capacidad para distinguir ("resolver") dos puntos muy próximos antes de que se fundan en uno solo. Dado que las imágenes digitales están compuestas de puntos discontinuos que se perciben como un continuo a una determinada distancia, este pará-metro tiene una importancia básica.

Según datos aportados por la psicología ex-perimental, dos líneas negras de 1 mm sobre un fondo blanco comienzan a fundirse en una mancha continua entre los 4 y los 7 m de distancia por término medio. Este dato depende de la capaci-dad del sujeto, de la iluminación ambiental y de otros factores, por lo que es considerablemente variable. Si tomamos el segundo valor esto quiere decir que líneas negras de 0.25 mm sobre un fondo blanco comenzarían a confundirse a 1,75 metros de distancia. Para puntos luminosos de intensidad variable esta cifra disminuiría apreciablemente debido a la irradiación lo que permite afirmar, en relación con otros experimentos similares, que una trama de puntos luminosos, de unos 0,25 mm de diámetro, equivalentes a una resolución de 72 dpi (dots per inch) que son precisamente las caracte-rísticas de un monitor más o menos corriente, son indestinguibles como tales puntos a partir de unos 50 cm de distancia. Más exactamente, se acepta la cifra de 127 dpi equivalentes a 5 lpm (lineas por milímetro) como resolución límite para la distancia de observación de 25 cms.

Un escáner de baja calidad digitaliza imágenes a resoluciones comprendidas entre 50 y 300 dpi. Un escáner de calidad media/alta llega hasta los 1.200. Una impresora laser de calidad media/ alta imprime a 600 dpi. Las impresoras de máxima calidad, como la Linotronic, llegan hasta más de 3.000 dpi en algunos modelos. Una filmadora de diapositivas genera imágenes de resolución aún

mayor. Todas estas cifras son muy superiores a las que hemos dado como mínimo para percibir una imagen como continua pese a estar formada de pequeños puntos. La explicación se da en la si-guiente sección de este capítulo y subraya el hecho de que los dos parámetros mencionados al principio de este párrafo, la extensión y la intensión, están estrechamente relacionados entre sí.

Número de grises

La calidad de una imagen depende, como segundo factor principal, del número de valores de intensi-dad que es capaz de representar. Estos valores son diferentes si se trata de una imagen acromática o cromática, por lo que abordaremos el primer caso en este apartado y el segundo caso en el siguiente apartado.

Entendemos por imagen acromática aquella compuesta por una escala tonal de grises cuyo ran-go varía de 2, tal com un dibujo en blanco y negro (1 bpp) hasta 256 (8 bpp). El parámetro bpp (bits per pixel) representa la cantidad de información con la que contamos y permite saber el número de valores que nos proporcionará una imagen y que será igual a 2n, donde n es el valor en bpp. Así, si el valor en bpp es 2, 4 u 8, el número de grises que podremos tener será respectivamente 4 (22), 16 (24) y 256 (28). En general, se toma este último valor como el apropiado para una imagen que presente una escala completa de grises en la que no se apre-cien discontinuidades.

El número de grises de esta escala es superior al que un observador humano puede percibir pero se relaciona con un fenómeno que permite establecer, no el número de grises que un observador medio es capaz de percibir conscientemente en una escena, sino el número de grises necesario para que una banda continua aparezca como tal sin que se pro-duzcan efectos de "contorneado". Esto se relaciona con un fenómeno visual detectado por Ernest Mach en 1865 y que se conoce como "bandas de Mach". El fenómeno puede ser analizado con instrumentos de precisión y muestra que el ojo exagera el cambio de intensidad real que se da cuando hay un cambio relativamente abrupto en un fondo continuo.

La capacidad de discriminación de este efecto se sitúa aproximadamente, según diversos expe-rimentos, en torno al 0,5% de la luminacia global percibida. Esto permite establecer la cifra de unos 200, como número máximo de niveles de gris que

Page 10: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

10 Aplicaciones informáticas en arquitectura

se detectan, virtualmente, en el caso particular de los degradados continuos y, por consiguiente, como mínimo número de grises que un sistema reproduc-tor debería ser capaz de generar para evitar efectos de contorneado tales como los descritos. Como trabajamos con bits hay que escoger entre 128 (7 bpp) que sería suficiente para la gran mayoría de los casos y 256 (8 bpp). Se escoge este último valor por las razones dadas pero también por razones técnicas, pues resulta más conveniente empaquetar la información en paquetes de 8 bits.

Número de colores

En el caso de las imágenes cromáticas los paráme-tros que se deben considerar son los 256 niveles de gris a través de tres canales RGB (Red, Green, Blue), rojo, verde y azul. Estos son los tres colores primarios utilizados en mezcla aditiva. Si se envía la imagen a imprimir hay que traducir estos valores al código CMYK (Cyan, Magenta, Yellow, Black), cían, magenta, amarillo y negro, basado en los tres colores primarios utilizados en mezcla sustractiva. Cuando se trabaja con imágenes muchos prefieren utilizar un tercer código que es intuitivamente más fácil de comprender, el HLS (Hue, Saturation, Lig-htness) pues está basado en variables perceptivas.

Si cada uno de los ejes que representan los co-lores primarios Red (rojo), Green (verde) y Blue (azul), tiene una escala ponderada en 256 inter-valos, las posibles combinaciones que se pueden obtener se darán en un rango dado por el producto 256 × 256 × 256 o lo que es lo mismo 224 (24 bpps, 8 bpp × 3 canales). Es decir unos 16,7 millones de colores. Este rango es el propio de lo que se denomina true color (color real) y proporciona una representación libre de las imperfecciones que mencionabamos en el apartado anterior.

No todas las placas gráficas proporcionan la mis-ma cantidad de colores. Es posible encontrarse por diversas causas con alguna de estas combinaciones u otras intermedias.

bpp: colores: 1 1 2 4 4 16 8 256 15 32.768 16 65.536 20 1.048.576 24 16.777.216

Tanto la etiqueta "color real", como la cifra de 16,7 millones de colores, deben tomarse con reserva. En primer lugar, para captar el "color real" de una imagen habría que utilizar un número de muestras superior a los convencionales 3 colores primarios. Las mediciones más exactas, llevadas a cabo con espectrofotómetros, toman muestra cromáticas cada 5 o 10 nanómetros lo que, para un ancho del espectro visible que podemos situar entre los 400 y 800 nm aproximadamente, daría del orden de 40 muestras requeridas para una reproducción verda-deramente fiel. En segundo lugar, los dispositivos utilizados en informática tienen rangos limitados que les impiden reproducir muchos colores que se encuentran en escenarios reales, rangos que, por añadidura, son diferentes en un monitor o en una impresora de color; ésta es una limitación que hay que tener muy presente cuando se lleva a imprimir una imagen que se ha trabajado en un monitor.

Por último, los 256 colores por canal son nece-sarios para evitar la aparición de bandas de Mach pero esto no implica que haya una mayor cantidad de colores realmente percibidos. Una escena que no contenga degradados y que se reproduzca con 8 bpp (3, 3 y 2 bpp por canal) esto es, con tan sólo 256 colores totales, será prácticamente indistin-guible de la misma escena reproducida con 24 bpp. De los 16,7 millones de colores requeridos por razones técnicas, una cifra muy inferior al 5% puede ser efectivamente distinguida por una persona normal.

3 Perturbaciones características de las imágenes y métodos de corrección

Las perturbaciones más características de las se-ñales analógicas son el ruido, las interferencias, las manchas, las franjas, los bordes de colores, las pérdidas o alteraciones de tono, intensidad o satura-ción. Casi todas estas alteraciones tienen su origen en fallos del dispositivo que impiden una respuesta adecuada. Las perturbaciones más características de las señales digitales son el contorneado, la pixe-lación y el aliasing. El ruido es una perturbación característica de las señales analógicas pero que se da también en las señales digitales y puede ser inducida ex profeso para conseguir determinados efectos. En los siguientes apartados nos referiremos a las perturbaciones principales que se pueden dar en las imágenes digitales.

Page 11: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 11

Pixelación

Tanto la pixelación como el contorneado son dos perturbaciones características de las señales digitales que se producen por insuficiencia de la resolución en el primer caso y por insuficiencia del rango de intensidades en el segundo. La figura 5 muestra un esquema que correspondería a una imagen determinada (izquierda) de la que se han suprimido la mitad de las muestras (centro) lo que produciría un efecto de pixelación, o la mitad de los valores (derecha) lo que produciría un efecto de contorneado.

El número de pixels de una imagen depende, en última instancia, del número de puntos físicos que tenga el dispositivo reproductor y obviamente, no puede superar esta cifra. En el caso de un monitor, que es el ejemplo más familiar, el diámetro de los puntos terminales (dots) debe ser tal que no puedan distinguirse a cierta distancia. Para un monitor corriente esta distancia es de, aproximadamente, 40-50 cm lo que se corresponde, para una reso-lución de 127 dpi, a la distancia normalizada de observación de 25 cm, según lo visto más arriba, con la resolución media de los monitores que es de unos 72 dpi.

Cuando el adaptador gráfico es incapaz de gestionar esta resolución reduce la imagen a un submúltiplo de la máxima resolución agrupando puntos para formar pixels mayores. Una misma imagen puede ser mostrada, sobre un mismo mo-nitor, con una resolución de 1024 × 768, 800 × 600 o 640 × 480 (VGA). En este último caso, en donde los pixels de la imagen mostrada corresponden a células formadas por agrupaciones de varios dots se puede apreciar claramente el efecto conocido como pixelación (pixellation). Otro tanto ocurre si se im-prime una imagen a una resolución insuficiente. La figura 6 muestra un ejemplo de este defecto.

Figura 5 Pérdida de calidad de una imagen (a) por insuficiente muestreo (b) y cuantificación (c)

Figura 6 Efecto de pixelación por reducción de la resolución: a) 600 dpi; b) 150; c) 60; d) 20 (la fotografía corresponde a las Oficinas Centrales

Nunotani, Tokio, 1991-92, de Peter Eisenman)

Page 12: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

12 Aplicaciones informáticas en arquitectura

Contorneado

El contorneado (contouring) es otra perturbación característica de las imagenes digitales producida por un insuficiente rango de intensidades. El núme-ro de grises necesario para mostrar una imagen con suficiente fidelidad estaría situado, en principio, y en función de diversos estudios, basados tanto en la capacidad de discriminación como en el control del ruido, en los 5 bpp, lo que equivale a 32 niveles de grises. Sin embargo esta cifra, que es suficiente para reproducir la escala de grises de una imagen con buena calidad, es insuficiente para mostrar degradados continuos como ya hemos dicho an-teriormente; aparecen franjas claramente visibles (bandas de Mach) que muestran la insuficiencia del rango utilizado para superar la hipersensibilidad de nuestro sistema receptor a los cambios relativamen-te bruscos de un degradado continuo. Es por esta razón, como ya hemos dicho, que se requieren 256 niveles de gris. Si no se alcanza esta cifra, en el caso de imágenes con degradados finos y continuos, o la cifra anterior en el caso de imágenes sin degradados notables, aparecen franjas visibles en la imagen que falsean la calidad de la reproducción. Esto puede apreciarse en un monitor si se modifica la configuración de pantalla para que trabaje en un rango menor y se abre un archivo en el que aparezcan degradados continuos, cielos sin nubes, paredes blancas ilumi-nadas con una luz tenue, etc. Se comprobará cómo este degradado queda fragmentado por leves franjas que rompen su continuidad. La figura 7 muestra una imagen impresa con una rango de valores limitado, que permite apreciar este defecto.

Ruido

En el caso de señales analógicas se denomina ruido a una señal no deseada que aparece en un sistema de transmisión. Esta señal puede tener diversos orígenes. En general se consideran como "errores de medición" superpuestos a la imagen. La distin-ción es más esquiva de lo que puede parecer pues las señales "con ruido" no son intrínsecamente diferentes a las señales "sin ruido". Y tanto es así que uno de los métodos de corrección de imágenes por medio de filtros es introducir cierto grado de ruido para igualar y corregir rasgos excesivamente acusados que no se desean mantener.

El ruido de fondo, en una señal, es debido a la

Figura 7 Efecto de contorneado por reducción de los valores de la imagen anterior: a) 8 bpp; b) 4 bpp; c) 3 bpp; d) 2 bpp

Page 13: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 13

agitación de electrones presentes en el canal antes del paso de los electrones propios de la señal. El ruido no puede evitarse sino disminuyendo las frecuencias esto es, la capacidad del canal. La información que se gana por un lado se pierde por otro.

La medición del ruido se expresa en decibelios (dB) referidos a números S/N (signal to noise ra-tio). Aunque el término y las unidades se refieren habitualmente a señales auditivas, se utilizan, en general, para expresar pérdidas y ganancias en cualquier sistema de comunicación, especialmente en aquellos basados en distribución de señales.

En general todos los sistemas físicos reales in-corporan cierto grado de ruido a la imagen, tanto si ésta se ha generado internamente como si se ha cap-tado por algún dispositivo. Desde un punto de vista más atento a las aplicaciones prácticas se pueden distinguir dos grandes grupos que se corresponden con dos tipos de distribuición probabilística.

El ruido determinado o no aleatorio se genera por un sistema concreto y tiene siempre un aspecto similar: franjas o bandas o nubes de puntos de de-terminadas características de tamaño y orientación. En muchos casos es posible identificar su patrón de recurrencia, lo que facilita su filtrado y eliminación. Muchos programas de tratamiento de imágenes llevan incorporados filtros especiales para eliminar ciertos ruidos característicos. Un ejemplo corriente es el de una imagen captada de un libro en la que resultan claramente visibles las tramas propias de la impresión en cuatricromía. En muchos programas de tratamiento de imágenes es posible aplicar a este tipo de imágenes un filtro de "destramado" que elimina limpiamente las huellas de la trama.

El ruido indeterminado o aleatorio se genera

por causas diversas que no es posible identificar o corregir pues su distribución es aleatoria y cambia con el tiempo. Para eliminar este tipo de ruido no suele haber otra opción que probar diferentes filtros que pueden reducir el nivel general de de-terioro de la imagen en combinación con retoques locales. También puede utilizarse y se utiliza con frecuencia de modo constructivo. Puede introdu-cirse deliberadamente ruido en una imagen o en un sector de una imagen para ocultar defectos o, incluso, para generar efectos de textura. Muchas de las texturas generadas por procedimientos algo-rítmicos, tales como las introducidas por Perlin a las que nos hemos referido en el capítulo anterior, utilizan funciones matemáticas de diversos tipos que introducen ruido en una imagen para generar efectos de textura más o menos controlados. La figura 8 muestra la misma imagen de las figuras anteriores en la que se ha aplicado cierto grado de ruido por medio de filtros especiales a uno de los elementos lo que, en este caso, sirve para simular un efecto de textura rugosa. La distribución más utilizada en este tipo de filtros suele ser la gaussiana o variantes de la misma, con alteraciones variables en torno a un valor medio y con correlación nula entre puntos adyacentes.

Aliasing

Cuando se trabaja en CAD, tanto en 2D como en 3D, se trabaja en un espacio donde las especifica-ciones dimensionales se dan con considerable pre-cisión, en términos cercanos a números reales. Esto es, la resolución es, a efectos prácticos, infinita.

Ahora bien, la visualización del proceso exige, en todo momento, que este espacio tridimensional de resolución prácticamente infinita se proyecte en un espacio bidimensional de resolución finita. Esto quiere decir que las coordenadas espaciales, que pueden corresponder a números de varios dígitos con varios decimales, deberán ajustarse a coordenadas de pantalla que no admiten más de, pongamos por caso, 1024 × 768 pixels.

El efecto más familiar de esta reducción es que, por ejemplo, una línea diagonal muestre un escalonamiento perceptible, es decir, que la línea ya ha dejado de ser tal línea para convertirse en una yuxtaposición de segmentos. Este es un fe-nómeno que entra dentro del mencionado en el apartado anterior, la pixelización y que ya hemos mencionado en capítulos anteriores. Pero se incluye

Figura 8 Modificación de un elemento de la imagen anterior por adición de ruido

Page 14: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

14 Aplicaciones informáticas en arquitectura

en este apartado por ser una muestra fácilmente comprensible de todo un grupo de fenómenos que reciben tratamientos similares y que responden en general a una falta de correspondencia entre los canales de entrada y los de salida. Hay otros efectos más graves.

En sentido estricto, el término aliasing debería reservarse para la aparición de fenómenos extraños que alteren notablemente el aspecto de la imagen original suprimiendo información relevante o al-terando la existente hasta volverla equívoca. Estos fenómenos se originan, en el momento de la re-construcción, por pérdida o modificación, debido a que alguno de los componentes de la señal original estaba comprendido en frecuencias superiores a un determinado límite (denominado límite de Nyquist) y ha sido reconstruido en frecuencias más bajas.

Otras manifestaciones típicas son temporales. Un efecto conocido es el de las ruedas que parece que van hacia atrás en las películas del Oeste. También las televisiones parapadeantes que apa-recen al fondo de los despachos de redacción en las secuencias informativas se deben a este efecto; al contemplar una pantalla que se enciende y se apaga a gran velocidad a través de otra pantalla que también se enciende y se apaga, se producen interferencias. Otro tanto ocurre si se quiere obte-ner una imagen fotografiando una pantalla a una velocidad superior al medio o un cuarto de segundo de exposición: aparecerán franjas horizontales o "alias" que echarán a perder la imagen.

Antialiasing

Se denomina antialiasing al conjunto de técnicas que se utilizan para prevenir o disimular los defectos comprendidos genéricamente bajo la denominación de aliasing. Es un área de estudio de considerable complejidad que nos obligaría a entrar de lleno en la teoría del procesamiento de imágenes por lo que nos limitaremos a exponer los puntos principales. El lector interesado puede encontrar información adicional en las obras indicadas en la bibiografía referentes a técnicas de tratamiento de imágenes tales como las de Marion (1991), González (1992) o Glassner (1995).

En todos los casos, el sistema de muestreo de-termina la calidad potencial de la imagen que se está captando y los medios que habrá que emplear para corregir los defectos. Básicamente se trata de escoger el modo más efectivo para pasar de una

imagen que podemos considerar de "resolución infinita" a una de resolución finita. Aunque no es necesario, en la mayoría de los casos, especificar un tipo de técnica determinado, un conocimiento sumario de las técnicas básicas puede ayudar a comprender mejor las alternativas con que se cuenta corrientemente.

El muestreo por punto es el modo más simple de traducir una imagen a una determinada resolución (figura 9). Supongamos que tenemos una rejilla que representa la resolución de la imagen que vamos a generar o derivar, situada sobre la imagen origi-nal. Muestrear por punto consiste en seleccionar un punto de la imagen original por cada pixel de la imagen derivada, tomar el valor en ese punto y asignar ese valor a todo el pixel de la imagen derivada. El obvio inconveniente de este método es que pueden perderse detalles importantes. Y, si se modifica el punto de vista, como ocurre en una animación, puede ocurrir que los objetos aparezcan y desaparezcan.

Es posible mejorar la calidad de la captura, sin aumentar directamente la resolución de la imagen derivada, aumentando el número de puntos de muestra que se toman de la imagen original. Esto se denomina supermuestreo (supersampling). Equi-valdría a tomar varios puntos situados en el entorno correspondiente a un pixel de salida, tal como se muestra en la figura 10 a. Esto no es exactamente así pues lo que se computa es una muestra de la imagen reconstruida en lugar de la imagen original, pero podemos aceptar el esquema como un resu-men simplificado del proceso que realmente tiene lugar. Es una técnica muy utilizada porque consigue buenos resultados y es fácil de aplicar. Su mayor inconveniente es el coste de computación.

Esto puede seguir siendo insuficiente en mu-chos casos. Se seguiría produciendo un paso abrupto de pequeños puntos que serían asignados arbitrariamente a uno u otro pixel. El muestreo no ponderado por área (figura 10 b) intenta mejorar la situación tomando en cuenta la totalidad de la señal integrada en el área correspondiente a un pixel de salida y tomando como dato la media de intensidad encontrada para este área. Esto evita que se pierdan objetos, si bien puede llegar a perderse su configuración exacta pues la integración de la intensidad es independiente de la distribución interna dentro del área. En el muestreo ponderado por área se toma en cuenta la cercanía a la frontera del área. Tal como se muestra en la figura 10 c esto

Page 15: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 15

es equivalente a utilizar una función que puede visualizarse mediante un prisma ortogonal o una pirámide que nos indicarían el modo de distribución de las intensidades sobre cada muestra.

Aún esta última técnica tiene limitaciones que pueden afectar a la calidad de la imagen resultante en muchos casos, en la medida en que cada muestra sólo sirve para determinar la intensidad del pixel con el que está relacionada directamente. Si nos imaginamos un pequeño objeto luminoso que se mueve por el interior de un pixel, la intensidad correspondiente iría decreciendo a medida que se acercara a la frontera con el pixel colindante. Pero este pixel colindante sólo aumentaría de intensidad en el momento en que el objeto cruzara dicha fron-tera lo que implica, de nuevo, un cambio abrupto y, en principio, indeseado. El muestreo ponderado por área extendida (figura 10 d) es una técnica que cubriría estos casos a costa de una creciente complicación técnica que sólo puede cubrirse satisfactoriamente mediante procedimientos ma-temáticos complejos, entre los que ocupa un lugar principal la transformada de Fourier y la convolu-ción, que se desarrollan en lo que se conoce como teoría del muestreo (Sampling Theory), una rama de investigación de la teoría del procesamiento de imágenes digitales.

Uno de los principios de esta teoría es que, para garantizar que la imagen pueda ser reconstruida con fidelidad, la frecuencia de muestreo debe ser, como mínimo, el doble de la frecuencia más alta del espectro de la imagen que queremos digitalizar. Este valor crítico fue formulado por Nyquist en un famoso artículo publicado en los años veinte, al que nos volveremos a referir en el capítulo sobre redes y se conoce como la "frecuencia de Nyquist" (Nyquist frequency). Sin embargo, el muestreo a esta frecuencia resulta efectivo en general, dando por supuesto que los valores estarán en torno a los máximos y mínimos de frecuencia de la muestra.

En casos singulares, determinadas frecuencias características de la imagen, que pueden no ser relevantes desde un punto de vista probabilístico pero que lo son desde el punto de vista de su sig-nificado, pueden quedar enmascaradas, lo que se traduce, dicho de un modo menos técnico en que, por ejemplo, determinados puntos pueden desapa-recer aleatoriamente o bien en que, como vimos en el capítulo anterior, la geometría característica de un pavimento ajedrezado puede distorsionarse bruscamente en los confines de la imagen debido a que diminutas líneas, demasiado pequeñas o dema-siado juntas, pueden ir cayendo, alternativamente, dentro o fuera del área muestreada lo que ocasiona que desaparezcan o que se salgan de la alineación que les corresponde.

La solución para estos defectos es la utilización de filtros de diversos tipos. El mecanismo más corriente es utilizar filtros de corrección de las frecuencias. Las frecuencias bajas corresponden a zonas en las que los valores de luminancia de la imagen varían con suavidad. Las frecuencias altas corresponden a zonas en las que estos valores va-rían bruscamente y donde, en consecuencia, es más probable que se produzcan alteraciones. Un filtrado previo de la imagen por un filtro de pasa-bajas (low band filtering) puede eliminar estas distorsiones.

Dado que los filtros se utilizan tanto para corre-gir errores de digitalización como para modificar

Figura 10 Muestreo múltiple (a), muestreo por área sin ponderar (b), ponderada (c) y

ponderada con solapamiento (d)

Page 16: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

16 Aplicaciones informáticas en arquitectura

a consciencia partes de la imagen volveremos a abordar el tema de un modo más general en la sección 6 de este capítulo.

4 Medios y métodos de digitalización

En términos generales ya se ha dicho que una señal analógica es una señal que se asemeja, mediante una correspondencia continua, al fenómeno que la ha producido, mientras que una señal digital es una codificación de dicha imagen en elementos discre-tos, discontinuos. Las señales analógicas y digitales utilizan una misma base, la tecnología electrónica, con procedimientos diferentes que están asociados, históricamente, a finalidades diferentes. Las señales analógicas se relacionan con la radio y la televisión que buscaron desde un comienzo reproducir el so-nido y la imagen por medio de curvas que fueran variando de perfil de un modo continuo. Las señales digitales se relacionan con los primeros computa-dores, utilizados para realizar cálculos matemáticos complejos con cantidades discretas.

Las ventajas de una señal analógica estriban en su capacidad intrínseca para reproducir con fideli-dad el original. Pero una señal analógica, por esta misma razón, siempre incorpora algo más de lo que interesa y que aparece como "ruido" o "distorsión" de la señal. Las ventajas de una señal digital están en su exactitud y en la ausencia de errores o seña-les secundarias que interfieran con la imagen o el sonido. Una señal digital sólo reconoce un nivel preestablecido. Las investigaciones, como sería de esperar, han ido dirigidas a combinar estas dos ventajas en un único sistema. La cuestión clave es saber qué grado de digitalización soporta una señal en un medio determinado. En términos generales puede decirse que todo parece estar a favor de la digitalización. El principal inconveniente, las grandes cantidades de memoria requeridas para mantener resoluciones equivalentes en calidad a las de las señales analógicas, va desapareciendo a medida que se incrementan las capacidades medias de los ordenadores corrientes.

La obtención de una imagen digital puede llevarse a cabo por medios internos y por medios externos. Todos los sistemas que hemos visto en capítulos anteriores no parten, en muchos casos, de una imagen previa sino de unas ideas y de unos datos a partir de los cuales se construyen una serie de objetos virtuales que dan lugar a una imagen proyectada sobre la pantalla del ordenador o im-

presa con un dispositivo adecuado o grabada en un disco magnético u óptico para su utilización pos-terior. Una imagen, así obtenida, tiene las mismas características que una imagen de un objeto real captada por un aparato adecuado.

Aunque no debe perderse de vista que la imá-genes creadas en un ordenador tiene las mismas características que las imágenes captadas del mundo real lo que nos interesa, sin embargo, es conocer la tecnología con que se cuenta para grabar imágenes reales y qué es lo que se puede esperar de esta tecnología.

Medios de obtención de una imagen digital

Para obtener una imagen digital debe contarse en primer lugar con un sistema adecuado para su captación, un dispositivo físico sensible a unas determinadas bandas de energía electromagnética del espectro visible o invisible, el cual produce una señal eléctrica proporcional al nivel de energía recibida. Y, en segundo lugar con un dispositivo digitalizador que convierta la anterior señal eléc-trica en digital.

Este proceso varía según la naturaleza de los objetos que se quieran reproducir. Pero en tér-minos generales puede decirse que se utilizan principalmente tres tipos de tecnologías: micro-densitómetros, cámaras tipo vidicon y matrices de estado sólido.

En los dispositivos que utilizan micro-densi-tómetros se requiere que la imagen esté dada por medio de una película, preferentemente transpa-rente, que por lo general se fija alrededor de un tambor giratorio. Es el método utilizado en los escáners de tambor que se describen más adelante. Un rayo de luz, generalmente emitido por láser, rastrea la imagen enviando puntos microscópicos a un fotodetector que codifica su nivel de gris. Son dispositivos relativamente lentos pero que pueden alcanzar precisiones muy altas.

Este tipo de cámara se utilizó por primera vez en los cincuentas para televisión y fue el primer tipo de cámara cuyo funcionamiento se basó en principios de fotoconductividad; era más pequeña y manejable y sustituyó en poco tiempo a otro tipo de cámaras. La imagen enfocada sobre la superficie del tubo genera un patrón de conductividad variable a la luz que reproduce el patrón de intensidades luminosas de la imagen. Un rayo de electrones rastrea la su-perficie y genera un diferencial de potencial que da

Page 17: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 17

lugar a una señal proporcional al patrón luminoso. Esta señal se codifica en cantidades discretas junto con la posición correspondiente en la imagen, de modo similar al caso anterior.

Los dispositivos que utilizan matrices de es-tado sólido están basados en mínusculas células de silicon, denominadas fotositos (photosites), ordenadas en filas y columnas. Estos sensores se suelen disponer bien en forma alineada y sometidos a un desplazamiento horizontal (line scan sensors), como es el caso de los escáners de sobremesa, o bien en forma de área o matriz (area sensors) como en las cámaras de TV.

Ambas tecnologías están basadas en lo que se conoce como CCDS, o charge-coupled devices, (dispositivos de carga acoplada). Un CCD con-siste básicamente en un hilera de fotositos, ciertos mecanismos de transferencia y un amplificador que envía una señal eléctrica a un dispositivo de registro, proporcional a la intensidad de la señal luminosa.

Los escáners basados en sensores de área suelen contar con resoluciones limitadas que no superan los 1.024 o, excepcionalmente los 1.280. Los es-cáners basados en sensores en línea, tal como los escáners de sobremesa corrientes, pueden alcanzar los 4.096 puntos. Otra ventaja importante de este tipo de dispositivos es su velocidad (pueden llegar a alcanzar los 1/ 10.000 seg)

En relación con el tipo de aplicaciones que nos interesan, nos referiremos principalmente a los escáners y cámaras digitales dejando de lado las cá-maras de vídeo, ya que éstas se usan especialmente para la edición videográfica. Los principios gene-rales y los párametros que deben tenerse en cuenta son, por otro lado, básicamente los mismos.

Escáners. Funcionamiento general

Un escáner puede definirse genéricamente como un instrumento óptico capaz de captar imágenes mediante un sensor que traduzca impulsos lumíni-cos a impulsos electrónicos y estos a información digital. Todos los escáners se basan en un mismo proceso que, descrito del modo más simple posible, consiste básicamente en lo siguiente. Una fuente de luz ilumina de modo regular la superficie que se pretende capturar. La luz se refleja, en el caso de un original opaco, o atraviesa la imagen, en el caso de un original transparente, y se hace llegar a un sensor capaz de captar la imagen y convertir los

datos analógicos en datos digitales. Los escáners incorporan un mecanismo que permite desplazar el sensor sobre la imagen original o que permite a la imagen original moverse bajo el sensor.

El dispositivo fundamental queda incorporado en lo que se denomina el cabezal óptico. En el caso de un escáner de sobremesa, el cabezal óptico incorpora la fuente de luz, un juego de espejos o prismas, un sistema de filtros de colores y un CCD capaz de registrar la luz que recibe en forma de voltaje eléctrico. Un convertidor A/D convierte los impulsos eléctricos en números. La resolución depende directamente de la densidad de CCD. Cuanto mayor sea la cantidad de éstos que pueda ser dispuesta sobre el cabezal de lectura, mayor será el número de puntos que puedan ser captados. En un escáner con 300 dpi de resolución máxima, el cabezal se desplaza en cada micromovimiento, 1/300 de pulgada. La profundidad de lectura depen-de por añadidura de la capacidad del convertidor analógico digital para dividir la señal analógica en particiones discretas.

En cada pasada, una fuente de luz ilumina el objeto, la luz reflejada se hace pasar por una serie de espejos y prismas y tres filtros de color, hasta llegar al CCD que registra la señal. Otros modelos emiten tres diferentes haces de luz, en lugar de utilizar filtros. Según los tipos de escáner puede registrarse toda la información en una sola pasada o en tres pasadas, una para cada color primario.

Los primeros escáners que se construyeron fueron los inventados por Hardy y Wurzburg y por Murray y Morse (patente de 1941) a principios de los cuarenta. El primero fue desarrollado inicial-mente para la Interchemical Corporation y, poste-riormente para la Radio Corporation of America. Puede considerarse, con muchas reservas, como el antecesor de los actuales flatbed scanners en la medida en que tambien efectuaba lecturas sobre un

Page 18: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

18 Aplicaciones informáticas en arquitectura

original dispuesto sobre un plano horizontal por medio de un aparato de registro que iba recorriendo línea por línea este original y transmitiendo la señal codificada a otro dispositivo.

El segundo fue desarrollado inicialmente para la Eastman Kodak Company y subsecuentemente para la Time Incorporated y su filial Printing De-velopment Incorporated (PDI) que dio su nombre a este primer escáner. Puede considerarse como el antecesor de los actuales drum scanners.

Los primeros escáners estaban destinados a la grabación de clichés tipográficos por lo que cual-quier comparación con los actuales puede resultar equívoca. Hasta la década de los setenta no se pudieron desarrollar la mayoría de los dispositivos actuales entre los cuales juega un papel fundamen-tal la exploración por medio de rayos láser. Con todo, el sistema de registro óptico y conversión en señal electrónica de la señal óptica es similar.

Tipos de escáners

La mayoría de los escáners pertenecen a cinco tipos básicos. El escáner de sobremesa (flatbed), el escáner tipo fax o de alimentación automática de hojas sueltas (sheetfed o page feed scanner), el de cabezal superior (overhead escáner), el manual y el de tambor.

Los escáners de tipo plano o de sobremesa (flatbed) (figura 12) funcionan de modo semejante a una fotocopiadora. Se coloca el original sobre un cristal y el dispositivo CCD al que nos hemos referido anteriormente, se desplaza por debajo del mismo, iluminando alternativa o simultáneamente con luces de color de gran intensidad la zona que se quiere digitalizar, que ha sido previamente seleccionada utilizando el software propio del aparato. Existen variantes que aceptan alimentación automática de originales, que siempre han de ser de poco grosor, así como adaptadores para captar trasparencias, o flatbed slides.

En los escáner tipo fax, de alimentación hoja a hoja (sheetfed o page feed) lo que se desplaza es el original. Obviamente las limitaciones por lo que respecta al tipo de originales son mayores que en el tipo anterior, ya que sólo se pueden leer imágenes contenidas en una hoja de grueso corriente. Son escáners particularmente útiles cuando se quiere escanear varias hojas en sucesión, como ocurre cuando se utiliza un sistema OCR para digitali-zar textos, pero que ofrecen escasas ventajas en

el caso de trabajo con imágenes en donde, en la gran mayoría de los casos, cada imagen requiere ser ajustada por separado. En 1999 no se comer-cializan de modo autónomo sino incorporados a dispositivos multiuso como el que se muestra en la figura 13 que combina las funciones de escáner, impresora y fax.

Un tercer tipo son los escáners de cabezal alto (overhead) (figura 14) . En ellos el sensor está dispuesto por encima de una plano que admite la colocación de cualquier objetos voluminoso, uti-lizando la iluminación ambiental para iluminar la muestra lo que implica una considerable pérdida de precisión. Se utilizan como proyectores de cuerpos opacos en conferencias. Pueden ser útiles para obte-ner vistas digitalizadas de un objeto. En este sentido son equivalentes a las cámaras digitales.

Los escáners de mano (handyscan) (figura 15)

Figura 13 Escáner-fax-impresora

Figura 12 Escáner plano

Page 19: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 19

funcionan igual que los de tipo sheetfed pero sin mecanismo de motorización ya que es la mano la que impulsa el sensor sobre el papel, con las obvias ventajas e inconvenientes que esto implica. Sus mayores ventajas son que permiten digitalizar todo tipo de objetos, incluidos libros voluminosos y que son fácilmente transportables. Las versiones actua-les son inalámbricas y bastante más caras (del órden de las 90.000 pts de 1999) que los viejos escáners manuales que han desaparecido del mercado

El último tipo son los de tambor (drum scaners) . Son los más precisos ya que en ellos la fuente de luz y el sensor se desplazan muy lentamente en sentido paralelo a un cilindro sobre el que se ha colocado el original que gira a gran velocidad, y están especialmente indicados para trabajos de gran tamaño ya que existen modelos con capacidad de hasta un DinA0. Una limitación importante es que los originales no pueden ser rígidos. Su coste

es muy superior al de cualquiera de los anteriores, superior a los 5 millones de pesetas en la gran ma-yoría de los casos, por lo que se utilizan a través de algún tipo de empresa de servicios y para trabajos profesionales de edición o casos especiales. En los últimos años han aparecido escáners de pseudo-tambor, semejantes al modelo que se muestra en la figura 16 que ofrecen calidades semejantes a un precio algo inferior, del orden de los 2 millones de pesetas de 1999, y que es previsible que bajen de precio en los próximos años.

En el trabajo profesional de retoque de imágenes prácticamente sólo se utilizan los escáners de sobre-mesa y los escáners de tambor. Las posibilidades de los tipos descritos varían según el modelo o fabricante. Las resoluciones pueden ir desde los 75 dpi en blanco y negro pasando por los 256 colores a 400 dpi, hasta 16 millones de colores y 2.400 dpi. Hay que diferenciar muy claramente entre lo que es la resolución óptica del dispositivo sensor y lo que es la resolución por interpolación, obtenida por software. Hay numerosos escáners de coste medio que ofrecen una resolución de 600 o 1.200 dpi aunque la resolución óptica real no supere los 300 o 400. El más sofisticado y el que proporciona las mayores resoluciones es el escáner de tambor. Los mejores ofrecen resoluciones de 3.000 dpi o más. Esto implica la generación de imágenes que pueden llegar fácilmente a los 100 Mb.

Otro aspecto importante que se debe tener en cuenta es que, por razones técnicas, los CCD, en que están basados la gran mayoría de los escáners de sobremesa, tienen limitaciones importantes al leer los tonos oscuros. Si se va a digitalizar una imagen con bastante detalle en las zonas de sombras deberán buscarse alternativas de digitalización o bien, si el software del escáner lo permite, intentar aclarar la imagen para recuperar el detalle.

Figura 15 Escáner de mano inalámbrico

Figura 14 Escáner de cabezal elevado

Figura 16 Escáner de tambor (pseudo-tambor)

Page 20: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

20 Aplicaciones informáticas en arquitectura

Procedimientos corrientes de digitalización

La utilización de un escáner como instrumento habitual para la captación de imágenes que se pretenden modificar por medios informáticos para volver a convertirlas en imágenes similares a las originales, pasa por una serie de pasos generales que se describen a continuación.

a) Cálculo de la resolucion requerida

Para calcular la resolución necesaria hay que partir del tamaño de la imagen con que se cuenta, en pul-gadas, y del tamaño y de la resolución de la imagen que se quiere obtener, en pixels. Si suponemos que ambas tienen la misma proporción y que la anchura de la primera es A y la anchura de la segunda es X, la resolución requerida, en puntos por pulgada, será r = X / A dpi (dots per inch, puntos por pulgada).

Por ejemplo, supongamos que partimos de una fotografía de 15 × 10 cms que se desea convertir en una imagen de 1024 × 768 pixels. Esto implica que tendremos que recortar parte de la dimensión horizontal, pues la proporción de la primera es de 1,5 y la de la segunda 1.333.... A partir de esto el cálculo (con las dimensiones en pulgadas: 15 × 10cm / 2,54 = 5,90" × 3,93") será:

resolución horizontal: 1024 / 5.90 = 173 dpi resolución vertical: 768 / 3.93 = 195 dpi

Se toma la cifra mayor, 195 dpi y ésta es la resolu-ción a la que deberemos digitalizar la imagen para obtener el resultado que buscábamos. b) Cálculo del volumen de la imagen

En muchos casos, sobre todo cuando se prevea digitalizar varias imágenes a una resolución alta, puede ser conveniente hacer una estimación del ta-maño para prevenir problemas de almacenamiento. Para calcular este tamaño basta multiplicar las dos dimensiones de la imagen, en pixels, lo que nos dará el número total de pixels y, a continuación multiplicar este valor por la cantidad de informa-ción por pixel en bits. En el caso de una imagen monocroma este valor es corrientemente de 8 bpp, y en una imagen en color real 24 bpp o bien, si se prefiere, 3 canales RGB de 8 bytes cada uno. Y si se trata de una imagen que incorpora un canal adicional (un canal alfa) el valor es 32 bpp. Para el ejemplo anterior tendríamos:

1024 × 760 = 786 432 pixels 786 432 pixels × 8 = 6 291 456 bpp

6291456 bpp × 3 canales = 18 874 368 bits = 2.25 Mb

Se ha detallado el cálculo para resulte más claro, pero nótese que basta con multiplicar el número de pixels por 3 para obtener directamente el tamaño en bytes.

La figura 17 muestra los volumenes de alam-cenamiento requeridos para diferentes tamaños y resoluciones en formatos no comprimidos.

c) Proceso

El proceso se reduce básicamente a: 1) fijar los parámetros de lectura adecuados, esto es, la reso-lución y la profundidad de lectura. En el ejemplo anterior sería 195 dpi y 24 bpp o "color real"; 2) realizar una exploración preliminar o muestreo previo sobre toda la imagen; 3) seleccionar una parte de esta imagen; 4) activar la orden para que el escáner registre la imagen según los parámetros de lectura especificados; 5) archivar la imagen en un formato determinado; la mayoría de los escáners presentan unas opciones de conversión o de salida directa normalizadas por la práctica tales como tif, tga, gif, o algunos de los que mencionaremos en la sección siguiente.

El software que controla un escáner permite afi-nar el proceso con el fin de optimar sus resultados.

cm dpi mb 6 × 9 300 2,15 600 8,62 1200 34,47 9 × 12 300 4,31 600 17,24 1200 68,96 12 × 18 300 8,62 600 34,47 1200 137,92 18 × 24 300 17,24 600 68,96 1200 275,79 24 × 36 300 34,47 600 137,92 1200 551,66

Figura 17 Volúmenes de información para diferentes tamaños y resoluciones

Page 21: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 21

Esto puede implicar cierto tipo de pretratamiento de la imagen, ya que es muy diferente digitalizar un dibujo lineal en el que se necesita mucho contraste y precisión, que una fotografía en la que priman los medios tonos. En algunos casos estos ajustes se realizan de modo automático por el propio programa. Si se quiere un control pleno sobre los resultados es preferible no confiar demasiado en estas ayudas automatizadas.

Cámaras digitales. Otros medios

Una alternativa reciente, desarrollada por East-man Kodak, que irá cobrando una progresiva importancia en el futuro, son las cámaras digitales. Una cámara digital puede considerarse como un cruce entre un escáner y una cámara fotográfica tradicional. Como la primera, utiliza una lente, un mecanismo de apertura y un sistema de enfoque. Pero, como el segundo, en lugar de enfocar la ima-gen sobre una emulsión sensible a la luz, lo hace sobre un CCD, un dispositivo capaz de transformar señales luminosas en señales eléctricas que, a su vez pasa esta información a un AD, un disposi-tivo capaz de transformar señales analógicas en digitales. Esta información se graba en un chip o en una tarjeta removible y, de aquí, puede llevarse directamente a un laboratorio para que revelen la imagen o puede cargarse directamente en un PC para modificarla, fundirla con otras imagenes, incorporarla a animaciones, etc.

El tiempo de exposición es algo mayor que el requerido en las cámaras tradicionales aunque esto ha mejorado bastante en los modelos más recientes. El número de tomas depende de la memoria y de la resolución y puede variar, en los modelos más sencillos, de poca memoria, entre algo así como 10 imágenes a alta resolución o 100 imágenes a baja resolución.

La principal limitación de los modelos actua-les es la resolución y la calidad de la imagen. La mayoría de las cámaras de coste bajo no superan los 1024 × 768 puntos (en 1999) lo que limita su aplicación a vídeo o tomas en las que no interesa la calidad como factor prioritario. Una diapositiva de 35 mm tiene del orden de 4.000 líneas, esto es, del orden de 5 veces más resolución que las obtenidas por este sistema. Sin embargo, es de prever que la evolución tecnológica supere con rapidez estas limitaciones. Los modelos de coste medio ya alcanzan, en 2002, resoluciones de 1600

× 1200 con chips de memoria de hasta diez veces más capacidad que los modelos sencillos.

La resolución de las cámaras digitales se mide en megapixels, con la convención de que 1 "me-gapixel equivale a 1 millón de puntos por imagen. Una versión más flexible de este requisito es que al menos uno de los lados alcance los 1.000 pixels. Una imagen 640 × 480 impresa a 4" × 6" (10 × 15 cms) supone una resolución de 160 dpi, lo que pro-porciona imágenes de calidad notoriamente inferior a las de una fotografía tradicional. A partir de 1280 × 1024 es posible imprimir imágenes de 5" × 7" (algo menos de 13 × 18 cms), con una resolución algo inferior a los 200 dpi que puede considerarse "aceptable" sobre todo si la impresora cuenta con sistemas adecuados de dispersión del punto. Debe tenerse en cuenta que cualquier ampliación en fo-tografía tradicional disminuye la resolución lo que justifica, hasta cierto punto, estas apreciaciones que son, pese a todo, más bien generosas.

Un último método de digitalización que debe mencionarse aunque su uso ha retrocedido bastante son las tabletas digitalizadoras. Una tableta digita-lizadora consiste en un tablero por el que discurren internamente una serie de cables. Sobre la superfi-cie de la tableta se hace discurrir un digitalizador: un lápiz electrónico o un ratón de características especiales que pueden incorporar un pequeño visor de aumento. La tableta se calibra de modo que su superficie se corresponda con la de una superficie equivalente especificada sobre el monitor. La red de cables que discurre por el interior de la tableta permite detectar la posición del digitalizador. Todo esto permite que cualquier punto marcado sobre la tableta quede registrado en el ordenador con ayuda de los botones con que cuenta el digitalizador, lo que es un modo relativamente eficaz de digitalizar dibujos o datos basados en líneas. Las razones por la que su uso ha retrocedido son el abaratamiento de los escáners y la gran variedad de herramientas con que cuentan los programas de CAD actuales para leer imágenes, lo que permite llevar a cabo este mismo operaciones con similar precisión y bastante más comodidad.

La digitalización de imágenes puede también hacerse a partir de imágenes tomadas con una cá-mara de vídeo. Esto supone una importante ventaja y un grave inconveniente. La ventaja es que puede sacarse gran partido de la agilidad y de la riqueza de alternativas que proporciona el vídeo. Puede filmarse toda una secuencia en directo y entresacar

Page 22: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

22 Aplicaciones informáticas en arquitectura

a posteriori, con toda la tranquilidad requerida, las imágenes más adecuadas para el caso de que se tra-te. El inconveniente es que la resolución y la calidad de la imagen quedan limitadas por la resolución propia del vídeo que es de 625 líneas.

5 Almacenamiento

El trabajo con imágenes implica manejar un vo-lumen de información mucho mayor que el que se da con otro tipo de programas. Esto implica varias cosas. En primer lugar, que es necesario plantearse el modo en que se va a a manejar este volumen de información. En segundo lugar, que habrá que tener presente los muy diversos modos en que esta información está empaquetada puesto que no existen normativas universales y hay un número considerable de tipos de archivos que usan técnicas diversas para optimizar este volumen de información.

Volumen y equipamiento requerido

Ya hemos visto en el ejemplo de cálculo dado más arriba que el almacenamiento de una imagen de tan sólo 1024 × 768 pixels a 24 bpp o true-color requiere, sin compresión, más de 2 mb. Repárese en que, por ejemplo, tal como se resumen en la figura 17, una imagen a toda página, de 18 por 24 cm, grabada a una resolución alta, requeriría 275 Mb. Esto puede dar una idea de hasta qué punto es importante la gestión y el almacenamiento, tanto temporal como final, de este tipo de información.

Esto supone, en primer lugar, que se necesita una memoria principal (memoria RAM) muy superior a lo corriente para otro tipo de aplicaciones. Y, en segundo lugar, un procesador lo suficientemente rápido como para mover los datos a velocidad suficiente como para que se pueda trabajar con comodidad. Y, en tercer lugar, un monitor de buen tamaño que permita contemplar una parte suficiente de la imagen.

Para el almacenamiento intermedio o a corto plazo se suelen usar los dispositivos periféricos propios del ordenador, tales como el disco duro o los disquetes. Es obvio que para los volúmenes de que estamos hablando, con ficheros que superan ampliamente la capacidad corriente de estos últi-mos que es 1.44 Mbytes, resultan insuficientes y lo recomendable es entonces recurrir a sistemas magnetoópticos, (por ejemplo Iomega Zip o Jaz),

con capacidades que oscilan desde 100 Mb hasta más de un Gigabyte. Debe también tenerse en cuenta que la velocidad de transferencia de estos dispositivos es siempre inferior a la del disco duro y bastante variable según los modelos.

La generalización de las grabadoras de CDs han simplificado este problema y la opción más reco-mendable y más utilizada es grabar la información en un CD en fases intermedias o una vez que se ha terminado el trabajo. Las grabadoras de CD se han convertido en una herramienta de precio asequible y el coste de los discos es muy inferior al de los magneto-ópticos.

Formatos

El tratamiento de imágenes está lejos de ser un campo donde sea fluido el intercambio de infor-mación. El excesivo tamaño de los ficheros que se suelen utilizar o la especificidad de sus aplicaciones ha generado varias docenas de tipos de codifica-ción, muchos de ellos especialmente adaptados a determinadas plataformas de trabajo. Otros han surgido mediatizados por los entornos operativos, como los subsidiarios del Windows, WMF, BMP o de sus primeras aplicaciones como el Paintbrush, PCX. Otro tanto se puede decir del entorno Apple. Algunos han sido concebidos para optimizar la impresión, este es el caso de los ficheros tipo EPS o PostScript Encapsulado, etc.; no obstante poco a poco algunos se han ido convirtiendo en formatos de transferencia generalizados. Dentro de esta ca-tegoría y en el ámbito de los ordenadores PC los formatos más extendido son probablemente el TIF, TGA, GIF o JPEG.

Cada formato de almacenamiento de datos presenta unas peculiaridades que lo diferencia de los demás, y utiliza parámetros propios para la co-dificación o gestión de la información, parámetros sobre los que generalmente no se da una informa-ción clara por parte de los programas que los usan. Esto, unido a que con frecuencia son revisados por sus creadores, sin previo aviso, para mejorar sus prestaciones, hace que se generen frecuentes con-flictos en el intercambio de los datos. La mayoría de los programas de retoque o edición de imáge-nes incorporan conversores que automáticamente trasladan la imagen de un formato a otro, pero en muchos casos no avisan de qué información se dejan por el camino, ni qué método de conversión emplean, ni si se utilizan algoritmos que compri-

Page 23: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 23

men la información para luego expandirla, con la posible pérdida de datos que eso puede implicar. Para evitar problemas es recomendable la utiliza-ción de conversores especializados o de un software de probada eficacia y calidad.

Dentro de un formato tipo, la información se almacena siempre precedida de una cabecera que lo identifica, y de una serie de instrucciones que definen el tamaño de la imagen y la organización de la información que sigue a esta cabecera. En algu-nos formatos esta información puede visualizarse, lo que es un modo de hacerse una idea más cabal de cómo está organizado un mapa de bits.

Se da a continuación, una relación, en orden al-fabético, que obviamente no puede ser exhaustiva, de los principales formatos que pueden encontrarse al trabajar con imágenes, junto con una breve des-cripción de los mismos.

BMP (Bit Map). Como su nombre indica son mapas de bits "en crudo", con escasa información adicional. Es un formato utilizado corrientemente en Microsoft Windows. Se utiliza principalmente para transferencia de información entre programas o para capturas de pantalla. Utiliza un formato in-dependiente del sistema de color utilizado por cual-quier dispositivo lo que facilita los intercambios.

DCS (Desktop Color Separation). Es una va-riante de EPS que consta de cinco archivos y que se utiliza en AutoEdición por Quark Express, que es quien lo propuso inicialmente, y Page Maker. La imagen se separa en cinco componentes, los cuatro colores de impresión más uno más de identificación e información adicional.

EPS (Encapsulated Postcript). Introducido por Adobe. Es el formato más utilizado en edición pro-fesional. Sirve tanto para dibujos, con información vectorial, como para textos, como para imágenes. Pueden considerarse más estables que TIF aunque ocupan aún más espacio en disco.

GIF (Graphics Interchange Format). Formato de baja resolución introducido por Compuserve para minimizar los tiempos de transferencia por las líneas telefónicas. Graba mapas de bits en modo paleta, con 8 bpp (256 colores) y comprensión por LZW (ver el siguiente apartado). Un formato muy popular antes de la aparición de JPG porque generaba imágenes de poco tamaño aptas para ser enviadas por red. Se sigue utilizando corrientemen-te en páginas Web y en hipertextos.

IFF (Amiga Interchange Format). Era el formato usado por los ordenadores Commodore, en la época

heroica de los primeros ordenadores personales, con capacidad de trabajar en gráficos, relacionado directamente con el trabajo en vídeo y que se ha incorporado a algunos programas actuales que funcionan sobre PCs.

JPG (Join Photographic Experts Group). Es el formato más popular para almacenar e intercambiar información debido a que reduce el volumen en cantidades que van del 10% al 3% del original; o sea que podemos almacenar de 10 a 30 archivos .jpg en el espacio de uno en formato .tif o .tga. Esto se consigue a costa de una comprensión bastante agresiva que, en algunos casos, sobre todo para información que vaya a salir exclusivamente por pantalla, no tiene resultado visibles pero en otros, si se imprime a media o alta resolución, puede deteriorar apreciablemente algunas zonas de la imagen, sobre todo las que presentan degradados suaves de diferentes matices.

PCX. Formato desarrollado por ZSoft Corp. para su PC Paint Brush. Graba imágenes en modo 2, 4, 8 y 24 bpp y utiliza el método de comprensión RLE para alcanzar proporciones máximas de 1,5 a 1. A partir de la versión 5 soporta color real (24 bpp).

PDF (Portable Document File). Formato utilizado por Adobe Acrobat, basado en EPS y que, al igual que este, sirve tanto para texto como para vectores como para mapas de bits. Permite incorporar los hipervínculos y tablas propias del lenguaje HTML.

PICT. Es el formato utilizado por los progra-mas que funcionan bajo Macintosh para transferir información entre aplicaciones. Puede grabar en 16 o 32 en modo rgb o en 2, 4, 8 en modo blanco y negro.

PNG. Alternativa al formato GIF para incorpo-rar imágenes a páginas Web que preserva toda la información de color y comprime sin pérdidas. Es el, por lo que sabemos, el único formato (en 2001) que permite incorporar canales Alfa a archivos VRML.

PXR (Pixar). Es un formato específico para ordenadores tipo Pixar utilizados sólo en la gama alta del trabajo con imágenes para animación y simulaciones de gran volumen y calidad, aunque algunos programas, como Photoshop, incorporan salida en este formato.

RAW (literalmente "crudo"). Formato que se li-mita prácticamente a grabar el valor asociado a cada punto de una imagen, lo que facilita considerable-mente su uso por diferentes tipos de programas.

Page 24: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

24 Aplicaciones informáticas en arquitectura

SCT (Scitex CT). Scitex Continuous Tone es un formato profesional que graba la información, por lo general en modo CMYK, con destino a impre-sión y utiliza un sistema patentado de semitonos que minimiza los efectos de Moiré y otras inconsis-tencias que pueden aparecer durante la impresión en otros formatos.

TGA (Targa). Es uno de los formatos más anti-guos y más fiables. Fue introducido por la empresa TrueVision Inc. de Indianápolis que también pro-ducía tarjetas gráficas de alta calidad. Puede grabar mapas de bits en 16, 24 y 32 bpp y es compatible con la gran mayoría de programas.

TIFF (Tagged Image File Format). Es el for-mato más utilizado para imprimir e intercambiar información. Puede grabar en formato normal o comprimido. La comprensión se realiza con un algoritmo estándar, el LZW (ver el siguiente apartado) que realiza comprensión sin pérdidas y con el que en principio no se deberían encontrar problemas de descompresión. Muchos prefieren sin embargo no usar TIFs comprimidos para no encontrarse con desagradables sorpresas.

Hay otros formatos, como el PSD de PhotShop o el CDR CorelDraw o el AI de Adobe Illustrator, que son formatos nativos (propios de una aplica-ción comercial) aunque pueden encontrarse en otras aplicaciones, si bien la norma no escrita es intercambiar información en formatos "no nativos" tales como los que se han relacionado.

Compresión

Debido al enorme tamaño que llegan a alcanzar los ficheros de imágenes, se precisa con frecuencia recurrir a métodos de compresión de la informa-ción. La comprensión se basa fundamentalmente en detectar las repeticiones o las tendencias que aparezcan en la codificación de la imagen y en sustituirlas por codificaciones más compactas que indiquen, por ejemplo, el número de veces que aparece un determinado valor en una fila en lugar de guardar todas y cada una de sus posiciones.

Lo que parece una cuestión meramente práctica se revela pronto como una gran cuestión de gran calado lo que explica el hecho de que, desde hace muchos años, sea éste uno de los sectores en que más activamente se ha investigado. La razón es que hay temas de gran importancia teórica que están involucrados en lo que aparentemente no es sino una cuestión meramente técnica. Estos temas

giran en torno a dos conceptos que pueden parecer similares pero no lo son. Lo que separa a los datos de la información es el eje de una reflexión que interesa a muy diversos tipos de profesionales.

Los datos son el material con el que se elabora la información. Pero este material hay que cocinarlo y, como ocurre cuando se cocina, hay mucha ma-teria de relleno que puede tirarse a la basura. Esto que "se tira a la basura" porque no interesa para mantener lo esencial de la información es lo que se conoce como datos redundantes. La comprensión puede definirse como una operación que elimina la redundancia. Ya hemos comentado en el primer capítulo, a propósito de la teoría de la información de Shannon hasta que punto no debe despreciarse la redundancia, una característica esencial del modo en que se comunican los humanos. Pero no es menos cierto que en determinados contextos la re-dundancia es un estorbo. Similarmente, podríamos decir que la retórica puede ser, tal como la definió Aristóteles, "el arte de persuadir" o bien, tal como se comprueba a diario, una pesada carga con que nos bombardean desde televisores y periódicos.

En informática, el concepto de redundancia no es, sin embargo, un concepto abstracto sino una cantidad concreta. Se define por la fórmula RD= 1 - 1/CR, donde RD es la redundancia relativa de los datos y CR el factor de comprensión, que se define a su vez por la fórmula CR = n1/n2 en donde n1 y n2 son dos conjuntos de datos que representan la misma información. Si los dos son iguales CR es igual a 1 y RD es igual a 0, lo que indicaría que el primer conjunto de datos no contiene datos redundantes. Un factor de comprensión tal como 5:1 indicaría que el primer conjunto de datos tiene 5 unidades de información por cada unidad del segundo, el conjunto comprimido.

En la teoría relativa a los métodos de com-prensión se utilizan tres tipos de redundancia que merece la pena mencionar. La redundancia de código puede analizarse con facilidad a partir de un histograma de la imagen, tal como los que se mostraran más adelante. La distribución de valores, revelada por el histograma, permite encontrar mé-todos más eficaces de representar los valores de la imagen por medio de fórmulas más compactas que resuman esta distribución. La redundancia espacial también denominada redundancia geométrica o redundancia entre pixels, permite condensar la información basándose no en los valores de los puntos de una imagen sino en el modo en que

Page 25: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 25

están distribuidos. Es evidente que una imagen que presente, por ejemplo, una serie de cuadrados grises de iguales tonos, yuxtapuestos, puede tener la misma distribución general de valores que otra imagen desordenada. Pero si se tiene en cuenta el modo en que están repartidos geométricamente estos valores se econtrarán métodos eficaces de resumir la información.

En tercer lugar hay sistemas que se basan en lo que se puede denominar redundancia visual. El ojo es más sensible a determinadas diferencias bruscas de luminosidad en la medida en que reflejan cambios significativos. Las bandas de Mach son un efecto característico; se aprecian transiciones bruscas de luminosidad en degradados cuando en otras condiciones no se verían como grises distin-tos. Esto limita la efectividad de muchos sistemas de comprensión de imágenes. Pero determinados programas de comprensión pueden captar estos puntos claves de transición y, manteniendo la pro-porción global de comprensión, introducir datos adicionales que proporcionen la cantidad necesaria de información como para que el ojo no eche en falta los grados necesarios de transición entre zonas continuas de diferente luminosidad.

En todos estos casos puede hablarse también de dos categorías principales de comprensión: con pérdida y sin pérdida. Algunos de los que se han mencionado en el apartado anterior son formatos que utilizan programas asociados que efectúan compresión sin pérdida. Ejemplos de programas que efectúan comprensión de este tipo son LZW o REL. También son de este mismo tipo programas utilizados externamente por muchos usuarios para comprimir ficheros de todo tipo como los PKZIP, WinZip o ARJ.

Otros métodos, más potentes, permiten encon-trar formulaciones que se aproximen de modo suficiente a la distribución probabilística de los

datos de una imagen. De esta manera se consiguen relaciones de comprensión mucho más mayores aunque a costa de perder pequeños detalles, datos que no aparecerán al recomponer la imagen. En es-tos casos hablamos de compresión con pérdida. El sistema más eficaz y más popular de todos ellos es el JPEG que ya hemos mencionado en el apartado anterior y que alcanza porcentajes de comprensión verdaderamente sorprendentes. En imágenes con abundante textura y contempladas en pantalla no se aprecian diferencias entre ficheros originales y comprimidos con valores de hasta un 3% del original. Hay que recordar sin embargo que, en imágenes con degradados suaves y que vayan a ser impresas a resolución media, las diferencias pueden ser notables.

Conversión

Otra cuestión de gran interés teórico y práctico es la conversión de ficheros vectoriales a mapas de bits y viceversa. Lo primero es trivial, pues es una operación que se está llevando a cabo siempre que obtengamos una salida de un fichero vectorial por un monitor o una impresora raster. Lo segundo es muy complicado pues se necesita, idealmente, un programa "inteligente" capaz de reconocer qué puntos de la imagen "son" líneas que deben ser separadas del fondo.

Sin embargo hay ciertos rasgos que es factible detectar con garantía de éxito y existen varios programas, con diversos grados de potencia que permiten procesar imágenes obtenidas, por ejem-plo, a base de digitalizar planos tradicionales, con una aproximación lo suficientemente buena como para que el trabajo, casi siempre inevitable, de revisión del resultado para borrar elementos que el programa ha tomado por líneas de dibujo y no eran sino ruido de fondo, no sea excesivo y resulte menor que el que daría volver a dibujarlo todo desde el principio.

La vectorización, que es como se denomina este proceso, es una aplicación específica del pro-cesamiento y análisis de imágenes que tiene una importancia clara en las aplicaciones arquitectóni-cas. La efectividad del proceso es muy variable y depende de los casos. Un plano limpio y con abun-dantes líneas rectas o curvas bien definidas, puede vectorizarse con relativa facilidad. El programa no encuentra grandes dificultades para decidir qué es información relevante y qué no lo es. Por otro

Figura 18 Un ejemplo de redundancia geométrica que facilita la compresión

Page 26: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

26 Aplicaciones informáticas en arquitectura

lado, un plano complejo y en mal estado confun-dirá al programa que, en principio, no tiene modo de decidir si una mancha o una irregularidad en el trazado debe descartarse o debe convertirse en una entidad de la misma categoría que otras líneas que representan pilares, muros o ventanas.

En estos casos es, probablemente, más efectivo el llevar la imagen directamente al programa y di-bujar nuevas líneas, en una nueva capa, siguiendo las de la imagen como si estuvieramos calcando el plano a través de un papel transparente. Tanto AutoCad como Microstation, a partir de sus últimas versiones, permiten abrir un mapa de bits, incorpo-rarlo al dibujo y mantenerlo estable, acércandose y alejándose, lo que facilita considerablemente esta labor de calco.

Se han producido varios trabajos de investiga-ción de interés sobre la posibilidad de desarrollar métodos más inteligentes de vectorización. El refe-rente obvio son los programas denominados genéri-camente OCR (Optical Character Recognition) que permiten escanear un texto impreso y convertirlo en un fichero de texto digital, es decir, convertir las imágenes de las letras en sus correspondientes caracteres codificados. En el caso de un texto estos es posible puesto que hay un número limitado de letras y un número limitado de familias de tipos con los que se representan estas letras.

En el caso de los planos arquitectónicos esto es relativamente posible y, de nuevo, varía con-siderablemente según los casos. En el caso de arquitecturas vulgares o muy estandarizadas, los elementos forman parte de un repertorio iconográfi-co limitado que se puede mantener como referencia de comparación. Tampoco habría excesiva dificul-tad para reconocer que una línea continua, que se cierra sobre sí misma, debe representar algún tipo de muro. Parece lógico intentar abordar en primer lugar este tipo de casos antes de plantearse otros más complejos. Hay investigaciones en curso que parecen prometedoras a corto plazo pero el hecho es que, por el momento, tan sólo se cuenta con vectorizadores más o menos eficaces que no alcanzan a realizar lecturas "inteligentes" de los planos arquitectónicos.

6 Operaciones con imágenes

Las operaciones con imágenes se pueden clasificar en tres grandes grupos. Las que no modifican los valores de los diferentes puntos que constituyen

la imagen pero alteran el modo en que esta infor-mación se distribuye en el plano de la imagen, operaciones que se denominan corrientemente "geométricas". Las que modifican estos valores de varios modos y a las que podemos denominar gené-ricamente "de transformaciones puntual de valores" aunque la diversidad de técnicas es enorme y los términos con que se alude a ellas en la literatura especializada muy precisos. Y, por último, las que pueden considerarse en cierto sentido como mixtas, en la medida en que modifican los valores de un determinado sector del plano de la imagen.

Las operaciones que se describen en lo que sigue pueden llevarse a cabo sobre la totalidad de la imagen o sobre partes de la misma. Para este segundo caso se cuenta habitualmente con diversas herramientas y modos de selección que se pueden clasificar con arreglo a los mismos principios utili-zados en el párrafo anterior para describir los tipos de operaciones. Es posible seleccionar puntos en el plano de la imagen por medio de especificaciones geométricas, esto es, trazando sobre partes de la imagen rectángulos, círculos o formas libres que encierren los puntos que queremos transformar. O bien, en segundo lugar, es posible seleccionar puntos de la imagen basándose exclusivamente en sus valores. Y, por último es posible seleccionar puntos de la imagen en función de sus valores y de su relación espacial.

Operaciones geométricas

Las operaciones geométricas con imágenes se re-ducen básicamente a la manipulación de matrices que almacenan la posición geométrica de los pixels. Estas matrices pueden ser sometidas a todas las operaciones geométricas clásicas, lo cual significa que es posible trasladar, girar, invertir y cambiar de escala la totalidad o partes determinadas de una imagen. También es posible deformarlas, total o parcialmente, sea de modo libre, sea mediante transformaciones perspectivas, sea mediante trans-formaciones matemáticas de diversos tipos.

Todas estas operaciones básicas son posibles gracias a la velocidad de cálculo que proporcionan los ordenadores actuales pero hubieran sido im-pensables hasta hace pocos años en un ordenador casero. Aún así, hay que advertir que se requieren ciertos mínimos para poder manipular imágenes de suficiente resolución y, por consiguiente, de gran tamaño. Al margen de esta limitación, el manejo

Page 27: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 27

de estas herramientas, que están disponibles en cualquier programa sencillo de tratamiento de imágenes no ofrece mayor dificultad.

Estas operaciones implican un problema técnico que conviene tener presente. Al estar constituidos los mapas de bits por matrices enteras, tramas regulares de puntos yuxtapuestos, cualquier ope-ración geométrica que utilice factores tales que la transformada no coincida con la trama primitiva necesitará contar con algún medio de decidir cómo asignar el valor teórico de cálculo al valor real de los pixels de la imagen.

En el caso de una traslación (figura 19) el ajuste no representa ningún problema pues la desviación es igual para todos los pixels. En el caso de una rotación (figura 20) es preciso recurrir a interpo-laciones que asignen un valor al pixel en función de sus vecinos más próximos. Hay más de una solución que no comentaremos dado que se trata de un proceso complejo y no visible para el usuario. Es preciso tener en cuenta sin embargo esta limi-tación que se traduce en problemas tan concretos como que nos resultará imposible rotar una imagen con la misma facilidad con que lo hacemos en un programa de CAD2D.

En el caso de un cambio de escala el proceso puede llevar a perder información sustancial, tal como se muestra, en un caso extremo, en la figura 21 que representa sucesivas redistribuciones de las muestras con las que el programa intenta responder a una petición imposible de cumplir. Es necesario tener esto en cuenta en determinados casos en los que puede producirse modificaciones importantes del contenido de una imagen al llevar a cabo una operación de transformación geométrica.

El ejemplo de la figura 22 muestra hasta qué punto es posible simular una imagen real por medio de una combinación de este tipo de trans-formaciones.

Operaciones puntuales de transformación de valores. Mapas de grises. Histogramas

Se denominan operaciones puntuales (point pro-cessing) o también filtrado en el dominio espacial pixel a pixel a las operaciones más sencillas de todas las que se realizan en el tratamiento de imá-genes y que afectan a la información contenida en pixels individuales. Una operación puntual trans-forma los pixels de la imagen aplicando la misma función sobre cada uno de ellos. Ejemplos de estas

Figura 20 Rotación de un bloque de pixels

Figura 21 Cambios de escala de un bloque de pixels con pérdida de la secuencia original

Page 28: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

28 Aplicaciones informáticas en arquitectura

operaciones puntuales son las modificaciones de contraste y brillo en las que al aumentar el brillo en una imagen monocromática se suma una cantidad determinada a cada pixel.

Las operaciones puntuales se basan en el valor de cada pixel. Las modificaciones introducidas sobre estos valores iniciales se pueden manipular por medio de lo que se denomina un mapa de grises (gray map) o más exactamente, un mapa de transición de luminancias. Un diagrama que representa en el eje de abscisas la luminancia de entrada o luminancia del punto, imagen o sector de imagen de que se parte y, en el eje de ordenadas, la luminancia de salida, la luminancia que se ob-tendrá con posterioridad a la operación que se ha

especificado con la ayuda de este mapa. Si no se ha realizado ninguna operación, el

diagrama muestra una recta a 45º, lo que equivale a decir que los valores de entrada coinciden exac-tamente con los valores de salida. El modo más sencillo de llevar a cabo una modificación del conjunto de valores representados por un mapa de este tipo es modificar esta recta. Hay toda una serie de operaciones elementales que se pueden realizar de este modo. Las más corrientes son las que se enumeran a continuación.

La obtención de un negativo es una operación técnicamente trivial que se reduce a invertir la dirección del diagrama de grises. El operador mo-difica el mapa de modo que donde antes había un

Figura 22 Ejemplo de modificación de una imagen por operaciones de traslación, rotación y cambio de escala

Page 29: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 29

Figura 23 Variación de contraste y luminosidad de una imagen por modificación del mapa de grises (tomado de Alvaro Siza Vieira: Centro Gallego de Arte Contemporáneo. Santiago de Compostela, 1988-94)

Page 30: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

30 Aplicaciones informáticas en arquitectura

0 o "negro" el resultado de la función imagen pase a ser 255 o "blanco", manteniendo la línea a 45º pero en dirección contraria. La figura 24 a muestra un ejemplo de esta operación.

La binarización es otra técnica muy sencilla que permite reducir una imagen en gama de grises a una imagen en blanco y negro sin más que sustituir la recta a 45º del diagrama de grises por una recta vertical en un determinado punto del diagrama; todos los grises situados a la izquierda pasan a ser negros y todos los situados a la derecha pasan a ser blancos. (figura 24 b).

El clipping es una operación similar con la diferencia de hay dos valores en lugar de uno y se preserva una zona central en la que siguen habien-do grises; por debajo del valor inferior sólo habrá negros y por encima del valor inferior sólo habrá blancos. La umbralización (thresholding) es similar al clipping pero afecta sólo a uno de los extremos de la imagen; se igualan todos los valores superiores o inferiores a uno dado y se mantiene la gama de grises en el resto. Ver figuras 24 (c, d, e).

Para la extensión del contraste de una imagen, es decir para la mejora del contraste en aquellas zonas de una imagen que han sido registradas con poca iluminación, se puede ampliar el rango dinámico de las mismas, modificando la pendiente en el diagrama de escala de grises, de manera que entre unos valores dados, la recta que refleja la función de los nivel de grises de entrada y de salida del proceso, se vuelva más horizontal, con lo que sus gradientes serán más largos. Para la compresión del contraste o comprensión del rango dinámico se sigue un proceso inverso, haciendo más pronun-ciada la pendiente en aquellas zonas que se quieren fundir. La figura 23 muestra una imagen en la que se ha modificado la disitribución de valores por medio de una función logaritmo que modifica con suavidad la pendiente de la curva, haciendo que aumente y se redistribuya el número de valores claros, el número de valores oscuros o la pendiente de la curva en la zona de valores medios, lo que tiene como consecuencia un aumento del contraste. La figura 24 f muestra también este mismo recurso combinado con un recorte de los valores más obs-curos (umbralización).

Otra herramienta de fundamental importancia para este tipo de operaciones es el histograma. Un histograma (del griego ιστοσ, tejido y γραµµα, inscripción gráfica) es una representación gráfica de la distribución de las frecuencias de ocurrencia de

Figura 24 Variaciones básicas del mapa de grises de la imagen anterior:

a) negativo; b) binarización; c, d) umbralización; e) clipping; f) umbralización y modificación gamma

Page 31: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 31

un determinado suceso y se utiliza en un gran núme-ro de aplicaciones estadísticas. En procesamiento de imágenes, un histograma es una gráfica en la que en el eje de abcisas representa los diferentes niveles de grises de la imagen y el de las ordenadas el número de pixels que tienen ese valor particular. El cálculo de un histograma se reduce a computar cuántos pixels hay para cada nivel de gris.

El histograma es una herramienta valiosa, en primer lugar, porque permite conocer de un modo directo, intuitivo, las características globales de una imagen. El histograma de la figura 25, la misma fi-gura de las dos ilustraciones anteriores, muestra con precisión lo que puede apreciarse intuitivament, esto es, que es una imagen con abundantes valores medios y escasos valores extremos, lo que contri-buye a una impresión que en este caso, dadas las características arquitectónicas del ejemplo, puede ser adecuada. Los histogramas de las figuras 26 y 27 revelan, a cualquiera que cuente con un mínimo de experiencia en el uso de estas técnicas, que las imagenes correspondientes son imágenes: a) muy oscuras; b) muy luminosas; c) poco contrastadas; d) muy contrastadas.

A partir de esta información es posible realizar diversas operaciones por modificación directa del histograma. Es posible, por ejemplo, aclarar

Figura 25 Histograma de la imagen anterior

u oscurecer una imagen o una selección de una imagen desplazando todos sus pixels a la derecha o a la izquierda de la gráfica, o bien, por ejemplo, reducir o ampliar el número de posibles niveles de gris, con lo que la imagen adquirirá más o menos contraste, etc.

Otra operación característica es la ecualizaliza-ción que consiste en redistribuir los valores de una imagen, una operación que se utiliza frecuentemen-te para mejorar el contraste. Si una imagen presenta un histograma en el que los grises se acumulan en, por ejemplo, la zona central esto indica una ausen-cia de blancos y negros y de valores cercanos a éstos. La ecualización permite mejorar el contraste al redistribuir los valores generales.

Los histogramas también se utilizan para opera-ciones más sofisticadas que permiten separar partes de una imagen en función de sus valores de gris. Estas operaciones que se denominan operaciones de segmentación y a las que ya hemos aludido ante-riormente, se basan en la determinación automática de umbrales a partir de los cuales se encuentran los valores que se quiere detectar.

Operaciones locales de transformación de valores. Filtros

Denominaremos operaciones locales a las opera-ciones que afectan a la información contenida en el entorno de pixels individuales. Esto requiere la introducción de un serie de conceptos previos, los principales de los cuales son los de vecindad, contorno y conectividad de un pixel.

Se denomina vecindario de un pixel a los pixels que le rodean. Un pixel tiene 4 vecinos horizontales y verticales, uno a su izquierda, otro a su derecha, uno por encima y otro por debajo (que se denotan técnicamente como "N4"). Además de estos, tiene 4 vecinos diagonales (denotados como "Nd"). La unión de todos ellos ("N4+Nd") forma lo que se llama los "vecinos de p" (denotados por N8). Los N4 forman un contorno de orden 4 y los N8 un con-torno de orden 8 o simplemente contorno. El tipo de conectividad (figura 28) tiene una considerable importancia para delimitar las fronteras entre ele-mentos de una misma imagen. Para ello habrá que ver si los dos pixel base tienen algún vecino común y de qué tipo, pero, sobre todo, si sus niveles de gris respectivos satisfacen determinados criterios. Según qué premisas se adopten el sistema puede simplificar en mayor o menor grado el muestreo.

Page 32: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

32 Aplicaciones informáticas en arquitectura

Sobre esta base se desarrollan muy diversos tipos de filtros que sirven para innumerables aplicaciones y que cuentan con una gran cantidad de estudios técnicos. Las técnicas pasan por la utilización de convoluciones y transformadas de Fourier en la detección de los contornos de las zonas a selec-cionar de manera automática, si usamos un modelo espectral o por la edición de los histogramas, si usamos un modelo matricial. Los filtros espaciales más habituales son los que siguen:

Los filtros de suavizado o alisado (smoothing filters) se utilizan para emborronar o añadir ruido a una imagen en un preproceso que busca eliminar pequeños detalles para que en una operación inver-sa posterior la imagen clarifique su información. Dentro de este tipo, los más importantes son los de paso bajo (lowpass spatial flltering) que son filtros constituidos por una matriz de, por ejemplo, tres por tres elementos, cuyos valores son 1, los cuales se suman a cada uno de los pixeles de la zona de la imagen a filtrar, dividiendo el resultado de esta operación por 9; este valor promedio sustituye al existente antes del filtrado. El efecto de un fitro de este tipo es que la imagen se emborrona ligeramen-te, lo que puede convenir en determinados casos por diferentes razones tales como suavizar contornos o eliminar defectos de retoque. Los ejemplos de la figura 22 llevan incorporados este tipo de filtros para suavizar las transiciones después de haber apli-cado operaciones geométricas o de haber insertado

nuevos elementos.Los filtros de endurecido o agudizado (shar-

pening filters) se utilizan, a la inversa de los anteriores, para destacar los valores más lumi-nosos de una imagen o aquellos detalles que se ven borrosos. Los más habituales son los filtros de paso alto (basic highpass spatialfilteting) en los que una matriz como la antes citada configura una máscara, la suma de cuyos elementos es cero y cuyo valor central es 8 rodeados de -l. Al operar este filtro sobre una zona de la imagen y dividir los resultados por nueve se obtiene la eliminación de aquellos valores que no llegan al mínimo valor fijado 1, ya que los demás son números menores de cero y en consecuencia son descartados y quedan sólo valores positivos.

Hay un número enorme de filtros de diversos ti-pos que no tienen cabida en este apartado, tanto por razones de espacio como porque la mayoría de ellos tienen escasa aplicación en el caso de la arquitectu-ra. Quien esté interesado en el tema puede comen-zar por experimentar con los que están incluidos en programas de retoque digital de imágenes, como Photoshop, y por revisar la bibliografía sobre este tema para comprender mejor qué es lo que ocurre al aplicar alguno de los filtros más sofisticados lo que, en muchos casos, no resulta fácil desde un punto de vista meramente intuitivo.

Figura 26 Histograma de una imagen demasiado oscura y de otra demasiado clara

Figura 27 Histograma de una imagen de bajo contraste y de otra de alto contraste

Page 33: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 33

7 Impresión

Las imágenes que aparecen sobre la pantalla del monitor desaparecen en cuanto las apagamos. Para la mayoría de las aplicaciones que nos interesan es preciso contar con copias permanentes sobre algún tipo de soporte, preferentemente papel, que puedan ser consultadas o presentadas independientemente de los complejos dispositivos que requiere un siste-ma informático de generación de imágenes.

Las características de la imagen impresa sobre papel son bastante diferentes de la que aparece sobre el monitor. El control de los parámetros que inciden sobre estas características, así como el análisis de la relación calidad-coste, constituyen un capítulo complejo que se relaciona, por un extremo, con los medios tradicionales de pintura e impresión y, por otro, con tecnologías específicas que se han desarrollado en los últimos años. Ambos extremos deben ser tomados en consideración para asegurar un control suficiente sobre las imágenes impresas a partir de archivos informáticos.

Parámetros de control

Hay tres factores principales que se deben consi-derar y que no son sino los mismos que ya hemos visto en apartados anteriores, considerados desde el punto de vista de los dispositivos de salida. Estos son: la resolución, la reproducción correcta de gama de intensidades de gris y la reproducción correcta del color.

La resolución es un parámetro que nos permite calibrar la calidad de la imagen en relación con la capacidad de discriminación visual de un sujeto medio. Términos tales como "desenfocado", "nivel de detalle", "grano", etc., describen una imagen en relación con esta capacidad de discriminación. La reproducción correcta de los valores es un paráme-

tro que nos permite calibrar la riqueza de matices de una imagen. Términos tales como "equilibrado" o "contrastado" aluden a este segundo aspecto que a menudo está estrechamente relacionado con el anterior.

Lo dicho hasta aquí vale para imágenes en blanco y negro; en el caso de imágenes en color los términos descriptivos se multiplican y, con ellos las dificultades de control a través de todos los pasos que llevan a una imagen final, impresa sobre papel. Los apartados que siguen ampliarán sumariamente conceptos básicos que ya han aparecido en otros apartados anteriores.

Resolución y resoluciones

Lo primero que hay que subrayar es que no se debe hablar de "resolución" en singular sino en plural. Cada uno de los estadios por los que hay que pasar en el tratamiento de imágenes implica una serie de controles de la resolución propios de ese estadio. Por lo general, se parte de una imagen dada en forma de fotografía o captada directamente por una cámara digital y que sufre una serie de mani-pulaciones hasta convertirse en otra imagen similar. A través de estos pasos estaremos utilizando la palabra "resolución" para referirnos a cinco cosas distintas: a) la resolución de digitalización; b) la resolución de la imagen sobre la que trabajamos; c) la resolución de la imagen que vemos en el monitor mientras trabajamos; d) la resolución nominal de la impresora con la que contamos; e) la resolución de esta impresora en términos de semitonos.

Por consiguiente, las cosas no son tan simples como en el procedimiento general que hemos descrito en la sección 4 de este capítulo bajo el epí-grafe "Procedimientos corrientes de digitalización". Ciertamente, comenzaremos por una estimación de la resolución de salida para saber a qué resolución debemos digitalizar una imagen. Pero ninguno de estos dos términos está suficientemente claro en la mayoría de los casos. Si queremos darnos un margen de seguridad probablemente utilizaremos una resolución de digitalización algo superior. Esto nos dará mayor margen para las operaciones que vayamos a efectuar sobre la imagen y, al final, po-demos reducir el tamaño de la imagen, sin pérdida apreciable de calidad.

Por otra parte, lo que vemos sobre el monitor puede ser engañoso por muchas razones, la princi-pal de las cuales, tal como veremos más adelante,

Page 34: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

34 Aplicaciones informáticas en arquitectura

es la relativa al color. Pero desde el punto de vista de la resolución también es preciso tener en cuenta algunas diferencias notables. La resolución nece-saria para que los puntos discontinuos aparezcan como continuos está en torno a las 5 lpm (líneas por milímetro) equivalentes a 127 dpi (dots per inch, puntos por pulgada) para una distancia de observación normalizada de 25 cm. Sin embargo, debido a varios factores, la calidad que proporciona esta resolución resulta insuficiente: aunque no se distinguen puntos discontinuos se aprecian subjeti-vamente faltas de regularidad. Uno de estos factores deriva del modo de impresión de la mayoría de los dispositivos: al utilizar matrices de puntos para almacenar la imagen, los puntos de impresión no coinciden siempre con los puntos correspondientes de la imagen, lo que se traduce en irregularidades en el trazo; una misma letra puede aparecer con grosores ligeramente diferente según la posición en que haya ido a caer. Un segundo factor es psicofí-sico; la vista humana detecta fallos de alineación aunque no los vea propiamente.

Esto no se aprecia en un monitor, debido a que los puntos son luminosos e irradian, fundiéndose con sus vecinos, y a que los puntos tienen diferente intensidad. Por esta razón la resolución con la que trabajan la mayoría de los monitores, que está en torno a los 72 dpi, resulta satisfactoria. Cuando la misma imagen se imprime, en negro sobre blanco (con lo que la irradiación funciona en sentido in-verso), con puntos de igual intensidad, la resolución necesaria para conseguir resultados similares puede ser más de 5 veces mayor. Se consideran los 300 dpi como un límite inferior para imprensión de textos con calidad equivalente a la de un libro corriente y los 600 dpi como un límite adecuado para una calidad realmente comparable a la de las buenas impresoras tradicionales. Las mejores impresoras, las Linotronic, tienen modelos que alcanzan los 1.270 dpi y los 3.386 dpi por las razones que se verán a continuación. Esto quiere decir, entre otras cosas, que para controlar los detalles de la imagen en el monitor será necesario trabajar con la imagen muy ampliada y desplazándose por sus diferentes partes para analizar los detalles.

Una resolución de 600 dpi sigue siendo sin em-bargo insuficiente para imprimir imágenes con una amplia gama de grises y degradados continuos. Una impresora no puede variar la densidad de la tinta para conseguir diferentes niveles de gris tal como ocurre en fotografía o en pintura. Para simular la variación de intensidad se recurre a una técnica

mediante la cual se logra un efecto óptico similar al de utilizar diferentes intesidades, a base de crear puntos yuxtapuestos de diferente tamaño o de di-ferente distribución, que no se aprecian a simple vista. Esta técnica se denomina convencionalmente de semitono (halftoning).

Semitonos, "lineatura" y dithering

Hay dos modos principales de obtener semitonos: mediante variación del tamaño de los puntos, tal como se hace en las técnicas tradicionales de im-prensión y mediante la variación de la distribución de los puntos, de modo que se obtengan mínusculas áreas de diferente densidad tal como se hace por medios informáticos.

El primer método, el semitono tradicional, del que se muestra un ejemplo en las figura 29 y 30, se consigue fotografiando el original a través de unas planchas de vidrio recorridas por líneas negras en vertical y horizontal. Estas líneas, que tradicional-mente se obtenían haciendo incisiones verticales y horizontales sobre el vidrio que se rellenaban de betún, crean una matriz de pequeños huecos cua-drados que permiten el paso de la luz y que actúan como diminutos objetivos fotográficos. Cada zona correspondiente de la imagen original, así fotogra-fiada, proporciona una impresión sobre el negativo que, por efecto de la difracción, se convierte en un punto más o menos grande, en proporción directa con su luminosidad.

El número de líneas con que se graban estas planchas de vidrio, que se colocaban delante del negativo y dan una medida directa de la calidad de la reproducción, se denomina lineatura, reso-lución de trama o "frecuencia de pantalla" (screen frequency) y se mide en lpc (líneas por centímetro) o lpi (lines per inch). La figura 31 muestra una relación de las frecuencias características que se utilizan en todas las imprentas. La calidad "gruesa" se utiliza en folletos, boletines o periódicos de baja calidad. La calidad "media" en libros de calidad variable, desde 40 lpc, relativamente tosco, a 60 lpc, de calidad relativamente buena. La mayoría de los periódicos se imprimen a unos 35 lpc (85 lpi). Los valores por encima de los 70 u 80 lpc (180 a 200 lpi) corresponden a libros o revistas de arte, impresos sobre papel brillante con una alta calidad de reproducción.

Estos valores están directamente relacionados con la calidad del papel y el proceso de impresión.

Page 35: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 35

Si se pretendiera imprimir un periódico, con un proceso adecuado para 35 lpc a resoluciones su-periores, se obtendrían resultados no homogéneos debido a que los puntos resultarían demasiado pequeños para las condiciones de impresión y se perderían, las áreas obscuras tenderían a confun-dirse y, en general, disminuiría la calidad de la imprensión, en contra de lo que parece que sería de esperar. Con papeles satinados se puede llegar sin problemas a los 60 lpc (150 lpi) y con papeles de alta calidad hasta 80 lpc (200 lpi). Utilizando técnicas especiales, como el offset seco, pueden alcanzarse los 120 lpc (300 lpi). Pero, en general, pocas imprentas trabajan bien por encima de los 50 o 60 lpc. En blanco y negro se utilizan valores algo más altos que en color.

En cualquier caso, esta técnica no puede utilizar-se en las impresoras corrientes que sólo admiten dos niveles de grises y puntos idénticos. Por esta razón es necesario utilizar técnicas de semitono digital (digital halftoning) y agrupar puntos para obtener

células, pixels de mayor tamaño, que permitan obtener diferentes intensidades por combinación de los puntos que los forman. Cuanto mayor sea el número de puntos asociados para formar una célula, mayor será el número de combinaciones posibles de puntos blancos y negros que se vean como diferentes grises a una distancia adecuada y, por consiguiente, mayor será el número de grises aparentes que se pueden crear. El número de grises será n × n + 1, donde n es el número de elementos de la célula. Así, por ejemplo, una célula o spot de 4 × 4 puntos proporcionará 17 niveles de gris, una cifra insuficiente para conseguir imágenes que reproduzcan adecuadamente una amplia gama de grises, y una célula de 8 × 8 proporcionará 65 ni-veles de grises lo que puede ser más que suficiente para muchas aplicaciones.

Esto se consigue a costa de la resolución. Si tenemos una impresora que imprime a 300 dpi y utilizamos células de 4 × 4 para imprimir imágenes grises la resolución real será un cuarto de la nomi-nal, es decir, estaremos imprimiendo líneas con una resolución efectiva de 75 dpi. Esta es la razón por lo que los más potentes modelos de impresora, como la Linotronic, utilizan resoluciones superiores a los 2.000 y 3.000 dpi.

La obtención de semitonos por medio de célu-las basadas en combinaciones de puntos tiene el inconveniente de que determinadas distribuciones dan lugar a efectos geométricos que configuran patrones visibles denominados efectos "de moirée". Para evitar efectos extraños se adoptan determi-

Figura 29 Imagen obtenida de un periódico (semitonos con una lineaturade 50 lpc)

calidad lpc lpi

gruesa 20 -30 50 - 75

mediana 40 - 60 100 - 150

fina 70 - 80 180 - 200

Figura 31 Frecuencias características utilizadas en impresión tradicional

Figura 30 Ampliación de la imagen anterior en la que se aprecian los diferentes puntos

Page 36: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

36 Aplicaciones informáticas en arquitectura

nadas configuraciones geométricas en las células equivalentes de cada nivel de gris. El patrón de base del halftoning puede variar de forma y así existen patrones lineales, romboidales, etc., generados a partir de matrices de diferentes tamaños. Esta téc-nica de reorganización en patrones que producen diferentes efectos se denomina dithering. La figura 32 muestra los valores principales de un conjunto de 17 niveles obtenidos por agrupaciones aleatorias de puntos sobre células de 4 × 4.

¿Qué resolución utilizar si queremos obtener una resolución equivalente a alguna de las que hemos dado más arriba con referencia a la impre-sión tradicional? Si supieramos, por ejemplo, que una impresora a 300 dpi utiliza spots de 4 × 4 esto querría decir que la resolución efectiva de una imagen sería de 75 dpi (300/4).

Si, a la inversa, queremos trabajar con una impresora capaz de generar "lineaturas" de 150 lpi y ser capaz de interpretar 256 niveles de gris quiere decir que necesitaremos una impresora con una resolución efectiva de 2.400 dpi (256 niveles requieren células de 16 × 16; 16 × 150 = 2400). El problema está en que, por lo general, no se conoce el tipo de spot utilizado por las impresoras corrientes; los fabricantes no suelen proporcionar este dato. Y con esta observación, a la que segui-rían otras similares, abandonamos el terreno de los números con significado claro para entrar en el de las estimaciones con significado brumoso.

Suponiendo que conociéramos la frecuencia de nuestra impresora ¿cómo relacionar este valor con el de la resolución adecuada de la imagen? Una re-gla aceptada corrientemente por los profesionales, y que está basada más en resultados prácticos que en cálculos teóricos es que para obtener "buenos resultados" la resolución de la imagen debería de ser en torno a 2 veces (entre 1,5 y 2,5 según los más y los menos optimistas) la resolución de frecuencia de la impresora. Es decir, si queremos obtener una frecuencia de 150 lpi la resolución de la imagen

debería ser de 300 dpi. Observése que, según esta regla, es innecesario, para imágenes cuyo destino es acabar siendo impresas por medios tradicionales, ir más allá de los 400 dpi (200 lpi × 2). Y, contraria-mente a lo que se piensa, un exceso de resolución puede llegar a ser contraproducente.

Color

Por lo que respecta al color los problemas son bastantes más complejos y los presentaremos muy brevemente en lo que sigue.

Trabajar en lo que se denomina "color real" su-pone utilizar 24 bits por pixel, 8 bits por cada uno de los tres canales RGB. Esto supone 256×256×256 o 16,7 millones de colores que pueden tener diferen-tes códigos. Lo primero que hay que aclarar es que estos famosos "16.7 millones de colores" de que se puede disponer en cualquier ordenador actual no se corresponden con el rango real de diferencias cromáticas percibidas; poco más del 5% de estos colores son percibidos como distintos.

Las razones técnicas por lo que se necesita trabajar con "color real" (true color, 24 bpp o 16,7 millones de colores) se pueden condensar en la siguiente regla práctica: si se trabaja con una escena en al que vayan a aparecer degradados, cielos azules o paredes lisas iluminadas con luces más o menos rasantes, es preciso trabajar con color real para evitar que aparezcan franjas que rompan la continuidad de este degradado. En escenas en las que no hay degradados y todas las superficies tienen bastante textura y, en general, en modelos simples en las que no se necesite un gran grado de realismo es más que suficiente trabajar con lo que se denomina "color indexado" que utiliza paletas de 256 colores (8 bpp) en lugar de 16,7 millones (24 bpp) lo que reduce considerablemente el volumen de memoria necesario. Pero esta regla también depende del dispositivo de salida. Si, en el primer caso, en que aparecen degradados, la salida va a ser por pantalla en donde los puntos son mayores y hay un proceso de irradiación que hace imper-ceptibles los defectos en los degradados la regla también es es utilizar color indexado o un sistema de comprensión potente como los formatos jpg a que ya nos hemos referido antes.

La figura 33 muestra el modo en que un sistema de color indexado utiliza una tabla (look up table) para guardar los valores cromáticos economizando memoria. En ambos casos (parte superior e inferior

Figura 32 Simulación de semitonos por células que agrupan diferentes densidades de puntos

Page 37: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 37

de la figura) se está especificando un color "marrón rojizo". Pero en el primero este color es parte de una preselección basada en especificaciones RGB mientras que en el segundo caso la especificación es directa.

Los sistemas de codificación digital se basan en la mezcla aditiva. Esto quiere decir, entre otras cosas, que quienes tengan experiencia en pintura o fotografía deberán olvidarse de que los colores primarios son el amarillo, magenta y cyan, y co-menzar a pensar de acuerdo con otros primarios más genuinos: el rojo, verde y azul. Ambas tríadas son, por otra parte, complementarias entre sí. Si se yuxtaponen amarillo con azul, magenta con verde o cyan con rojo el resultado será una combinación que tiene la curiosa propiedad de que, observada a gran distancia (o reducida a un par de puntos) se convierte en gris mientras que observada de cerca se satura; ambos colores se muestran en todo su esplendor, se realzan mutuamente.

Hay dos sistemas principales utilizados para la especificación del color, el sistema RGB que se corresponde con el propio sistema de generación del color en un monitor, a partir de tres canales rojo, verde y azul asociados a los cañones electró-nicos que activan los fósforos de la pantalla, y el sistema HLS (o HBS o HVS), siglas de tono (hue), luminosidad, brillo o valor acromático (lightness, brightness o value) y saturación (saturation), que permite especificar un color de acuerdo con varia-

bles perceptivas. Estos sistemas deben ser puestos en correspon-

dencia con sistemas propios de mezcla substractiva por medio de mecanismos de conversión inter-sistema y de conversión analógica. El principal sistema dirigido a dispositivos de salida es el sis-tema CYMK (cian, yellow, magenta, black) si bien hay otros, más eficaces, basados en el dispositivo específico de impresión que se va a utilizar, y que ayudan a prevenir, hasta cierto punto, las desagra-dables sorpresas con que se encuentra quien pasa a recoger de la imprenta la imagen que había ido trabajando cuidadosamente en su monitor.

Una profundización en el uso del color debería considerar que los sistemas de codificación son muy diversos y que, en determinadas circunstancias, puede ser necesaria una especificación más exacta. El referente principal es el diagrama cromático de la CIE por el que se rigen internamente todas las es-pecificaciones técnicas de dispositivos. Hay varias versiones de esta especificación. Las principales son las correspondientes a la normativa de 1931 que especifica los colores en base a dos coordenadas imaginarias, x,y y a un porcentaje de Luminancia, L y las correspondientes a la normativa de CIE Lab de 1964 que especifica los colores en relación con dos parámetros que indican el porcentaje relativo de rojo-verde o amarillo-azul.

La figura 34 muestra en primero y segundo lugar unos esquemas que se corresponden con los digramas y espacios cromáticos de la CIE. El primero (a) corresponde al modelo de 1931 y el segundo al de 1976 (b). Los esquemas siguientes corresponden a: los cubos RGB (c) y CMY (d) que ya hemos descrito; el semicono (e) y el doble cono (f) que corresponden a diferentes variantes de los sistemas HLS; el modelo de Munsell (g) que sigue siendo, desde principio de siglo, un sistema aún ampliament utilizado y que conviene tener presente y el modelo NCS (Natural Color System) (h) que comenzó a utilizarse en Suecia y posteriormente en varios paises de Europa en los últimos años.

Por lo que respecta al control de la impresión, en primer lugar hay que subrayar el hecho de que no es posible conseguir una reproducción sobre papel que reproduzca los mismos colores que aparecen en un monitor. La figura 35 muestra varios diagramas superpuestos. El mayor de todos, etiquetado con la letra "a", representa el diagrama de la CIE que, teóricamente, representa el rango de colores que es capaz de percibir una persona "normal", esto es,

Figura 33. Comparación entre el rango cromático natural (a), el de un monitor (b) y el

de una impresora de color (c)

Figura 33 Asignación cromática por paletas de color indexado (256 colores) o especificación

directa (16,7 millones de colores)

Page 38: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

38 Aplicaciones informáticas en arquitectura

una persona menor de unos 35 años y sin ninguno de los defectos en la percepción de los colores que afectan aproximadamente a un 6% o un 8% de la población (mayoritariamente masculina).

Los valores situados en el vértice inferior dere-cho de esta especie de suela de zapato que forma el diagrama de la CIE representan rojos puros, los situados arriba de todo, en la punta de la suela, verdes, con amarillos anaranjados hacia la derecha y amarillos verdosos hacia la izquierda, los situa-dos en el vértice inferior izquierdo del diagrama representan azules puros.

El diagrama etiquetado como "b" representa los colores que es capaz de reproducir un monitor. Como se puede apreciar en la figura este rango es muy inferior al rango de colores que podemos realmente apreciar.

El diagrama etiquetado como "c" representa los colores que es capaz de reproducir una impresora de color. Este rango es aún más restringido que el de un monitor y, lo que es peor, coincide con el de un monitor tan sólo en su zona central pero hay una marcada discrepancia en los extremos, es decir, hay colores que un monitor puede generar pero una impresora de color no y viceversa.

En segundo lugar, la especificación de un color se da en función de tres colores primarios que son distintos en mezcla aditiva y en mezcla sustracti-va. Pero que también son distintos entre sí pues dependen en gran medida del dispositivo concreto que estemos utilizando. Una misma imagen, pre-sentada en monitores de diferentes marcas, mos-trará diferencias apreciables. Pero incluso puede aparecer como distinta en el mismo monitor si no se ha cuidado de calibrar este monitor adecuada-mente en función de una determinada iluminación ambiental.

No hay ni que decir que algo similar ocurre con las impresoras. Pruébese a imprimir una imagen, con suficiente variedad de colores saturados de todas las gamas, en diferentes impresoras. Los verdes pueden hacerse amarillentos o azulados, los azules verdes o violetas, los rojos anaranjados o carmines y los tonos neutros desequilibrarse en todas las direcciones posibles.

Lo primero que se necesita para intentar con-trolar los colores es ser consciente de que este problema es, por ahora, irresoluble. Lo siguiente, saber que el único medio de alcanzar cierto control es trabajar con un monitor perfectamente regulado, en condiciones ambientales idénticas e imprimir

Figura 34 Principales modelos de especificación cromática

Page 39: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 39

siempre con una misma impresora con la que se hayan hecho suficientes pruebas para saber cómo responde a las diferentes gamas del espectro cromá-tico. Y, a partir de ahí, armarse de paciencia y anotar el tipo de corrección que es necesario hacer en cada canal, en función de un monitor determinado y una impresora determinada para reducir al mínimo el impacto de estas inconsistencias.

Dispositivos

Ya se han comentado las diferencias principales en el capítulo sobre recursos básicos. Rercordaremos brevemente lo dicho ahí insistiendo en otros as-pectos y con referencias especiales a la imprensión en color.

a) Un plotter de color puede considerarse, por lo que respecta a su funcionamiento técnico, como una gran impresora por lo que, según su tipo, valdrá lo dicho para alguno de los tipos de impresoras que se mencionan en lo que sigue.

b) Las impresoras de chorro de tinta (ink jet printers) rocían el papel con minúsculas gotas de densidad cuidadosamente calibrada que atraviesan una matriz de puntos perforados sobre una plancha metálica. La velocidad del papel debe estar también cuidadosamente calibrada pues aunque el secado es muy rápido ligeras diferencias en la velocidad se traducen en zonas emborronadas. La impresión a color es, por esta razón, muy lenta. Utilizan cuatro colores (cyan, magenta, amarillo y negro) en lugar de uno solo y, con un poco de suerte, la ligera dispersión de las tintas favorece la mezcla. Las resoluciones nominales se dan (2000) en tres categorías básicas: baja, en torno a los 300 dpi;

media/ alta, en torno a los 600/700 dpi; y "muy alta", en torno a los 1200/ 1400.

c) Las impresoras electrostáticas, al igual que los plotters electroestáticos cuentan con un disposi-tivo que coloca una carga negativa en los puntos del papel que van a ser impresos; el toner, cargado, se adhiere a estas partes. También pueden utilizar los cuatro colores de la cuatricromía sustractiva.

d) Las impresoras láser funcionan en base a un principio similar pero más sofisticado. Un rayo láser rastrea un tambor cargado postivamente y recubierto de una capa de selenio. Las áreas alcanzadas por el rayo láser pierden su carga. El toner está cargado negativamente y se adhiere a las partes que han permanecido cargadas. El principo es el mismo en impresión a color con la diferencia de que el rastreo se repite cuatro veces. Debido al tipo de tecnología, a igualdad de resolución la calidad es bastante superior a la de las impresoras de chorro de tinta. La velocidad también es mayor. Y el precio también.

e) Las impresoras de transferencia térmica (thermal transfer printers) se basan en diminutas puntas calefactoras que se agrupan en densidades del orden de unas 200 por pulgada. Transfieren pigmentos desde un papel recubierto con cera de color al papel de imprimir. Estas puntas calefactoras se calientan selectivamente en función de la infor-mación recibida que, como antes, se corresponde de un modo directo con la matriz de puntos que configuran estas puntas. Se utilizan principalmente en impresión a color y el papel de transferencia es un rollo continuo en el que se alternan 4 franjas de cyan, magenta, amarillo y negro, de longitud igual al tamaño del papel de imprimir. A pesar de lo sofis-ticado del proceso, la impresión puede durar menos de 1 minuto debido a que las puntas calefactoas se calientan y enfrían con gran rapidez.

f) Las impresoras de transferencia de colorante por sublimación térmica (thermal sublimation dye transfer) son relativamente similares a la anterior en su funcionamiento general. El término "sublima-ción" se refiere a que, en teoría, hay una transición del estado gaseoso al sólido sin pasar por el líquido algo que parece discutible que ocurra exactamente así. En cualquier caso, hay una diferencia realmente importante y es que esta técnica de transferencia permite alcanzar más de 200 intensidades de gris por cada uno de los 4 canales. Esto, unido a una resolución suficiente, que está siempre por encima de los 200 dpi y a que se produce un cierto efecto

Figura 35. Rangos cromáticos de un monitor y una impresora de color

Page 40: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

40 Aplicaciones informáticas en arquitectura

de fusión entre las tintas, hacen que la calidad que se alcance sea casi fotográfica, claramente superior a la de las anteriores. Son algo más lentas pero proporcionan la máxima calidad para imprensión a color sobre papel.

g) Otro método de obtención de copias perma-nentes es por medio de una filmadora. Se denomina filmadora a un dispositivo que consiste en un tubo de rayos catódicos en cuyo extremo se sitúa, en lugar de una pantalla recubierta de fósforo, una cámara con la película abierta hacia el interior del tubo. La imagen se envía desde la CPU a través de un puerto paralelo, igual que se enviaría a un monitor. El rayo de electrones va recorriendo muy lentamente la película (puede tardar alrededor de 3 minutos en filmar una imagen de 4 Mb) efectuando una pasada por cada uno de los tres canales rojo, verde y azul, a una resolución que puede alcanzar las 4.000 líneas y hasta las 8.000 líneas en las fil-madoras de mejor calidad.

Muchas de estas técnicas comienzan a resultar obsoletas debido a la creciente difusión de la presentación de resultados por medios directos a través de monitores, o proyectores conectados al ordenador. Las enormes ventajas que esto presenta, sobre todo en la media en que permite obviar to-dos los problemas técnicos de conversión, control de la resolución o el color, etc., no necesitan ser subrayadas.

8 Aplicaciones arquitectónicas

Como ya hemos dicho anteriormente, dentro del procesamiento de imágenes se incluyen muchas técnicas y métodos que pueden agruparse bajo dos grandes grupos de aplicaciones; por un lado la restauración o mejora de imágenes, lo que puede llevar de hecho hasta la creación de imágenes origi-nales y, por otro lado, el análisis o la interpretación de imágenes.

En el primer caso se trata de corregir desde pequeñas deficiencias que entorpecen la visión hasta anomalías muy grandes que las hacen casi inservibles.

El segundo caso abarca desde técnicas relati-vamente sencillas como la vectorización, hasta técnicas propias de robótica y visión artificial. Estos grandes grupos tienen también su paralelo en el campo de la arquitectura.

En el campo específico de la arquitectura el trata-miento de imágenes implica a una enorme variedad de técnicas de las que mencionaremos tan sólo las principales:

1. La preparación de imágenes de proyecto. Esto implica:

a) la generación y ajuste de imágenes a partir de procesos previos de modelado y simula-ción (rendering);

b) la generación de texturas materiales que puedan incorporarse a una simulación; c) la composición de los resultados en un único panel que integre diferentes formatos (dibujos, textos, imágenes);

2. La generación directa de imágenes por procedimientos directos de pintura electró-nica o por collage electrónico a partir de fotografías de escenarios reales o por fusión de imágenes, obtenidas a partir de modelos virtuales, con imágenes obtenidas por foto-grafía de escenarios reales;

3. La recuperación y restauración de imágenes. Esto puede aplicarse a:

a) la recuperación de dibujos o imágenes de otros proyectos, sea con fines de cataloga-ción, sea para utilizarlos en otros proyectos;

b) la vectorización de dibujos tradicionales y el retoque de los resultados para obtener modelos de CAD2D sobre los que se pueda seguir operando.

4. El control de la impresión y la filmación de los resultados obtenidos en los procedimien-tos anteriores;

5. La fotogrametría automatizada o la obtención de modelos por escáner 3D.

6. La conversión de textos por medio de OCR para integrarlos en memorias de proyecto o en otro tipo de documentos.

En el último apartado de esta sección daremos algunas referencias adicionales sobre el uso de pro-gramas de pintura digital en arquitectura. Por lo que respecta a otras técnicas que hemos mencionado y que apenas se han tratado en secciones anteriores insistiremos brevemente en alguna de ellas.

La vectorización permite, a partir de un mapa de bits (una imagen obtenida por diversos medios,

Page 41: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

Conceptos fundamentales de toría de la imagen digital 41

básicamente un escáner), generar representaciones vectoriales por medio de rutinas capaces de detectar contornos e interpretarlos como líneas. Aunque por el momento en las aplicaciones comerciales más a mano su rendimiento es bajo y se necesita invertir una considerable cantidad de tiempo en retocar manualmente el resultado, es de esperar que acabe resultando una herramienta potente de trabajo. Entre otras cosas, puede permitir integrar con facilidad bocetos hechos a mano en el proceso informático.

Los programas de OCR (Optical Chracter Re-cognition) permiten la identificación automática de los caracteres de un texto de una imagen y su conversión a fuentes de un programa de tratamiento de textos. Esto tiene un valor considerable para muy diveras aplicaciones como es fácil imaginar. Y puede extenderse a otros campos. En la actualidad ya existen diversas aplicaciones experimentales que hacen lo mismo pero detectando simbologías especializadas, como las usadas en arquitectura para representar aparatos sanitarios, muebles, instalaciones, etc.

Por lo que respecta a la fotogrametría automa-tizada, existen en el mercado diversas aplicaciones pero por el momento sus limitaciones aún son mu-chas y su coste excesivo al estar optimizadas para equipos de alto nivel tecnológico. Recientemente han aparecido aplicaciones en Windows, que salvo por el hecho de que precisan un apoyo taquimétrico tradicional y sus resultados no son tan precisos como los habituales en topografía, es probable que se acaben incorporando al trabajo profesional.

Los métodos fotogramétricos sin embargo están siendo superados rápidamente con la aparición de escáners laser 3D. Estos escáners permiten la generación semiautomática de modelos 3D por medio de un escáner que enviar un rayo láser sobre la superficie que se quiere modelar. La incidencia del rayo es leída por el mismo aparato desde otra posición lo que permite obtener la posición del punto en el espacio. La velocidad y la precisión con que se generan estas nubes de puntos son tan superioreres a los métodos de restitución que ha-cen que el elevado coste se pueda amortizar con relativa facilidad debido a la drástica reducción en horas de trabajo.

Page 42: Conceptos Fundamentales de Teoría de la Imagen Digital...Conceptos fundamentales de toría de la imagen digital 1 Conceptos Fundamentales de Teoría de la Imagen Digital 1 Nociones

42 Aplicaciones informáticas en arquitectura