6 sensores opticos€¦  · web view6.1 principios de operación. el ojo como órgano humano...

35
OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN 6 SENSORES OPTICOS 6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha sido planificado ni obedece a una ley homogénea en su estructura o funcionamiento. El ojo, pues, no es una especie de máquina diseñada para ser de una manera. En sentido estricto, incluso podría decirse que carecemos de "una" visión, ya que en nuestro ojo perduran numerosos restos de cuando nuestros antepasados prehumanos fueron animales nocturnos o de cuando, cientos de miles de años más tarde, aún no habían alcanzado el grado de distinciones cromáticas que nuestra especie posee hoy. Incluso dentro de esta última, que como se sabe se fundamenta en la existencia de tres tipos de células receptoras retinianas, llamadas conos, sensibles a los ondas cortas (gama de azules y violetas) medias (gama de los verdes) y largas (gama de los rojos) es imposible hallar equivalencia o equilibrio entre los tres. En la fovea retiniana, que es la zona de la retina en la que tenemos mejor foco visual, existe sólo un 3% de conos sensibles a las ondas cortas, en contraste con el 97% de conos que suman las otras dos clases. En cuanto al número de receptores de gamas de luz, llamados bastones, en la fovea es prácticamente del 0%. Así pues, el ojo dista mucho de ser una herramienta homogénea de fácil e inmediata comprensión. Ver es un fenómeno muy complejo que requerirá aún de numerosas investigaciones hasta que se llegue a tener un perfil preciso sobre su funcionamiento. Un modelo comprensivo del ojo humano: Para avanzar en el estudio del color, afortunadamente, no necesitamos una comprensión total de los aspectos biológicos integrados en nuestro sistema ojo - cerebro. Es suficiente con desarrollar un modelo reducido que dé cuenta, con sentido práctico, de las operaciones básicas necesarias para la visión cromática. Un modelo que puede representarse mediante una caja cuadrada dividida en tres columnas, cada una de las cuales representa la actividad de un tipo de cono: sensibles al Azul, al Verde y al Rojo, o si se 1

Upload: others

Post on 04-Jul-2020

6 views

Category:

Documents


1 download

TRANSCRIPT

Page 1: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

6 SENSORES OPTICOS

6.1 Principios de operación.

El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha sido planificado ni obedece a una ley homogénea en su estructura o funcionamiento. El ojo, pues, no es una especie de máquina diseñada para ser de una manera. En sentido estricto, incluso podría decirse que carecemos de "una" visión, ya que en nuestro ojo perduran numerosos restos de cuando nuestros antepasados prehumanos fueron animales nocturnos o de cuando, cientos de miles de años más tarde, aún no habían alcanzado el grado de distinciones cromáticas que nuestra especie posee hoy. Incluso dentro de esta última, que como se sabe se fundamenta en la existencia de tres tipos de células receptoras retinianas, llamadas conos, sensibles a los ondas cortas (gama de azules y violetas) medias (gama de los verdes) y largas (gama de los rojos) es imposible hallar equivalencia o equilibrio entre los tres.

En la fovea retiniana, que es la zona de la retina en la que tenemos mejor foco visual, existe sólo un 3% de conos sensibles a las ondas cortas, en contraste con el 97% de conos que suman las otras dos clases. En cuanto al número de receptores de gamas de luz, llamados bastones, en la fovea es prácticamente del 0%. Así pues, el ojo dista mucho de ser una herramienta homogénea de fácil e inmediata comprensión. Ver es un fenómeno muy complejo que requerirá aún de numerosas investigaciones hasta que se llegue a tener un perfil preciso sobre su funcionamiento.

Un modelo comprensivo del ojo humano: Para avanzar en el estudio del color, afortunadamente, no necesitamos una comprensión total de los aspectos biológicos integrados en nuestro sistema ojo - cerebro. Es suficiente con desarrollar un modelo reducido que dé cuenta, con sentido práctico, de las operaciones básicas necesarias para la visión cromática. Un modelo que puede representarse mediante una caja cuadrada dividida en tres columnas, cada una de las cuales representa la actividad de un tipo de cono: sensibles al Azul, al Verde y al Rojo, o si se prefiere, a las ondas cortas, medias y largas. Entendemos por ondas cortas las ondas electromagnéticas que parten de 400 nanómetros, por ondas medias las que se sitúan alrededor de 550 nanómetros y por ondas largas las que poseen más de 600 nanómetros, ya que la visión humana capta ondas electromagnéticas entre 400 y 700 nanómetros.

A esta caja cuadrada dividida en tres columnas hay que añadirle una cuarta columna exterior, que representa la sensación que produciría la estimulación en la persona que ve como se observa en la figura 6.1.

Figura 6.1: modelo ocular humano, acción individual de los conos..

En la figura 6.1 se ofrecen los cuatro comportamientos básicos del ojo, basados en el funcionamiento individual de los conos.

1

Page 2: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

Cuando ningún cono es excitado por luz exterior, la sensación del perceptor es el negro.

Cuando se excita en su totalidad el campo de receptores de onda larga (R) la sensación visual es la del color rojo.

Cuando se excita en su totalidad el campo de receptores de onda media (V) la sensación visual es la del color verde.

Cuando se excita en su totalidad el campo de receptores de onda corta (A) la sensación visual es la del color azul.

Como sucede que los conos también son excitables por conjuntos de ondas electromagnéticas de diferente longitud, tenemos también las cuatro configuraciones básicas representadas en la figura 6.2, que representan la acción de los conos agrupados de dos en dos y de tres en tres.

Figura 6.2: Acción de los conos combinados.

Cuando los conos sensibles a las ondas largas y medias (R y V) se excitan a la vez, la sensación visual corresponde al amarillo.

Cuando los conos sensibles a las ondas largas y cortas (R y A) se excitan a la vez, la sensación visual corresponde al magenta.

Cuando los conos sensibles a las ondas medias y cortas (V y A) se excitan a la vez, la sensación visual corresponde al cian.

Cuando los tres tipos de conos se excitan a la vez, (R, V y A) la sensación corresponde al blanco.

De este modelo se deriva la existencia de ocho colores elementales en el sistema cromático humano, cuya base se haya en las diferentes combinaciones de excitación de las células receptoras del color; los conos.

Estos ocho colores elementales son:

Negro Blanco Rojo Verde Azul Amarillo Magenta Cian

Estos ocho colores pueden agruparse de manera lógica en base a sus características perceptivas y a su funcionamiento en el modelo.

El blanco y negro son llamados colores acromáticos, ya que los percibimos como "no colores".

2

Page 3: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

El rojo, el verde y el azul son llamados primarios aditivos ya que funcionan añadiendo porciones de energía visual a partir del negro (ausencia de estímulos) hasta la estimulación máxima alcanzable (percepción del blanco).

El amarillo, el magenta y el cian son llamados primarios substractivos ya que son la inversa de los aditivos:

o El cian contiene todas las radiaciones (V y A) menos las del rojo (R). Luego puede ser definido como en "no rojo" o el negativo del rojo.

o El magenta contiene todas las radiaciones (R y A) menos las del verde (V). Luego puede ser definido como el "no verde" o negativo del verde.

o El amarillo contiene todas las radiaciones (R y V) menos las del azul (A). Luego puede ser definido como el "no azul" o negativo del azul.

Colorimetría: Se define la colorimetría como la ciencia que estudia la medida del color fundándose en valores de triestímulo, que como se recordará son la base ( tres sistemas de conos independientes ) de la visión humana.

De esta manera, en principio, todos los sistemas que cuantifican el color a partir de tres variables poseen aspectos colorimétricos. Algunos de los más usados son:

Sistema R G B Sistema Tono, Saturación, Brillo Sistema CIE X Y Z Sistema CIE L a b

En el sistema RGB son cantidades de cada uno de los primarios aditivos los que cuantifican el color. En los sistemas digitales más usuales se usan 8 bits para el cálculo de cada uno de ellos, lo que permite 256 niveles. De aquí que la valoración más usual en los programas de tratamiento de color sea de 0 a 255 para cada una de las tres magnitudes colorimétricas. En conjunto, el número de tonos de color posibles mediante estas asignaciones numéricas es de 16.777.216.

La imagen 6.3 muestra un símil de formación de imagen a partir de RGB de 8 bit.

Figura 6.3: formación de imagen a partir de RGB.

3

Page 4: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

La "tecnología" del ojo, dentro de su fisiología, nos permite, de una manera subjetiva el captar los elementos que nos rodean, principalmente para garantizar la supervivencia. En la naturaleza el color desempeña funciones muy importantes. Los colores permiten a muchos animales y plantas sobrevivir, bien adaptándose a su entorno, como mecanismo de defensa visual, o como reclamo hacia el otro sexo. Aquellos animales menos desarrollados carecen de un órgano visual propiamente dicho, supliéndose esta carencia con el desarrollo de otro tipo de sentidos. Otros animales perciben otra escala de colores y de forma diferente pero son capaces de ver a distancias mayores.

Con base en los conceptos arriba desarrollados puede entonces considerarse al ojo como el sistema natural para la obtención de imágenes de las escenas que nos rodean. Este sensor remoto natural está constituido por dos subsistemas básicos (Figura 6.4) el de formación de imágenes, representado por el iris y el cristalino, y el sensor de registro de imágenes, representado por la retina.

Figura 6.4. El ojo humano como sensor remoto natural para la formación y captura de imágenes.

Los sensores remotos construidos por el hombre contienen también estos dos subsistemas, pero con ventajas adicionales, puesto que las imágenes generadas por éstos pueden ser registradas permanentemente, es decir, ser grabadas en un formato de naturaleza cuantitativa que deja abierto el camino para un análisis automatizado por medio de computadora. Además, estos sensores artificiales permiten "ver" luz no visible por el ojo humano, ampliando con esto la capacidad de captura de datos y de decisión inteligente al respecto de éstos.

A partir de lo anterior, analicemos ahora un sistema artificial de captura de imágenes. Comenzaremos el análisis por medio de una representación esquemática en bloques del proceso de captura de una imagen figura 6.5. A su vez, cada bloque puede descomponerse en elementos básicos, los que, a través de su interrelación, permiten entender la estructura lógica de un sensor remoto artificial. Para obtener esta descomposición es necesario introducir ciertos elementos formales a los cuales se refieran la escena y la imagen (Figuras 6.6). Como puede apreciarse en las figuras, la escena está representada por una función matemática f(), que a su vez está referida al sistema de ejes coordenados (alfa) y (beta), los que para un par de valores () dan la posición espacial de un punto de ella. Así esta función representa la variación espacial, es decir punto a punto, de los valores de intensidad de la luz proveniente de la escena para un color dado. En otras palabras, se puede decir que si ésta se observa a través de un filtro que deje pasar un solo color, digamos el verde, entonces f()

4

Page 5: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

proporciona la variación en tonos de verde de un lugar a otro de ella misma. Puede también representar los diferentes tonos de gris de una escena en blanco y negro, o bien, si ésta es vista en pleno color, los diferentes colores que la componen. Debe quedar claro que f () se refiere a la escena independientemente de cómo se le vea, lo que quiere decir que f () es una función matemática que la caracteriza y esta función se refiere exclusivamente a las variaciones de intensidad de luz que provienen de ella, sin embargo estas variaciones son diferentes de color a color pero propias de cada escena; el correspondiente filtro sólo las pone de manifiesto.

Figura 6.5. Proceso de captura de una imagen por medios artificiales.

Figura 6.6. Subsistema de formación de imágenes.

Por otro lado sabemos que la escena se encuentra iluminada por una fuente y que aquélla refleja o transmite la luz emitida por ésta. Hay que recordar que la escena puede ser al mismo tiempo la fuente de luz, como sucede cuando se desea estudiar al sol mismo, o cuando se pretende obtener la fotografía de un foco encendido. En este caso dicha luz emitida o reflejada es transmitida a través del espacio hasta llegar al sensor remoto, que en la figura 6.6 se encuentra representado por un paralelepípedo. Este sensor intercepta la propagación de la energía radiante de dicha luz y la transforma de tal manera que en el plano de la imagen se forma la imagen de la escena. Este plano está dado por el sistema de ejes coordenados (x, y) y la imagen por la función

5

Page 6: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

matemática g(x, y). En forma análoga a la escena, las coordenadas (x, y) dan la posición de un elemento de la imagen y la función g(x, y) representa la variación en tonos de gris o de color de elemento a elemento de dicha imagen.

Hasta aquí, la imagen dada por g(x, y) se encuentra formada en el plano (x, y), mas no se encuentra registrada o capturada en forma permanente. Así, por ejemplo, al enmarcar una escena por medio de una cámara fotográfica, la imagen correspondiente se encuentra formada en el plano de la película, pero no es sino hasta que el obturador de la cámara es accionado que ésta queda registrada permanentemente, al ser sensibilizada la película por la luz que proviene de la escena y que pasa a través de su sistema óptico. Existen dispositivos sensores en los cuales la formación de la imagen y el registro de la misma se hace por medios fotoeléctricos, es decir, la energía radiante de la luz proveniente de la escena es transformada por el sensor en un voltaje, que a su vez es medido por un instrumento adecuado y que es el que registra en forma permanente su valor. En este caso el proceso ya no es tan evidente ni tan visual como en el ejemplo anterior, pero, sin embargo, constituye un método mucho más eficiente y cuantitativo que el de la fotografía. A estos dispositivos fotoeléctricos se les denominan sensores no fotográficos o bien sistemas optoelectrónicos.

Analicemos con más detalle este último método. Para ello es necesario referirnos a la sucesión de fotografías de la figura 6.7. La escena está representada por la figura 6.7 (a), la que por simplicidad en esta discusión se muestra sólo en distintos tonos de gris. Más aún, aunque sabemos que una fotografía está formada siempre por diminutos puntos de diferentes tonalidades, hagamos una idealización y supongamos que esta escena es continua, es decir, pensemos que los puntos son infinitamente pequeños.

Figura 6.7(a). Escena representada aquí a manera de ilustración en tonos de gris.

El proceso se da entonces de la siguiente manera: a la escena original se le sobrepone una rejilla cuadrada (Figura 6.7 (b)) que la subdivide en porciones iguales. Esta rejilla, de hecho, no existe físicamente en la práctica, sino que más bien representa una subdivisión virtual y que aquí se muestra para ilustrar el proceso de creación y registro de una imagen. También cabe aclarar que no necesariamente debe ser cuadrada, hay casos especiales en situaciones complejas de la investigación en donde puede ser rectangular o circular.

6

Page 7: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

Figura 6.7 (b): Imagen de la escena a la cual se le ha sobrepuesto una regilla.

Ahora bien, sobre cada cuadro de la rejilla se efectúa un promedio de los tonos de gris en relación al área proporcional que ocupan dentro del cuadrado sujeto a observación, con lo que se obtiene un cuadrado homogéneo (Figura 6.7(c)), es decir de un solo tono de gris. Esto que hacemos en forma cualitativa y aproximada es precisamente la tarea que ejecuta el sensor optoelectrónico: recibe la energía luminosa de dicho cuadrado, la integra, la promedia y proporciona una medida de ella a distancia.

Figura 6.7 (c): Representación visual de la imagen digital a través de una escala de niveles de gris.

El siguiente paso es la construcción de una tabla de tonos de gris, de tal manera que al tono más claro (el blanco) le asociamos el número 0 y al más oscuro (el negro) el número 7, es decir 8 tonos en total. Por tanto, a los matices intermedios les tocan los números correspondientes entre el 0 y el 7. Esta escala puede ser más amplia: de 0 a 15, o de 0 a 31; pero eso sí, siempre en múltiplos de dos, puesto que las computadoras trabajan sobre la base del número dos. Dado que el ojo humano no puede distinguir más de 16 tonos de gris, dicha coloración entre tonos y números no podrá efectuarse manualmente para más de 16. Es por esto que un sensor remoto no sólo permite realizar

7

Page 8: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

la digitalización de la escena en una forma extremadamente rápida, sino también la separación de un gran número de tonos.

Figura 6.7 (d): Registro numérico de la imagen detectada y registrada por el sensor fotoeléctrico.

Al ejecutar el proceso de integración de los tonos de gris sobre cada cuadrado de la rejilla y comparar cada vez el resultado con la escala de gris previamente establecida, se obtiene entonces una colección de números arreglados en forma matricial (Figura 6.7 (d)), que son, por una parte, la representación numérica de la escena y, por otra, la estructura de la imagen digital correspondiente. Es claro que esa representación numérica es adecuada tanto para efectos de almacenamiento en computadora, como para realizar un análisis cuantitativo de la escena por medio de algoritmos computacionales, los cuales pueden llegar a ser muy complejos, además de permitir el transporte y el envío de datos correspondientes a la escena, no sólo de una manera eficiente, sino a muy larga distancia, como ha sucedido en el caso de las sondas espaciales que recién han explorado el sistema solar: han sido capaces de enviar imágenes de casi todos los planetas y de sus respectivos satélites.

El proceso inverso a la digitalización de una escena puede llevarse a cabo, y de hecho se realiza, en muchas de las etapas de la investigación en percepción remota. A este proceso inverso se le conoce con el nombre de reconstrucción y con él se obtiene una representación visual aproximadamente continua de la escena. Desde luego, la escena misma, que forma parte de la naturaleza, no se puede reconstruir a partir de la imagen. La representación se hace de la siguiente manera: utilizando la misma escala de grises con la que se digitalizó la escena, cada número de la representación numérica se usa para plasmar un cuadrado cuyo tono de gris corresponde al número en cuestión, de tal manera que se obtiene una representación visual (Figura 6.7 (c)) de la imagen digital. Nótese que esto implica que ésta puede tener una representación numérica o una representación visual (reconstrucción de la escena) y que en algunos casos pueden existir ambas. En otras palabras, la imagen digital es una simplificación de la escena con dos posibles representaciones: numérica y visual.

En el ejemplo de las figuras 6.7 el tamaño del cuadrado de la rejilla se ha escogido relativamente grande y en consecuencia se han perdido los detalles más finos de la escena. Para preservarlos en la imagen digital es necesario escoger el cuadrado

8

Page 9: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

con un lado tal que sea de por lo menos la mitad de las dimensiones del detalle más fino de la escena. Este cuadrado define, pues, la resolución de la imagen digital y se le conoce con el nombre de elemento de resolución o campo instantáneo de vista (CIV). Es también un elemento físico con dimensiones físicas sobre la escena, a diferencia del número correspondiente en la imagen digital de un campo instantáneo de vista, que constituye un elemento lógico en la representación numérica de aquélla. A este elemento lógico se le conoce como pixel y de por sí no tiene dimensiones físicas, sino que éstas son asignadas de acuerdo a una escala predeterminada en la representación visual de la imagen digital. En resumen, el pixel es la representación numérica o lógica del campo instantáneo de vista y es la medida de la energía promedio que proviene de dicho campo; a cada pixel le corresponde sólo un campo y viceversa.

El tamaño del campo instantáneo de vista define la resolución espacial, es decir da el grado de detalle que se puede discernir de la escena, que es a lo que se llama digitización; a su vez, la escala de grises define el número de tonos discernibles y el de la resolución radiométrica, es decir proporciona una medida de qué tanto se puede distinguir una energía luminosa de otra. Recordemos que el ojo humano puede reconocer 16 tonos de gris o bien 16 diferentes niveles de energía luminosa integrada por todos los colores, esto es, sin haber sido filtrada por algún filtro de color. A esta resolución radiométrica se le conoce como cuantización. Estos conceptos, la digitización (resolución espacial) y la cuantización (resolución radiométrica), definen globalmente la calidad de una imagen digital, es decir, dan el grado, parecido o resemblanza con la escena, o la fidelidad con la cual la imagen digital representa adecuadamente a la misma. Este grado de fidelidad o calidad es subjetivo, puesto que para ciertas aplicaciones no se requiere de una gran resolución, además de que digitalizar y cuantizar a un gran detalle implica la generación de un volumen de datos que puede ser innecesario o inconveniente. Por lo tanto, la calidad de una imagen digital se define más bien en una aplicación específica, y la obtención de una calidad superior a la necesaria, o puede no tener sentido, o resultar ser poco práctica en la realidad experimental. Hay que agregar a esto que la calidad de una imagen digital depende también del contraste y del grado de definición de las líneas y cambios de tono presentes en la imagen.

De acuerdo al desarrollo que ha tenido la percepción remota se puede asegurar que la representación numérica de la imagen digital está enmarcada en un contexto lógico, muy adecuado para el análisis matemático de los datos respectivos, a través de programas computacionales, que a su vez representan un determinado análisis que se desea ejecutar sobre ella. Por otro lado, la representación visual de la imagen digital es adecuada no sólo para realizar una inspección sobre la imagen, sino también para la creación de mapas o de registros permanentes que fungen como referencias básica para la comparación entre los diferentes aspectos de la evolución de una escena. En general, ésta se realiza después de haber ejecutado uno o varios pasos del análisis matemático sobre la representación numérica.

6.2 Clasificación

Los detectores analizados tienen una característica en común; integran en el espacio y en el tiempo la cantidad de luz que incide en ellos. Por ejemplo, si un haz luminoso de flujo radiante dado incide en una pequeña área de la superficie de

9

Page 10: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

fotodiodo 6.8 (a) entonces producirá la misma respuesta que el haz de igual flujo que cubre toda el área del diodo 6.8 (b).

Figura 6.8: Acoplamiento de luz en el detector.

Sin embargo, al saturar con luz el detector, producirá una respuesta proporcional al flujo radiante por unidad de área del detector. Al mover el detector a través del campo luminoso se produce una respuesta que varia con la irradiación de punto a punto de punto incidente.

Detectores por formación de imagen: En las aplicaciones de la optoelectrónica es imprescindible preservar cualquier carácter espacial que pudiera tener la onda de luz. Los de detectores con la que se logra lo anterior se denominan detectores por formación de imagen, de tales detectores, quizás el más conocido, de mayor uso y más devaluado sea el de la emulsión fotográfica común, donde cada grupo de granos de aluros de Planta que integran la emulsión responderá por separado a la integración de la luz incidente. La característica mas importante de esta película fotográfica es esta permanencia de registro, otras características son sus altas capacidades de resolución sobre un amplio intervalo espectral, así como su bajo costo, en contra de lo anterior es necesario ponderar su bajo intervalo dinámico, no linealidad y el requisito del procesamiento húmedo.

Tubos de cámara: Desde los principios de la exploración electrónica se han diseñado muchos tubos de cámaras como sensores de imagen , algunos mas adecuados que otros para una aplicación particular, tal como su uso en el estudio transmisión exteriores , etc., pero de ellos los mas ampliamente usados en nuestros años son el iconoscopio , el orthicon de imagen y el vidicon, básicamente la televisión usa sensores de imagen como los anteriores, para convertir imágenes fotónicas, las cuales han sido enfocadas por lentes hacia una superficie fotosensible, dicha superficie puede ser de tipo fotoemisivas, fotovoltaicas o fotoconductivas. (Las superficies fotoemisivas desprenden electrones, las fotovoltaicas muestran diferencias de potencial, y las fotoconductivas varían su resistencia) Estas imágenes electrónicas se reconvierten a

10

Page 11: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

imágenes luminosas visibles que un observador mira en forma directa o remota. Mientras que las imágenes transmitidas están en la región visible, las imágenes de entrada pueden estar formadas en cualquier banda espectral del ultravioleta lejano al infrarrojo. En sentido más amplio, estos sensores de imagen deben ser llamados convertidores de imagen. Uno de los primeros tubos para cámaras con un blanco de ganancia de almacenamiento fue el ORTHICON de imagen, mas sus tubos para transmisión en estudio bajo condiciones de iluminación, entre sus características se mencionan:

Utiliza superficies fotoconductiva Sensibilidad moderadamente alta Mecanismo de ganancia de prealmacenamiento de imagen electrónica Muy baja perdida de preamplificación Elimina perdidas de escena a bajos niveles de iluminación.

El ISOCON de imagen fue otro tubo basado en el IO.

Alta ganancia de prealmacenamiento. Elimina las perdidas de escena a bajos niveles de iluminación. Mejor sensibilidad. Enfocan la imagen dando como resultado imágenes de alta fidelidad

geométrica y uniformidad.

El VIDICON: Es simple, con ganancia de prealmacenamiento de imagen, la mayoría de los VIDICON emplea superficie, fotoconductiva o fotovoltaica consistiendo de una materia tal como trisulfuro de antimonio, oxido de Plomo o Silicón. La eficiencia cuántica de tales materiales pueden ser muy altos pero no mayores que la unidad cuando se usan en aplicaciones de imagen. El VIDICON fue de baja sensitividad debido a pérdidas generadas en el proceso de lectura y retardo de movimiento, por lo tanto sus aplicaciones se han restringido para niveles de luz de día. En la figura 6.9 se indican las partes principales de un tubo VIDICON para cámaras cuyo funcionamiento es el siguiente:

Figura 6.9: Construcción de un tubo vidicon.

La envolvente del tubo de cámara de vidicon esta cerrada en un extremo por una ventana óptica plana, transparente, hecha de vidrio, que esta recubierta en su superficie

11

Page 12: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

inferior con una película igualmente transparente de material conductor, esta película forma la placa de señal, que esta conectada eléctricamente a un electrodo de tipo anular que la circunda y que se proyecta de manera ligera alrededor del exterior del tubo. La superficie interna de esta placa de señal (la que ve hacia el cañón) esta recubierta de una película delgada de material fotoconductor (trisulfuro de antimonio) que forma el blanco sensible a la luz sobre el cual se va a crear la imagen de carga.

La malla del blanco fotoconductivo tiene dos funciones: La primera es proteger al blanco fotoconductivo del bombardeo por iones negativos producidos en el cañón electrónico, la segunda función es cuando no hay luz en la escena incidiendo en el blanco fotoconductivo, vea la figura 6.10, en estas condiciones se explora con un haz electrónico, el blanco fotoconductivo que es acelerado en el ánodo de pared (200-300 v) y que al llegar a la malla se desaceleran por encontrarse con un voltaje positivo mucho menor (+35v) sobre el blanco y llevarla a cero. En estas condiciones la placa de señal y el blanco fotoconductivo se comportan como un aislante.

Figura 3.10: Exploración del blanco fotoconductivo sin luz incidente.

Cuando la luz de la escena que se va a televisar se enfoca sobre la ventana optica del tubo e incide en el blanco mas próximo a la escena. Este efecto de la luz incidente disminuye la resistencia del recubrimiento fotoconductivo del blanco en cantidades correspondientes a la cantidad tonal de la escena, como se indica en la figura 6.11.

Esto quiere decir que la resistencia disminuye de acuerdo con la intensidad de la luz incidente, formándose patrones de cargas positivas sobre el lado de exploración del blanco. Las áreas mas positivas corresponden a las áreas mas brillantes de la escena que se filma. La imagen de carga que aparece sobre el blanco se explora entonces por el haz electrónico de baja velocidad, de la manera usual; y los electrones del haz neutralizan las cargas positivas que tocan, siempre que esto sucede, los potenciales positivos variables de la imagen de carga se elevan rápidamente a potenciales de tierra.

12

Page 13: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

Figura 6.11: Neutralización de cargas por el haz.

Los electrones que no se necesitan para neutralizacion se regresan hacia el cátodo y no juegan ningun papel en la acción, cuando los electrones del haz encuentran grandes áreas densas de carga sobre el lado de exploracion del blanco, se requeriran mas de estos electrones para neutralización, de lo que se requerira en el otro caso. Sin embargo cualquiera que sea su número, estos electrones neutralizadores fluyen en una poderosa corriente hacia el blanco, y atravez de la placa de señal y del electrodo anular que lo rodea y de ahí pasa por el resistor de carga de señal, estableciendose una corriente cuya direccion se indica en la figura 6.12.

Figura 6.12: Corriente de electrones no útiles en la neutralización.

El vidcon fue simple, muy pequeño y barato, lo que le permitio tener una amplia aceptacion por mucho tiempo. Una desventaja del tubo VIDICON es su lentitud de respuesta a cambios repentinos en la iluminacion. Esto se debe en parte al tiempo que se requiere para una imagen de carga sobre el blanco para volver a su estado de aislamiento completo despues de que la luz que ha reducido su resistividad se ha removido.

13

Page 14: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

Dispositivos de imagen de estado Sólido: Existen varias propuestas de dispositivos de estado sólido para la conversión de luz incidente en imágenes manipulables electrónicamente, los más importantes de estos tipos son:

a) Arreglo de Fotodiodos.b) Dispositivos de inyección de carga. (CIDs)c) Dispositivo de acoplamiento de transferencia de carga (CCDs)

El futuro de la detección por formación de imágenes en tiempo real radica en la formación actual de estos formadores de imagen de estado sólido que están comenzando a dominar el mercado industrial. Las cámaras basadas en tales formadores ofrecen alta resolución, alta sensibilidad, tamaño pequeño, bajo consumo de energía y fácil vinculación para el control por computadora y manejo de datos. Tales cámaras están siendo favorecidas rápidamente en cuanto al procesamiento de imágenes, visión a través de maquinas, supervisión y control industrial.

Arreglo de fotodiododos: Un método para la formación de imágenes de estado solidó es fabricar muchos fotodiodos delgados juntos en una disposición lineal o bidimensional. La luz captada por el objetivo de una cámara digital, se proyecta sobre un detector o sensor sólido de imagen, constituido por cientos de miles de receptores fotosensibles (fotodiodos). La luz incidente produce en cada fotodiodo una débil señal eléctrica que es amplificada y convertida en información digital (ADC) como cadenas de dígitos binarios que se representan finalmente como cuadraditos de color individualizados llamados píxeles. Si embargo, las dificultades de fabricación y las bajas densidades de encapsulamiento han conducido al desarrollo de otros dispositivos que cumplen la misma función.

CID (Dispositivos de inyección de carga) En este tipo de sensor cada pixel tiene dos electrodos cubriendo substrato de silicona. Un electrodo es conectado a una línea común para las filas y el otro electrodo es conectado a la línea común de las columnas. Si los dos electrodos se mantienen con carga positiva, entonces los electrones van a acumular durante la exposición de la silicona a la luz, su tiempo de integración. Cuando un electrodo es llevado a carga negativa, entonces todos los electrones acumulados en la silicona por debajo de ello se migran al electrodo todavía positivo. Este movimiento de electrones provoca un pulso de corriente en los circuitos conectados al segundo electrodo. Los electrones pueden redistribuirse por debajo de los dos electrodos sin perder su carga, por lo que este proceso es una lectura no destructiva. Cuando los dos electrodos son llevados negativos los electrones son vaciados o inyectados al substrato, nuevamente produciendo un pulso de corriente en los circuitos anexos, y así preparando el sensor para una nueva integración.

El CID es mucho menos sensible que el CCD, pero tiene otras ventajas importantes. Los CID's son menos susceptibles a floración y daños por radiación de lo que son los CCD's. Una ventaja particular es poder evaluar el grado de exposición de la imagen mientras se está realizando su integración. Un pixel dañado de un CID no va a afectar toda una línea tal como puede en un CCD.

CCD (Dispositivo de acoplamiento de transferencia de carga): Como su nombre lo indica el CCD conduce su información mediante la transferencia eficiente de paquetes de carga eléctrica a través del dispositivo. Las ventajas ofrecidas por la tecnología CCD son el incremento en la densidad de encapsulamiento con respecto a la del arreglo del fotodiodo, la libertad en cuanto al retrazo y a la fluorescencia y la

14

Page 15: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

sensibilidad a bajos niveles de luz. Tal vez mas significativa sea la libertad de distorsión geométrica de la imagen, que es una seria limitación de las cámaras VIDICON. Gran parte del futuro de la formación de imágenes de estado sólido depende de este dispositivo y, por consiguiente, se analizará con más detalle.

Un dispositivo de carga acoplada (CCD) recibe su nombre por la manera en que las cargas son leídas en sus píxeles después de una exposición, las cargas en la primera fila se transfieren a un lugar en el sensor llamado registro de lectura. De allí, las señales se alimentan a un amplificador y luego a un conversor analógico-digital. Una vez que la fila se ha leído, sus cargas en la fila de registro de lectura se borran, la fila entera entra, y todas las filas por encima se mueven abajo una fila. Las cargas en cada fila son "acopladas" a aquéllas en la fila de arriba para que cuando una baje, la próxima se mueva abajo para llenar su viejo espacio. De esta manera, cada fila puede ser una fila de lectura por vez. El CCD cambia una fila entera por vez al registro de lectura. El registro de lectura luego envía sólo un píxel por vez al amplificador de salida observe la figura 6.13.

Figura 6.13: Lectura en un de un dispositivo de transferencia de carga.

El CCD debe acometer cuatro tareas para generar una imagen:

1. Generar cargas 2. Recolectar cargas 3. Transferir cargas 4. Detectar cargas

La primera tarea se basa en el efecto fotoeléctrico: los fotones al chocar con los diodos liberan electrones. En la segunda tarea, los fotoelectrones son recogidos en el punto de recogida o píxel más cercano. Los puntos de recogida están definidos por un conjunto de electrodos, llamados puertas. La tercera operación, transferencia de cargas, se logra manipulando el voltaje en las puertas de manera sistemática de forma que la señal de electrones se mueva verticalmente de un píxel al siguiente como si fuera una cinta transportadora. Al final de cada columna hay un registro horizontal de píxeles. Este registro recoge una línea cada vez y entonces transporta los paquetes de carga en serie a un chip amplificador. El paso final, detectar cargas, se realiza cuando los paquetes individuales de carga son convertidos en señales de voltaje de salida. El voltaje

15

Page 16: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

de cada píxel puede ser amplificado fuera del chip, codificado digitalmente y almacenado en un ordenador para ser reconstruido y visualizado.

Dispositivo Básico de Transferencia de Carga (CCD): La celda básica es un mejoramiento al modelo MOS que se comporta como un capacitor. El dispositivo esta formado por difusión de impurezas (del grupo III o V) en el Silicio puro (del grupo IV) esto crea un dispositivo semiconductor sobre el cual un aislador (típicamente Óxido de Silicio) se coloca, como se indica en la figura 6.14. Bajo estas condiciones los electrones (portadores minoritarios) se depositan debajo del aislador, puesto que en este puesto se encuentra el electrodo con polaridad positiva, creando paquetes o posos de carga.

Figura 6.14: Elemento básico de un sensor CCD.

Cuando a este dispositivo se le hace incidir luz se crean paquetes o pozos de carga que dependerán de la intensidad luminosa. Como podemos observar cuando incide luz en material fotosensible se generan pares de electrones. Merece la pena señalar que la carga acumulada puede almacenarse durante varias horas sin desintegración apreciable. La eficiencia del proceso de transferencia de carga tiene un valor extraordinario de 99.999 %.

Para que esta imagen electrónica formada se mueva, se requiere de una adecuada polarización secuencial de los electrodos de las celdas unitarias que conforman el área sensible. Como se mencionó, la lectura se lleva a cabo mediante la transferencia de paquetes de carga adyacentes, entonces es posible conectar cada detector del área sensible con un reloj de pulso por separado y sincronizado para lograr la transferencia, sin embargo en la practica, los electrodos se agrupan en conjuntos de 3 o 4, a dichos conjuntos se les conoce como fase (figura 6.15) de igual forma, casa fase se conecta a un voltaje sincronizado por separado. Un sistema de sincronización trifásico permite que la carga sea movida por completo a través del dispositivo como se muestra en la figura 6.15, para la transferencia en línea, son posibles velocidades de reloj hasta 10 MHz.

La sencilla disposición de formación de imágenes en línea , según se acaba de presentar, no es idónea para los detectores por área, debido al tiempo requerido para transferir la carga a través del dispositivo. Para los detectores por área los píxeles individuales están dispuestos en una matriz de M x N elementos. Los paquetes de carga son conmutados a una serie de almacenes y lecturas secuenciales mientras se graba una

16

Page 17: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

segunda imagen. Los formadores por área deben ser capaces de transferir datos a velocidades compatibles con los sistemas convencionales.

Figura 6.15: Arreglo de un sistema de sincronización trifásico.

Existen dos formas principales en las que es posible organizar información en una pastilla CCD.

a) CCD de transferencia de cuadros.b) CCD de transferencia de interlineas.

CCD de transferencia de cuadros. En la transferencia de cuadros, el arreglo se divide en columnas verticales entre las cuales hay detecciones de canal. Los electrodos están colocados en el arreglo perpendicular a las columnas. El arreglo es dividido en dos secciones, una región de almacenamiento protegida contra la luz y una región ópticamente sensible, como se ve en la figura 6.16.

Figura 6.16: Arreglo de CCD de transferencia de cuadros a dos fases con entrelace.

17

Page 18: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

El principio básico de operación es que toda el área sensible es expuesta a la luz y luego la carga desarrollada es transferida al área de almacenamiento para su lectura. Al final del periodo de integración toda la imagen foto convertida se transfiere muy rápidamente hacia el área de almacenamiento, la cual es idéntica al área de imagen pero protegida de la luz. Durante el siguiente periodo de integración, la imagen es leída por el registro horizontal secuencialmente hacia la señal de video. Esto es necesario para las altas velocidades de lectura requeridas en los sistemas de T.V y solo entonces debido al tiempo necesario para la lectura y no para la transferencia de datos.

CCD de transferencia de interlineas: Un CCD de transferencia de interlineas típico es un arreglo donde cada una de las columnas verticales consisten de un arreglo en línea a dos fases de celdas de imagen y entre columnas están las salidas analógicas o registros de transporte de carga, los cuales están protegidos de la luz figura 6.17. Ya que el área protegida de la luz es aproximadamente igual al área sensible a la luz, el área de la fotosuperficie efectiva es aproximadamente la mitad del área tomada o filmada. Suponiendo un tiempo de cuadro de 1/30 s, se ha encontrado que el tiempo de integración para ambos campos 1 y 2 es de 1/30 s. En el primer campo, los fotoelectrones son recolectados en 1/30 s y rápidamente transferidos hacia el registro de transporte protegido de la luz. Esta se imagen se transporta luego, una línea a la vez, hacia el registro de transporte de carga horizontal. La parte de la imagen en el registro de transporte vertical es completamente leída hacia el registro horizontal en un tiempo de cuadro de 1/60 s. Después de que el primer campo es leído, el segundo campo, el cual ha estado integrando la imagen en 1/30 s, se transfiere hacia el registro de transporte vertical y leída en 1/60 s. Como resultado, el tiempo de integración para ambos campos es igual a un tiempo de cuadro de 1/30 s. Ya que solamente la mitad de la imagen de escena se convierte en carga electrónica, es común en muchas aplicaciones usar dos arreglos con la imagen de escena desfasado por un espejo medio plateado a 45 grados para que el segundo arreglo llene el espacio del primer arreglo.

Figura 6.17: CCD de arreglo por interlinea.

18

Page 19: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

Sensores de imagen CMOS: Los sensores de imagen se manufacturan en la industrial en forma de fundición de obleas o fabs en hornos cerrados que contienen un producto químico y gaseoso, la elevada temperatura hace que los átomos de gas se difundan y penetren en la oblea de silicio , cambiando las características eléctricas del mismo , donde luego usando técnicas de fotograbado y mediante exposición a los rayos ultravioleta se graban los circuitos diminutos y dispositivos sobre chips de silicio . El problema más grande con los CCDs es que no hay suficiente economía de escala. Los mismos se crean fundiciones usando procesos caros y especializados que sólo pueden usarse para hacer otros CCDs. Entretanto, más y mayores fundiciones en otras industrias están usando un proceso diferente llamado Metal-Oxido-Semiconductor con transistores complementarios (CMOS) para hacer millones de chips para los procesadores de computadoras y memorias. El CMOS es por mucho el proceso más común y de más alto rendimiento productivo en el proceso de fabricación de chips en el mundo. Los últimos procesadores de CMOS, como el Pentium II, contienen casi 10 millones de elementos activos. Usando este mismo proceso y el mismo equipo para fabricar los sensores de imagen CMOS se reduce dramáticamente los costos , porque se extienden los costos fijos de la planta sobre un número mucho más grande de dispositivos. Como resultado de estas economías de escala, el costo de fabricar una oblea de CMOS es un tercio del el costo de fabricar una oblea similar que usa un proceso de CCD especializado. Se bajan aun mas los costos porque los sensores de imagen CMOS pueden tener circuitos de proceso creados en el mismo chip. Cuando se usan CCDs, estos circuitos de proceso deben estar en chips separados.

Mientras que en el CCD toda la información es transmitida a través de las mismas celdas vecinas hacia sus bordes, donde la información es recolectada, el CMOS tiene capacidad de transmisión en cada una de las celdas. Esto evita el afecto de "blooming" o de contaminación entre pixeles vecinos cuando hay situaciones de sobre exposición y, además, permite mejores opciones de interpolación de la imagen.

El interés en el CMOS por parte de la industria radica en que, a diferencia de la fabricación de CCDs, que debe hacerse en plantas especializadas a partir de materias primas no comunes, los CMOS pueden ser fabricados en las líneas de producción normales de semiconductores a partir de materias primas muy baratas y de uso generalizado.

Teniendo en cuenta entonces que la tecnología de fabricación del CMOS es la misma que la de los microprocesadores, tendrá que haber una baja de precios en cuanto la tecnología CMOS se adapte de manera eficiente a las cámaras digitales. Por las características de su fabricación, los CMOS son también más fáciles de interconectar a nuevos sistemas que los CCD. Porque en realidad podemos considerar al CMOS como un microprocesador. Esto quiere decir que los CMOS son una alternativa flexible para los fabricantes, y les permitirán nuevos desarrollos. Las versiones iniciales de sensores de imagen CMOS estaban plagadas con problemas ruido, y eran usadas principalmente en cámaras económicas. Sin embargo, están haciéndose grandes adelantos y los sensores de imagen CMOS están alcanzando una calidad comparable a los CCDs .

19

Page 20: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

6.3 Aplicaciones

6.3.1 Funcionamiento de una cámara de exploración.

Todas las cámaras de película son simplemente cajas oscuras en las que usted puede insertar el tipo de película que quiera. Es la película que usted escoge la que da colores distintivos, tonos, granulado a las fotografías. Si usted piensa que una película da imágenes que son demasiado azules o rojas, usted puede cambiar a otra película. Con las cámaras digitales, la "película" es permanentemente parte de la cámara, por lo tanto comprar una cámara digital es en parte como seleccionar una película que se va a usar, como la película, sensores de imagen diferentes dan colores diferentes.

La fotografía digital se basa en la captura de una imagen, su almacenamiento en un fichero que se mantendrá inmutable a lo largo del tiempo, con lo que la calidad de la imagen no disminuirá nunca. La reproducción de esa imagen almacenada en un soporte digital puede ser duplicada tantas veces como se desee, produciendo siempre una copia con la misma calidad que la imagen original.

Para su reproducción en otros soportes, se utilizan las impresoras convencionales de computación, u otros mecanismos de reproducción más sofisticados, dependiendo la calidad final alcanzada, de la característica de impresión del dispositivo empleado.

El elemento básico que determina las características de una cámara fotográfica digital es el sensor, dispositivo electrónico-digital que reemplaza a la película, es una matriz de pequeñas celdas perfectamente alineadas en filas y/o columnas. Cada una de esas celdas es un elemento fotosensible microscópico, con la capacidad de producir impulsos eléctricos de distinta intensidad en función de la cantidad de luz que recibe. Cada celda es, entonces, como un pequeño "fotómetro" que producirá un flujo eléctrico variable sobre la base de cantidad de luz que incida en su superficie vea la figura 6.18.

Figura 6.18: componentes principales de una cámara digital.

La información que entrega el sensor consiste en diferentes niveles de corriente eléctrica para cada celda. Esta información es procesada por un DAC (Digital-Analog Converter o Conversor Analógico-Digital), donde la señal eléctrica es convertida en datos digitales. Aquí es donde tiene lugar la interpolación. Luego esos datos digitales son archivados en la memoria de la cámara o enviados a la computadora, finalmente son representados como cuadraditos de color individualizados llamados píxeles.

20

Page 21: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

Píxel: Podemos definir el píxel (del inglés "picture element") como el elemento más pequeño que forma la imagen. Para hacerse una idea visual de su naturaleza, la comparación con los mosaicos formados por pequeñas piedras de colores que conforman una imagen es siempre un ejemplo muy recurrente, vea la figura 6.19. Así, a diferencia de las imágenes vectoriales, las imágenes "rasterizadas" o mapas de bits (generadas a través de un dispositivo digital, como una cámara) están formadas por píxeles. El hecho de que no los percibamos como unidades independientes sino como un conjunto se debe a una limitación de nuestra visión que nos da esa sensación de continuidad. Sólo es cuestión de aproximarse lo suficiente o ampliar la imagen para que podamos llegar a percibir cada uno de estos elementos cuadrados.

Figura 6.19: imagen con pequeñas piedras que don denominadas píxeles.

Resolución del sensor de imagen : Como usted ha visto, la resolución de la imagen es una manera de expresar cuan definida o detallada las imágenes son. Las cámaras de menor tecnología tienen resoluciones actualmente alrededor de 640 x 480 píxeles (a veces llamada resolución VGA), aunque este número constantemente se mueve hacia arriba. Cámaras mejores, aquéllas con 1 millón o más de píxeles se llaman cámaras megapíixel y aquéllas cámaras con más de 2 millones se llaman cámaras multi-megapíxel. Las cámaras digitales profesionales más caras le dan aproximadamente 6 millones de píxeles. Aunque impresionante, incluso estas resoluciones no igualan los estimados 20 millones o más de píxeles en la cámara tradicional de película de 35 mm y los 120 millones en la resolución del ojo humano.

El término "resolución" se introdujo en el mundo de las computadoras como una manera de describir monitores o pantallas. En los primeros días, una pantalla tendría una resolución CGA o VGA. Más tarde se introdujeron otros nombres para describir pantallas con mayor definición. Los términos fueron usados para describir el número de píxeles en la pantalla. Por ejemplo, la pantalla VGA tenía 640 píxeles a lo ancho de la pantalla y 480 hacia abajo (640 x 480). Nadie se preocupaba por el uso del término en el momento que fue introducido. Sólo cuando la fotografía se volvió digital fue que otro grupo de personas entró en escena con un uso totalmente diferente del término. A los fotógrafos, o cualquiera en la actividad óptica, la resolución describe la habilidad de un dispositivo para discernir líneas como aquéllas encontradas en una carta de prueba. Como usted podría esperar, igual que con todas las otras cosas, los costos se elevan con la resolución de una cámara. La mayor resolución también crea otros problemas, por ejemplo, más píxeles significa archivos de imagen más grandes. No sólo los archivos más grandes son más difíciles de guardar, sino que también son más difíciles de editar, enviar por e-mail, y publicar en la Web.

21

Page 22: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

Resolución : óptica e interpolada: se debe tener en cuenta las demandas sobre la resolución de las cámaras y escáneres porque hay dos tipos de resolución : óptica e interpolada. La resolución óptica de una cámara o escáner es un número absoluto porque los píxeles de un sensor de imagen o fotoelementos son dispositivos físicos que pueden contarse. Para mejorar la resolución en ciertos límites respetados, la resolución óptica puede aumentarse usando software. Este proceso, llamado resolución interpolada, agrega píxeles a la imagen para aumentar el número total de los mismos. Para hacer esto, el software evalúa aquellos píxeles que rodean cada nuevo píxel para determinar de qué color debería ser el mismo. Por ejemplo, si todos los píxeles alrededor de un píxel recientemente insertados son rojos, los nuevos píxeles se harán rojos. Lo que es importante tener presente es que la resolución interpolada no agrega nueva información a la imagen, sólo agrega píxeles y hace el archivo más grande. Esta misma cosa puede hacerse en un programa de edición de fotografía como Photoshop al hacer un nuevo muestro de la imagen.

De modo que el tamaño del sensor es tan importante como la tecnología usada para la interpolación de la imagen. En algunas cámaras, este procesado de la imagen puede ser programado -en parte- por el propio usuario, especificando diferentes parámetros de nitidez, tono, contraste, y calidad final.

Profundidad de color: La resolución no es el único factor que determina la calidad de las imágenes. Igualmente importante es el color, cuando usted observa una escena natural, o una impresión de color fotográfica bien hecha, se pueden distinguir millones de colores. Las imágenes digitales pueden aproximar este realismo de color, pero si las mismas pueden hacerlo en su sistema depende de sus capacidades y sus funciones. El número de colores en una imagen se identifica como su profundidad de color, profundidad de píxeles, o profundidad de bit. La PCs más viejas estaban limitadas a monitores que mostraban sólo 16 o 256 colores. Sin embargo, casi todos los nuevos sistemas pueden mostrar lo que se llama Color Verdadero de 32-bits (32-bit True Color). Se llama Color Verdadero porque estos sistemas muestran 16 millones de colores, casi el número que el ojo humano puede distinguir. ¿Por qué se necesitan 24 bits para conseguir 16 millones de colores? Es aritmética simple. Para calcular cuántos colores diferentes pueden capturarse o pueden ser vistos, simplemente eleve el número 2 a la potencia del número de bits usados para grabar o visualizar la imagen. Por ejemplo, 8-bits le da 256 colores porque 28=256. Vea la tabla 6.1 y observe las posibilidades.

Nombre Bits por pixel Fórmula Número de colores

Blanco y Negro 1 21 2

Pantalla Windows 4 24 16

Escala de grises 8 28 256

256 colores 8 28 256

Color alta densidad 16 216 65 mil

Color verdadero 24 224 16 millones

Tabla 6.1: profundidad de bit comunes en dispositivos de imagen digital.

22

Page 23: 6 SENSORES OPTICOS€¦  · Web view6.1 Principios de operación. El ojo como órgano humano natural :el ojo humano es fruto de una larga evolución. Esto quiere decir que no ha

OPTOELECTRÓNICA UNIDAD IV: SENSORES DE IMAGEN

Algunas cámaras digitales (y escáneres) usan a menudo 30 o más bits por pixel y las aplicaciones profesionales requieren 36-bit de profundidad de color, un nivel sólo logrado por cámaras digitales profesional elevadas. (La Canon Pro70 fue la primera cámara del consumo de 30-bit.) Estos bits extras no se usan para generar colores que sean luego visualizados. Son usados para mejorar el color en la imagen cuando se procesa hasta su forma final de 24-bits y luego son descartados.

Sensibilidad: Un número ISO (International Organization for Standardization u Organización Internacional para la Estandarización) que aparece en el paquete de la película especifica la velocidad, o sensibilidad, de una película basada en proceso de plata. Cuanto más alto sea el número, "más rápida" o más sensible es la película a la luz. Al igual que en las películas fotográficas se clasifican en velocidades como 100, 200, o 400. Cada duplicado del número ISO indica un duplicado en la velocidad de la película de manera que cada una de estas películas es el doble de rápida que la anterior.

Los sensores de imagen también usan números ISO equivalentes. Así como con una película, un sensor de imagen con un ISO más bajo necesita más luz para una exposición buena que uno con un ISO más alto. Para capturar mas luz necesita un tiempo de exposición más largo que puede llevar a imágenes difusas o una abertura mayor que le dará menos profundidad de campo. Por lo tanto, es mejor un sensor de imagen con un ISO más alto porque reforzará el congelamiento de imágenes en movimiento disparando con poca luz. Típicamente, los ISOs van de 100 (bastante lento) a 3200 o más alto (muy rápido).

Calidad de la imagen: El tamaño de un archivo de imagen depende en parte de la resolución de la imagen. Cuanto más alta sea la resolución, existen más píxeles para almacenar de manera que más grande se vuelve el archivo de la imagen. Para hacer archivos grandes de imagen más pequeños y más manejables la mayoría de las cámaras los almacenan en un formato llamado JPEG nombre que deriva de su diseñador, el Joint Photographic Experts Group o Agrupación de Expertos Fotográficos Asociados. Este formato de archivo no sólo comprime imágenes, también le permite especificar el grado de compresión de las mismas. Esta es una característica útil porque hay un compromiso entre la compresión y calidad de la imagen. Menos compresión le da mejores imágenes para que usted pueda hacer impresiones más grandes, pero usted no puede guardar tantas imágenes. Más compresión le permite guardar más imágenes y hace las imágenes mejores para publicarlas una página Web o enviarlas como archivo adjunto de e-mail. El único problema es que sus impresiones no serán tan buenas.

Una imagen muy comprimida mostrará un aspecto cuadriculado cuando se agranda más allá de un cierto punto. Una imagen con menos compresión retiene un aspecto definido. En lugar de usar compresión, algunas cámaras le permiten cambiar la resolución como una manera de controlar el tamaño de los archivos de la imagen. Debido a que usted puede almacenar más imágenes de 640 x 480 en un dispositivo de almacenamiento que imágenes de 1024 x 768, puede haber ocasiones en que será preferible cambiar a una resolución más baja y sacrificar la calidad por cantidad.

23