grado en Óptica y optometría - uvadoc.uva.esuvadoc.uva.es/bitstream/10324/19108/1/tfg-g...

22
FACULTAD DE CIENCIAS Grado en Óptica y Optometría MEMORIA TRABAJO FIN DE GRADO TITULADO El ojo y la cámara fotográfica. Semejanzas y diferencias. Presentado por Noelia Geijo Vegas Tutelado por: Ángel Máximo de Frutos Baraja Tipo de TFG: Revisión Investigación En Valladolid a, 19 de Mayo de 2016.

Upload: leminh

Post on 06-Jul-2018

217 views

Category:

Documents


1 download

TRANSCRIPT

FACULTAD DE CIENCIAS

Grado en Óptica y Optometría MEMORIA TRABAJO FIN DE GRADO TITULADO

El ojo y la cámara fotográfica. Semejanzas y

diferencias.

Presentado por Noelia Geijo Vegas

Tutelado por: Ángel Máximo de Frutos Baraja

Tipo de TFG: Revisión Investigación

En Valladolid a, 19 de Mayo de 2016.

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

2

ÍNDICE

INTRODUCCIÓN ............................................................................................................ 3

CAPÍTULO 1 Sistema de formación de la imagen ......................................................... 7

1.1. Diafragma .............................................................................................................. 7

1.2 Obturador ................................................................................................................ 8

1.3 Sistema de enfoque ................................................................................................ 8

1.4 Campo visual ...................................................................................................... 10

1.5 Aberraciones ....................................................................................................... 11

1.5.1. Aberraciones de punto ........................................................................... 11

1.5.2. Aberraciones de forma .......................................................................... 12

1.5.3. Aberraciones cromáticas ....................................................................... 12

1.6 Lentes necesarias para formar la imagen ....................................................... 13

CAPÍTULO 2 Sistema de detección de la imagen ....................................................... 17

2.1.Sensibilidad a la luz ............................................................................................... 17

2.2 Resolución de imagen .......................................................................................... 18

2.1.Sensibilidad al color .............................................................................................. 19

CONCLUSIONES ........................................................................................................ 21

BIBLIOGRAFÍA ........................................................................................................... 22

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

3

Introducción

Desde los inicios de la historia, el hombre ha querido reproducir de una forma fidedigna lo que percibe a través de sus ojos.

Comenzó realizando dibujos, pinturas, grabados, esculturas… Pero la forma más fácil y sobre todo, que mejor reproduce la realidad es la fotografía.

Aunque a día de hoy todos tengamos acceso a una cámara fotográfica en nuestro teléfono móvil no debemos olvidar que no hace mucho no era de esta manera.

La cámara fotográfica se inventó a partir de los conocimientos descritos por Leonardo da Vinci (Vinci, 1452 – Amboise, 1519) sobre la cámara oscura o cámara estenopeica.

Se atribuye el invento de la fotografía a Joseph-Nicephore Niepce (Borgoña, 1765 - Saint Loup de Varennes, 1833), quien consigue las primeras imágenes negativas en 1816 mediante papel tratado con cloruro de plata.

No fue hasta 1827 cuando

consiguió realizar la primera imagen positiva de la vista del patio de su casa, titulada “Vista desde la ventana en Le Gras” considerada la primera fotografía de la historia. 1

Para conseguir esta imagen se

utilizó una cámara oscura, una placa de peltre recubierta con betún, y 8 horas de exposición.

Más tarde, Louis Jacques Monde Daguerre (Cormeilles-en-Parisis 1787 - Bry-sur-Marne 1851) consigue reducir los tiempos de exposición de las imágenes y realiza avances en el revelado.

Su proceso para obtener fotografías era mediante una superficie de plata pulida, y lo denominó daguerrotipo. Consiguió producir imágenes positivas directas con tiempos de exposición entre 15 y 30 minutos.2

. William Henry Fox Talbot (Dorset 1800 - Wiltshire 1877) obtenía

negativos sobre un soporte de papel revestido con una emulsión sensible a la luz, y a partir del contacto de estos con hojas de papel revestido reproducía copias. A este procedimiento se le llamó calotipo. 2

Desde entonces, se realizaron mejoras en el diseño y tamaño de la

cámara oscura, también en las lentes ópticas u objetivos utilizados.

Imagen 1: Fotografía “Vista

desde la ventana en Le Gras” 1

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

4

Más tarde, en 1880, se desarrollaron las placas secas al gelatino-bromuro. Éstas se compraban ya sensibilizadas, se cargaban en el chasis de la cámara y podían ser expuestas en la cámara.

Es en 1884 cuando George Eastman (Nueva York 1854 - Nueva York 1932) pone en venta la primera película en rollo sobre papel y en 1888 la primera cámara Kodak.1

A partir de este momento la fotografía pasó a estar al alcance de millones de personas.

Después de poco más de un siglo aparece la primera cámara digital, en

1990, y con ella la creación instantánea de imágenes. Desde la invención de la primera cámara fotográfica hasta las cámaras

actuales se han sucedido las mejoras en el diseño de estas máquinas, sin embargo, el proceso de formación de la imagen no ha variado; todas han tenido una lente a través de la cual la luz pasa al interior de la cámara y ésta forma la imagen en una película o sensor fotosensible.

De una forma parecida ocurre en el ojo humano: la luz entra en el ojo a

través de la córnea, después atraviesa el cristalino, y ambos focalizan la imagen en la retina, nuestra película fotosensible.

Sin embargo, no todo son similitudes entre la cámara fotográfica y el ojo

humano, también existen multitud de diferencias. Justificación del trabajo Con este trabajo se pretende plantear que el modo de funcionamiento

del ojo humano ha sido la base fundamental del desarrollo de nuevas tecnologías.

Además, el estudio del sistema visual de otros animales, como en el caso del camarón mantis y sus 16 tipos distintos de fotorreceptores y capacidad de percibir la luz ultravioleta3, son el punto de partida para realizar mejoras en los medios audiovisuales

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

5

Proceso de formación de la imagen del ojo humano

Este proceso se subdivide en tres etapas: la óptica, la fotorrecepción y el

procesado neural de la imagen.

- Óptica: Permite la formación de una imagen en la retina. Está formada básicamente por cuatro superficies, dos forman parte de la

córnea y dos del cristalino. Además podemos incluir el iris, situado entre la córnea y el cristalino, que regula la cantidad de luz que llega a la retina.

- Fotorrecepción: Registra la imagen en la pantalla fisiológica.

La luz llega a la retina, que contiene dos tipos de fotorreceptores: conos y bastones. Cuando estos reciben el estímulo luminoso adecuado se excitan y transmiten señales a través de sucesivas neuronas de la retina:

Las células horizontales transmiten señales horizontalmente en la capa

plexiforme externa, desde los conos y bastones hasta las células bipolares. Las células bipolares conectan las terminaciones sinápticas de los

fotorreceptores y transmiten la señal a las células ganglionares. En la retina existen 9 tipos de estas células, 8 de estos corresponden a los conos, y solo uno a los bastones.

Las células amacrinas transmiten las señales en dos direcciones, desde

las células bipolares a las ganglionares o bien horizontalmente entre los axones de las células bipolares, las dendritas de las ganglionares y otras amacrinas o entre éstas últimas.

Las células ganglionares transmiten la señal de salida por el nervio óptico hasta el cerebro, donde se integra la información luminosa. Existen dos tipos: enanas y difusas.

Existen también las células interplexiformes que transmiten señales

inhibitorias de forma retrógrada, controlando la diseminación lateral de señales visuales por las células horizontales. 4

- Procesado neural: Permite interpretar la imagen.

Los axones de las células ganglionares forman el nervio óptico, que atraviesa el quiasma y se convierte en la cintilla óptica. Las fibras realizan sinapsis en el cuerpo geniculado lateral, que forma parte del tálamo óptico. En el cuerpo geniculado, las fibras establecen conexión sináptica con las células del fascículo geniculocalcarino. Éste se dirige al lóbulo occipital de la corteza cerebral, en particular a la zona receptora visual primaria, el área 17 de Brodmann. Las ramas de los axones de las células ganglionares pasan de la cintilla óptica a la región pretectal del mesencéfalo y a los colículos superiores, donde realizan conexiones sinápticas relacionadas con los reflejos visuales. Otros axones pasan del quiasma óptico a los núcleos supraquiasmáticos en el hipotálamo donde establecen conexiones relacionadas con los efectos de la luz en los ritmos endocrinos y circadianos. 4

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

6

Proceso de formación de la imagen de una cámara fotográfica digital

Como en el caso del ojo, este proceso también se subdivide en tres partes: Absorción y recepción de la luz, conversión de la luz en una imagen y almacenamiento de la imagen.

- Absorción y recepción del a luz: La luz pasa a través del objetivo y

llega hasta el sensor. La cantidad de luz que llega al sensor está regulada por el diafragma y el obturador. El diafragma funciona variando el diámetro de su abertura, dejando así

pasar más o menos luz. El obturador en cambio determina el tiempo que la luz atraviesa el

objetivo y llega al sensor.

- Conversión de la luz en una imagen: La luz genera una señal eléctrica en cada receptor. Esta señal se transforma en datos digitales por el conversor ADC (Analog-To-Digital Converter) y lo traduce a código binario. Estos números se representan en los denominados píxeles, y con todos

ellos se forma un mosaico que a su vez forma la imagen completa.

- Almacenamiento de la imagen: Esta información, ya traducida en código binario, se almacena en la tarjeta de memoria que insertamos en la cámara. Dependiendo de la resolución que tengan las imágenes que realice

nuestra cámara podremos almacenar más o menos fotografías. En el caso de tener fotografías de 24 megapixels y una tarjeta de

memoria de 2 gigabytes encontramos que podemos realizar hasta 227 fotografías.5

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

7

1. Sistema de formación de la imagen.

1.1 Diafragma

En el caso de la cámara fotográfica se sitúa entre dos de los elementos del objetivo.

Está formado por láminas delgadas metálicas en forma circular. Estas láminas se superponen variando así su apertura y regulando la cantidad de luz que llega al sensor.

De esta manera, cuanto más abierto esté el diafragma, mayor será la

cantidad de luz que dejará pasar y viceversa. La apertura del diafragma está descrita por unos números, llamados

números de apertura (f). Estos números se calculan a través de la distancia focal y el diámetro de

la abertura efectiva de la siguiente manera: Número de apertura (f) = Distancia focal / Diámetro de abertura efectiva Un número de apertura mayor equivale a un diafragma más cerrado, y

un número de apertura menor a un mayor paso de luz.

Además, cuanto más cerrado esté el diafragma, mayor será la profundidad de campo que consigamos en la fotografía, es decir, será mayor la zona entre el elemento más próximo que se encuentre nítido, y el más lejano.

La profundidad de campo depende de otros factores además del

diafragma, como son el tamaño de la célula elemental de información, la distancia focal y la distancia de enfoque.

En el caso del ojo, esta función la realiza el iris. Se trata de un disco perforado que limita anteriormente con la cámara

anterior, y posteriormente con el cristalino, delimitando con este la cámara posterior.

La parte central de este por donde pasa la luz se denomina pupila. La pupila puede variar su tamaño. Con una baja iluminación puede

dilatarse hasta los 8 mm, y si la iluminación aumenta la pupila se constriñe progresivamente hasta alcanzar los 2 mm.

Además de para regular la cantidad de luz, la pupila también cambia de tamaño en el proceso de convergencia y acomodación y está relacionado con las emociones.

La miosis depende del músculo esfínter del iris, de estructura circular e

inervado por el sistema parasimpático. La midriasis en cambio depende del músculo dilatador del iris, de

estructura radial e inervado por el sistema simpático. Teniendo en cuenta los diámetros pupilares y tomando una distancia

focal de 24 mm como equivalente a la distancia focal del ojo, como se explicará

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

8

en el apartado 2.4, obtenemos que el diafragma más cerrado que puede conseguir es de 12, y el diafragma más abierto de 3.

Muchos de los objetivos actuales pueden conseguir un número de apertura de 1,4, y como diafragma más cerrado solemos encontrar un número de apertura 22 aunque varía hasta 45 dependiendo de la distancia focal.

1.2 Obturador

En las cámaras fotográficas existe un elemento llamado obturador, que

regula el tiempo que la luz entra en la cámara. Está formado por unas cortinas de láminas de aluminio, titanio o plástico

recubierto de metal. Estas cortinas se mueven mediante muelles, frenados por pasadores

metálicos y activados mediante electroimanes. Cuando la corriente llega al electroimán, este retira el pasador del muelle y desplaza las cortinas exponiendo el sensor a la luz que proviene del objetivo de la cámara.

Un contador eléctrico agrega los pulsos de un oscilador, y cuando estos llegan a un número determinado, los correspondientes a la velocidad de obturación elegida para esa fotografía, el procesador envía una corriente eléctrica al electroimán asociado a una segunda cortina y despliega sus láminas tapando el sensor.

Para tiempos de obturación menores de un segundo el sensor no queda expuesto completamente, sino que mientras que la primera cortina se abre, la segunda se cierra, dejando así una ranura a través de la cual pasa la luz. 6

Estos tiempos suelen variar entre 1/4000 segundos y 30 segundos. En el caso del ojo no existe ningún elemento que funcione como

obturador, la luz entra de forma contínua en el ojo. El elemento que controla el tiempo de formación de imagen en el ojo no se trata de un elemento físico, sino de un proceso bioquímico, y se trata del tiempo de reacción de los fotorreceptores. Este tiempo es mayor en los bastones que en los conos, y puede darnos información a cerca de los cambios de luminancia cada 100-200 ms.7

1.3 Sistema de enfoque

Para conseguir enfocar la imagen las cámaras digitales utilizan el

método de enfoque pasivo. Mediante este método, la luz que atraviesa el objetivo es desviada

mediante un prisma hacia un sensor en la parte trasera de la cámara. La luz cae en una banda de entre 100 y 200 fotocélulas que está colocada de manera que la distancia recorrida por la luz hasta llegar a esta banda es igual a la distancia que recorre la luz hasta formar la imagen en el sensor.

Mediante un procesador se compara la intensidad de luz que llega a cada fotocélula con las adyacentes, sabiendo que si la imagen está desenfocada los pixeles adyacentes tendrán intensidades similares.

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

9

Entonces el procesador mueve la lente y vuelve a comparar las intensidades, y a medida que la imagen comienza a estar más enfocada aumenta el contraste entre las fotocélulas adyacentes.

Cuando calcula que este contraste es el máximo determina que la imagen está enfocada.8

Este tipo de enfoque es bastante preciso cuando fotografiamos escenas

bien iluminadas u objetos con líneas marcadas. Sin embargo, en situaciones de poca luminosidad o por el contrario, de

demasiado brillo, o en el caso de fotografiar objetos lisos y sin textura, este sistema no conseguirá enfocar, y moverá continuamente la lente hacia delante y hacia atrás buscando la zona de mayor contraste.

Otro modo de enfoque menos utilizado en las cámaras digitales es el

método de triangulación activa. Mediante este método se envía una señal a un transductor y éste crea

una descarga infrarroja que dirige hacia el objeto que queremos fotografiar. Cuando esta luz rebota en el objeto entra por una ventana de la cámara fotográfica y mediante un enmascaramiento se evita que la luz llegue a una banda sensible a la luz.

Esta máscara está unida al mecanismo de enfoque de la lente, y cuando el motor gira la lente, la máscara se mueve dejando que la luz llegue a la banda fotosensible.

Cuando llega la luz, la banda genera una corriente eléctrica que proporciona energía a un electroimán, que detiene el movimiento de la lente.8

Este método funciona mejor en oscuridad o escenas con luz tenue, sin

embargo es menos precisa en cuanto a las distancias. En cambio el método de enfoque del ojo es muy distinto. Utiliza un

proceso denominado acomodación. Se trata del proceso por el cual el ojo varía su poder refractivo mediante

la contracción de los músculos ciliares, lo que hace aumentar el poder refractivo del cristalino.

Este proceso permite que la imagen de un objeto situado a una distancia próxima se enfoque correctamente en la fóvea. También interviene en el enfoque de imágenes a distancias lejanas.

Se han sucedido las teorías acerca de este proceso, sin embargo la

teoría propuesta por Hemholtz en 1855 es la más aceptada. Según esta teoría, en visión lejana el músculo ciliar se encuentra

relajado, y las fibras que sostienen el cristalino, las fibras de la zónula de Zinn, están en su posición más delgada.

En visión cercana el músculo ciliar se contrae y las fibras zonulares se relajan. Así el cristalino adquiere una forma más esférica, aumentando la curvatura de sus caras anterior y posterior.

En esta posición el cristalino aumenta su espesor central (diámetro sagital) y disminuye su diámetro ecuatorial.

Este proceso tiene distintas fases:

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

10

1. El músculo ciliar se desplaza hacia dentro y hacia delante. 2. El borde interno del iris y la cara anterior del cristalino se desplazan

hacia delante alrededor de 0,3 mm. De esta manera la profundidad de la cámara anterior disminuye en su parte central y aumenta en la periferia.

3. También contribuye al aumento de la cámara anterior en la periferia el hecho de que el cristalino, en su parte periférica se aplana tanto en sus superficies anteriores como posteriores.

4. El cristalino cambia su curvatura, disminuye su radio de 11 a 5,5 mm aproximadamente en su cara anterior para una acomodación de 9D.

5. La cara posterior del cristalino disminuye su radio en menor medida, de 5,2 a 5 mm para una acomodación de 9D. También se desplaza 0,15 mm hacia delante.

6. Al cambiar sus curvaturas, el cristalino sufre un aumento de espesor en su parte más central de 0.36mm a 0.58mm adquiriendo una geometría más esférica.

7. Sin embargo, el diámetro ecuatorial disminuye en 0,4mm. 8. El índice de refracción efectivo del cristalino varía ligeramente,

pasando de 1,421 a 1,426 para una acomodación de 7D. 9. También se reduce su aberración esférica. 10. Cuando la acomodación es máxima, las fibras de las zónulas anterior

y posterior se encuentran totalmente relajadas. 11. Se produce un desplazamiento inferior del cristalino de 0,3mm por

efecto de la gravedad. 12. Debido a la inervación común del músculo ciliar y el constrictor del

iris por el III par craneal, el díametro pupilar disminuye. 9

1.4 Campo visual El campo visual se define como la porción del espacio que el ojo es

capaz de percibir con la mirada fija en un punto. En el caso de una cámara fotográfica se refiere al espacio real que

podemos plasmar en la fotografía. Este aspecto va ligado a la distancia focal del objetivo que utilicemos.

Existen tres tipos de lentes refiriéndonos a este aspecto: - La lente normal: Se refiere a las lentes de distancia focal entre 50 y

55 mm. Esto se debe a una regla que define que la distancia focal de una lente normal es similar a la distancia en diagonal de la imagen grabada sobre el sensor. El ángulo visual diagonal que capta una lente de distancia focal 50 mm es de 46.8º.

- Teleobjetivo: Tiene una distancia focal mayor que la diagonal del

sensor de imagen y una distancia focal mayor de 50 mm.

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

11

Con este tipo de lente el espacio que captamos es menor que el del ojo humano, reduciéndose a menos de 46º hasta menos de 2º en el caso de una focal de 1200 mm.

- Gran angular: Tiene una distancia focal menor que el tamaño de la

diagonal del sensor. Se considera gran angular a cualquier lente con una distancia focal menor a 35 mm. Con este tipo de objetivos podemos captar más campo y por tanto obtenemos un mayor ángulo visual. Este varía desde 63.4º en el caso de una distancia focal de 35 mm hasta más de los 180º en el caso de una focal de 7,5 mm.

Existen objetivos como Exot de Nikon, capaces de conseguir un ángulo

de visión de 220º mediante una distancia focal de 6 mm. Esta lente llega a captar la parte del espacio que se sitúa detrás de la cámara.

Los objetivos que abarcan un ángulo de visión próxima o mayor de 180º

se denominan “ojo de pez”. Sin embargo al utilizar lentes gran angular, encontramos que para

conseguir estos ángulos visuales, es necesario crear una distorsión en la imagen.

Esta distorsión de lente se denomina distorsión de barril, debido a su forma.

La imagen que se consigue es convexa y a veces hasta circular, dejando un viñeteado en las esquinas de la imagen.

En el caso del ojo humano encontramos que puede conseguir un campo

visual monocular de 60 grados para el meridiano superior, 75 grados para el inferior, 60 grados para el nasal y 100 grados para el temporal.

Sin embargo, sólo se considera campo central a los 30 grados centrales, y sólo tenemos una visión binocular, y por lo tanto estereoscópica, en los 150º centrales.

Si calculamos una aproximación a la distancia focal equivalente del ojo

podemos realizarla de dos formas: - Calculando la distancia focal real del ojo, según Le Grand de 24,20

mm. 10

- Equiparando el ángulo de visión del ojo humano con el que consigue un objetivo fotográfico: de esta manera tomaríamos como ángulo de visión 30º, ya que son los relativos al campo visual central. De esta manera el ojo humano tendría una distancia focal de aproximadamente 85 mm

1.5 Aberraciones

Las lentes fotográficas tienen varios tipos de aberraciones: 1.5.1 Aberraciones de punto:

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

12

- La aberración esférica: Los rayos paralelos al eje óptico se concentran en el foco, pero este es diferente para los rayos paraxiales y los rayos marginales. En el caso de un objetivo fotográfico, esta aberración disminuye a medida que utilicemos un diafragma más cerrado, es decir, un número de apertura mayor y por consiguiente, una mayor profundidad de campo.

- Coma: Se forma debido a la dependencia del aumento lateral con la excentricidad del rayo, por lo que los rayos que entran a distinta altura focalizan en distintos puntos del plano imagen. La imagen que se forma de un punto es similar a un cometa.

- Astigmatismo: La imagen de un punto no es otro punto, sino dos rectas perpendiculares entre sí en distinto plano. Se forma debido a que para puntos fuera de eje no existe simetría. Se puede corregir combinando lentes esféricas y cilíndricas. 11

1.5.2 Aberraciones de forma:

- Curvatura de campo: Aparece cuando la imagen de un objeto situado

en un plano normal al eje óptico se forma en una superficie curva. La imagen formada en una pantalla plana estará enfocada sólo en su centro.

- Distorsión: Se debe a que el aumento lateral del sistema depende de la distancia comprendida entre el objeto y el eje óptico, por lo que no se mantiene la semejanza entre el objeto y la imagen. Los rayos oblicuos sufren alteraciones en la dirección después de refractarse en la lente, sus partes periféricas se forman demasiado cerca o lejos del eje. 11

1.5.3 Aberraciones cromáticas: El poder de refracción de la lente varía dependiendo de la longitud de

onda de la luz, y en consecuencia, de su color. Cada color es enfocado a una distancia distinta y no existe un punto

focal preciso. Debido a la dispersión se forma la aberración cromática. Esta aberración

puede corregirse combinando adecuadamente una lente convergente y otra divergente de distinto índice.

En el caso de las aberraciones monocromáticas oculares, estas han sido

cuantificadas mediante la aproximación de Seidel, definida para sistemas rotacionalmente simétricos; pero el ojo no lo es totalmente.

Más tarde se utilizaron los polinomios de Taylor, y actualmente se utilizan los polinomios de Zernike; este último utiliza polinomios en coordenadas polares.

En el polinomio de Zernike, las aberraciones monocromáticas se dividen en aberraciones de bajo orden, y de alto orden.

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

13

Los coeficientes de bajo orden se refieren a errores de refracción. Los coeficientes de primer orden representan un prisma; los de segundo representan el desenfoque.

Los de alto orden se refieren a la aberración esférica, relacionada con diámetro pupilar y responsable de que aparezcan halos en las imágenes, y el coma, que produce imágenes dobles.

Además de estas, se debe tener en cuenta la difracción, la difusión y la aberración cromática.

Encontramos que para pupilas pequeñas la calidad de imagen depende

de la difracción, mientras que para pupilas grandes depende de las aberraciones.

Para conseguir la mejor calidad óptica en la imagen el tamaño de pupila se estima en 3 mm, aunque depende de las aberraciones de cada ojo. 12

1.6 Lentes necesarias para formar la imagen

Si hablamos del ojo, sabemos que realiza la formación de imagen

gracias a únicamente dos lentes: la córnea y el cristalino. La córnea aporta las dos terceras partes de la potencia del ojo mediante

sus aproximadas 46 dioptrías. Se trata de una lente cóncavo-convexa de alrededor de 0.5mm de

espesor en su parte central. En cuanto al cristalino se trata de una lente biconvexa que mediante la

propiedad de variar su curvatura consigue enfocar objetos a distintas distancias.

En el caso de un objetivo fotográfico, el número de lentes que contenga

está en estrecha relación con su calidad. En los comienzos de la fotografía se utilizaba una lente simple para

formar las imágenes, pero la calidad de estas sufría multitud de aberraciones, consiguiendo una imagen de baja calidad.

Para conseguir disminuir las aberraciones se comenzaron a fabricar lentes compuestas:

- Lente de Petzval (1840): Utilizada para fotografía de retrato. Estaba compuesta por dos dobletes acromáticos diferentes y separados. Conseguía una abertura de f3,7. Las imágenes tomadas con esta lente tenían aberraciones residuales, sobre todo astigmatismo que producían una definición en los bordes muy pobre.

- Dobletes simétricos, lente Periskop de Steinheil (1865): Consistía en

dos meniscos simétricos respecto a una abertura central. Una construcción simétrica permite disminuir ampliamente las aberraciones de distorsión y coma.

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

14

- Lentes anastigmáticas: Abbe y Schott consiguieron a partir de 1880

crear las primeras lentes anastigmáticas mediante una construción simétrica y utilizando combinaciones de distintos tipos de vidrio encolados. Las primeras muestras de estas son Ross Concentric (1888), Zeiss Protar (1890) y Georz Dagor (1892), que conseguían una abertura máxima de alrededor de f6,8.

- Tripletes: En 1893 se crea el Cooke Triplet diseñado por H. Dennis Taylor. Estaba formada por tres elementos, dos eran lentes convexas de vidrio crown, con un alto índice de refracción y una baja dispersión. El otro elemento se trataba de una lente bicóncava de vidrio flint, cuya función era aplanar el campo. Tenía una abertura original de f4,5 que ha sido aumentada hasta f2,8.

- Lentes Double Gauss: Este doblete estaba espaciado por aire y utilizaba lentes de curvatura pronunciada. Con este diseño se intentaba conseguir una mayor abertura. Derivados de esta lente con 6 o 7 elementos consiguen aberturas útiles de f2. 13

Actualmente los objetivos están formados por multitud de lentes.

Si tomamos como referencia un objetivo zoom, necesitaremos hablar de al menos 30 elementos formadores de imagen.

Para una lente convencional de focal fija se utilizan modificaciones del triplete de Taylor.

Para comprobar la calidad de imagen que produce los objetivos se utiliza

la función de transferencia de modulación (MTF). Mediante una carta de cuadrículas de líneas blancas y negras de la

misma anchura, se comprueba la modulación, es decir, la reproductibilidad de contraste de la lente usando diferente frecuencia espacial.

Esta función suele darse para el diafragma más abierto que ese objetivo puede conseguir, ya que es la situación en la que menor nitidez y contraste conseguiremos, y en el caso de ser un objetivo zoom, se dará para la focal más teleobjetiva y para la más angular. 14

Se representa mediante una gráfica en la que el eje de abscisas muestra

en milímetros la distancia desde el centro de la imagen hasta sus bordes, evaluando un cuarto de objetivo.

En el eje de ordenadas se representa el contraste para distintas

frecuencias espaciales. El valor máximo de contraste es 1. Actualmente se considera como excelente cualquier valor por encima de

0.8, y como bueno cualquier valor por encima de 0.6.

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

15

Se suele representar las frecuencias espaciales de 10 líneas por milímetro y de 30 líneas por milímetro, ya que la primera nos dará idea del contraste general de la imagen, y la segunda de la capacidad de resolución.

También varía comparando el eje

meridional con el sagital debido al astigmatismo, por lo que se realiza el estudio a 45º y a 135º.

Los valores meridionales se representan mediante las líneas discontinuas, y los sagitales mediante las continuas.

Por lo tanto, un objetivo perfecto

tendría líneas completamente planas, ya que la calidad de contraste y resolución no disminuye a medida que nos alejamos del centro de la imagen.

Además esta línea se situaría en la parte superior de la gráfica, tomando valores de contraste por encima de 0.8.

Se debe tener en cuenta los milímetros de sensor de los que disponemos. La gráfica se realiza para cámaras con sensor de 35mm y por ello nos da valores hasta 22 mm (la mitad de la distancia de la diagonal de la imagen formada por un objetivo en un sensor de 35mm) desde el centro de la imagen, de los cuales sólo 15mm son útiles en una cámara con sensor APS-C (sensor de formato recortado).

Además las curvas MTF pueden realizarse para distintos canales RGB, teniendo así información sobre la representación del color.

La gráfica corresponde a la función de transferencia de modulación de

un objetivo Nikkor de focal 50 mm y abertura máxima de f1,8.

Está formado por 7 lentes de las cuales una es asférica (la indicada en color azul).

Para realizar la medición de la calidad de imagen ocular se utiliza

también la función de transferencia de modulación (MTF). Se realiza mediante la técnica de doble paso, que consiste en proyectar

una fuente puntual láser en la retina y captar la imagen reflejada mediante una

Gráfica 1: MTF del objetivo

Nikkor 50 mm 1,8. 15

Figura 2: Construcción

del objetivo Nikkor 50

mm 1,8 15

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

16

cámara CCD colocada en un plano conjugado. Esta imagen tiene doble degradación por los medios oculares.

También puede realizarse de forma policromática mediante el refractómetro de resolución espacial (SRR). 12

La técnica Shack-Hartmann (SH) proyecta una fuente puntual en la

retina y se muestrea a la salida el frente de onda. Mediante un sistema de microlentes se estima la aberración de onda en función de la posición en la pupila. 12

En el gráfico se muestra como ejemplo la MTF monocromática y policromática (entre 450 y 650 nm) de un sujeto normal de mediana edad.

Gráfico 2: MTF monocromática y policromática de

un sujeto normal de mediana edad. 12

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

17

Gráfico 3: Curva de

adaptación a la oscuridad 16

2. Sistema de detección de la imagen

2.1 Sensibilidad a la luz

Todas las cámaras actuales nos permiten variar un elemento, llamado

sensibilidad ISO. Mediante este elemento podemos modificar la sensibilidad del

sensor a la luz.

El hecho de poder modificar este elemento aparece tras la invención de

los sensores digitales.

En las cámaras fotográficas analógicas este aspecto iba ligado al tipo de

película fotosensible que eligiéramos, y era el tamaño de los cristales de

haluros de plata que formaban la película y el procesado de la imagen lo que

nos determinaba la sensibilidad.

Para variar la sensibilidad ISO la cámara amplifica la señal que reciben

los fotodiodos del sensor. Así la cámara podrá realizar fotografías en ambientes

más oscuros ya que será más sensible a la luz que hay en estos.

Pero aumentar la sensibilidad ISO conlleva aumentar el ruido que se

aprecia en la imagen. Como consecuencia del proceso de amplificación de la

señal se crean unas pequeñas manchas oscuras en la imagen, que aparecerán

en mayor medida cuanto mayor sea la sensibilidad ISO.

El ruido se manifestará de forma más evidente en las zonas oscuras de

la fotografía.

También es más apreciable en el canal de color azul.

El ojo a su vez, tiene una

sensibilidad variable gracias al

proceso de adaptación a la luz

y a la oscuridad.

Al pasar de un lugar

iluminado a uno oscuro el ojo

humano sufre los siguientes

cambios:

1. La pupila se dilata en el

proceso de midriasis

hasta dejar pasar

aproximadamente 16 veces más de

luz que en miosis.

2. Los ojos adaptados a la oscuridad aumentan su concentración de

rodopsina.

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

18

3. Procesos neuronales a nivel de la corteza cerebral magnifican la

información.

El tiempo de adaptación a la oscuridad de los bastones es de 35 minutos,

tiempo que necesita la rodopsina para regenerarse totalmente.

La máxima sensibilidad en la oscuridad de los conos se produce a los 8

minutos, tiempo igual al de recuperación de los pigmentos de los conos. 16

La sensibilidad en un ambiente escotópico es 107 veces mayor que en uno

fotópico. 16

Para valorar el estado de adaptación necesitamos plantear la experiencia

de Mathey, 1945:

Se debe realizar una preadaptación a la oscuridad de 30 minutos.

Posteriormente se hace una adaptación de 10 minutos a un campo uniforme

de 100 cd/m2 de luz blanca.

Tras esto se determina el umbral con un test de 10º con un punto rojo de

fijación a 10º del centro del test.

Después el paciente permanece en la oscuridad y se determina el

umbral a intervalos de un minuto en función del tiempo de adaptación a la

oscuridad. 17

Al pasar de la luz a la oscuridad se describe otro proceso denominado

Efecto de Purkinje. Los bastones son más sensibles a las longitudes de onda

corta (mayores de 500 nm), mientras que los conos tienen su máxima

sensibilidad en valores de longitud de onda media (mayores de 560 nm), por lo

que “conforme disminuye la intensidad luminosa, los colores cuya longitud de

onda es más corta, dejan de percibirse más tarde que los colores de longitud

de onda más larga” según lo descrito por Johann Purkinje en 1825. 18

3.2 Resolución de imagen:

La resolución de una imagen nos permite apreciar los detalles que se

encuentran en esta.

En términos de fotografía digital se utilizan los pixeles (acrónimo del

inglés picture element) como unidad de medida.

Cada pixel corresponde a la unidad mínima de la imagen que

permanece homogénea. Así, cuantos más pixeles tengamos en una imagen,

podremos percibir los detalles con mayor precisión.

Las cámaras digitales utilizan sensores CCD (Charge-Coupled Device)

que registran el nivel de brillo que llega a cada pixel y está cubierto por un filtro

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

19

de color, denominado mosaico de Bayer, compuesto por los colores rojo, verde

y azul.

Se llaman elementos sensores de

luminosidad a los verdes, mientras que a

los rojos y azules se les llama elementos

sensores del color.

Posee un 50% de filtros verdes,

25% de filtros rojos y 25% de filtros azules.

El porcentaje más elevado de filtros

verdes se debe a que el ojo humano es

más sensible a este color.

Mezclando dos muestras verdes,

una roja y una azul se obtiene un píxel de

color.

La mayoría de cámaras digitales de

calidad media actuales tienen una resolución de alrededor de 24 megapíxels,

es decir, 24 millones de píxels.

Sin embargo, se han conseguido crear cámaras de más de un gigapíxel,

es decir, mil millones de píxels.

Existe un prototipo de cámara de 1,6 gigapixels de resolución que

realiza imágenes en 3D. 19

El cálculo de la resolución de un ojo humano en cambio no resulta tan

sencillo:

La parte de la imagen formada a partir de las células foveales tiene una

mayor resolución que la formada a partir de la retina periférica.

Además nuestros ojos realizan diversos movimientos, y de esta manera

ampliamos el campo de visión.

Por lo tanto, el cálculo de la resolución total del ojo humano es una

cuestión de mayor dificultad que se encuentra más allá de los aspectos a tratar

en este trabajo.

3.4 Sensibilidad al color

Para poder percibir el color el ojo humano necesita los fotorreceptores

de tipo cono. Los conos están especializados en visión diurna y se encuentran

agrupados en la fóvea.

Su transmisión con las células bipolares es lineal, es decir, cada cono

sinapta con una célula bipolar distinta.

Figura 3: Mosaico de

Bayer. (Imagen de

www.digitalfotored.com)

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

20

Además la respuesta eléctrica que se genera tras la absorción de un

fotón es la misma sea cual sea su longitud de onda, sin embargo los conos

responden de manera preferente a longitudes de onda determinadas.

Para que sea posible captar el color se necesitan al menos dos tipos de

fotorreceptores con sensibilidades espectrales distintas, pero la visión humana

utiliza tres tipos para poder representar las propiedades espectrales de las

superficies.

La idea de que la visión del color del ser humano depende de tres

mecanismos con amplias sensibilidades espectrales, cada uno con mayor

capacidad de respuesta a una parte del espectro fue propuesta a principios del

siglo XIX por Thomas Young. 20

Estos tres mecanismos son tres tipos diferentes de conos: los conos S,

sensibles principalmente a las longitudes de onda corta (con sensibilidad

máxima a la longitud de onda de 420 nm), los conos M, sensibles a las

longitudes de onda medias (y sensibilidad máxima en 530 nm), y los conos L,

sensibles a las longitudes de onda largas (y sensibilidad máxima en 560 nm).

Los tres tipos de conos no se encuentran en la misma proporción, el

número de conos S es inferior al 10% del total debido a la aberración cromática

del ojo: No podemos conseguir una imagen nítida de todas las longitudes de

onda, por lo que optamos por mantener una imagen borrosa de las longitudes

de onda corta. 20

Para crear una imagen en color a través de una cámara fotográfica se

han utilizado varios métodos:

- Métodos sustractivos: En 1930 se tomaban tres fotografías distintas,

cada una en un negativo de blanco y negro pancromático a través de

un filtro azul, verde y rojo. Superponiendo los tres negativos se

conseguía la imagen final en color.

Más tarde se crearon las películas en color multicapa. Tenían en su

parte superior una capa sensible al azul, seguida de capas sensibles al verde y

al rojo. Con una única exposición se registraban los tres colores necesarios

para formar una imagen en color.

Se crearon variaciones más complejas de estas películas que contenían

distintos acopladores de color y una capa antihalo.

- Métodos aditivos: Tenían una mezcla de miles de tonalidades

diferentes de los colores rojo, verde y azul en la base de la emulsión

formando un mosaico. La proporción de los colores era la misma

para los tres.21

Actualmente los sensores CCD utilizan el ya antes mencionado mosaico de

Bayer para poder captar el color.

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

21

CONCLUSIONES

Tras comparar los aspectos que se han considerado más importantes

para este trabajo encontramos que las similitudes entre estos dos sistemas

formadores de imagen residen únicamente en su capacidad para crear

imágenes a partir de luz, un sistema de lentes y una película fotorreceptora.

El ojo humano crea imágenes repletas de aberraciones y de una calidad muy inferior que las tomadas a través de una cámara fotográfica. Sin embargo, nuestro cerebro procesa estas imágenes y consigue que esta calidad aumente, y por consiguiente, que obtengamos imágenes de una calidad mucho mayor que la que puede crear cualquier cámara. En la siguiente tabla se recogen los aspectos citados en este trabajo a modo de resumen:

Ojo Cámara fotográfica

Diafragma Variable, f3 - 12 Variable, f1,4 - 22

Obturador 100-200 ms Variable, 1/4000 - 30 segundos

Sistema de enfoque Acomodación Enfoque pasivo

Aberraciones Múltiples aberraciones Sistema corregido

Lentes necesarias 2 Variable

Resolución 24 megapixels No aplicable

Sensibilidad a la luz Variable Variable

Sensibilidad al color Mosaico de Bayer Conos S, M y L

Geijo N. El ojo y la cámara fotográfica. Semejanzas y diferencias.

22

BIBLIOGRAFÍA

1. Monje L. Historia de la fotografía.

http://foto.difo.uah.es/curso/historia_de_la_fotografia.html (31 de Marzo de 2016).

2. Daly T. Historia. En: Daly T. Manual completo de Fotografía; Barcelona: Blume; 2005:

Pag. 134-173.

3. Bok MJ, Porter ML,Place AR, Cronin TW. Biological Sunscreens Tune Polychromatic

Ultraviolet Vision in Mantis Shrimp. Current Biology. 2014;24;1636-1642.

4. Artigas JM, Capilla P, Felipe A, Pujol J. El proceso visual. En: Artigas JM, Capilla P,

Felipe A, Pujol J. Óptica fisiológica. Psicofísica de la visión; Madrid: McGraw-Hill-

Interamericana de España; 1995: Pag. 1-39.

5. DeCamaras. ¿Cuántas fotos caben en una tarjeta de memoria?.

http://www.decamaras.com/CMS/content/view/101/40-Cuantas-fotos-caben-en-una-

tarjeta-de-memoria (2 de Abril de 2016).

6. White R. Cómo capturan la luz las cámaras digitales. En: White R; Cómo funcionan las

cámaras digitales; Madrid: Ediciones Anaya Multimedia; 2006: Pag.64-85

7. Korenbrot JI. Speed, sensitivity, and stability of the light response in rod and cone

photoreceptors, Facts and models. Progress in Retinal and Eye Research. 2012; 31:

442-466.

8. White R. Cómo funciona una lente. En: White R. Cómo funcionan las cámaras digitales;

Madrid: Ediciones Anaya Multimedia; 2006: Pag.18-35.

9. Martín R, Vecilla G. Acomodación. En: Martín R, Vecilla G. Manual de Optometría;

Madrid: Editorial Médica Panamericana; 2010: Pag 77-91.

10. Le Grand Y. La óptica del ojo. En: Le Grand Y. Óptica fisiológica; Madrid: Sociedad

Española de Optometría; Tomo 1: La dióptrica del ojo y su compesación; Pag: 64-82.

11. Walls HJ, Attridge GG. Cómo se forma una imagen óptica. En: La fotografía. Sus

fundamentos científicos; Barcelona: Ediciones Omega; Pag 10-59.

12. Marcos S. Calidad óptica del ojo.

http://www.vision.csic.es/Publications/Reviews/Calidad%20de%20Imagen%20Retiniana

.pdf (1 de Mayo de 2016)

13. Jacobson RE. El objetivo de la cámara. En: Jacobson RE. Manual de fotografía;

Barcelona: Ediciones Omega;1993: Pag 113-127.

14. Langford M. La elección de los objetivos. En: Langford M. Tratado de Fotografía;

Barcelona: Ediciones Omega; 1999: Pag 15-37.

15. Nikon. AF-S Nikkor 50 mm f/1,8 G.

http://imaging.nikon.com/lineup/lens/singlefocal/normal/af-s_50mmf_18g/index.htm (31

de Abril de 2016)

16. Martínez R. El poder del ojo adaptado a la oscuridad.

http://www.cgcoo.es/download.asp?file=media/gaceta/gaceta403/Cientifico_2.pdf. (27

de Abril de 2016)

17. Artigas JM, Capilla P, Felipe A, Pujol J. Umbrales de luminancia. En: Artigas JM,

Capilla P, Felipe A, Pujol J. Óptica fisiológica. Psicofísica de la visión; Madrid :

McGraw-Hill-Interamericana de España; 1995: Pag. 111-130.

18. Artigas JM, Capilla P, Felipe A, Pujol J. Sensibilidad espectral del sistema visual. En:

Artigas JM, Capilla P, Felipe A, Pujol J. Óptica fisiológica. Psicofísica de la visión;

Madrid : McGraw-Hill-Interamericana de España; 1995: Pag. 71-92.

19. Wang J, Liang X, Matsushita Y, Chen M, Huang B. Gigapixel 3D

Camera.http://www.andrew.cmu.edu/user/jianwan2/Gigapxl3DCamera_TechReport.pdf

(28 de Abril de 2016)

20. Lennie P. Visión del color. En: ER, Schwartz JH, Jessel TM; Principios de

Neurociencia; Madrid: McGraw-Hill/Interamericana de España; 2001: Pag. 572-590.

21. Langford M. Comportamiento de los materiales fotográficos. En: Langford M. Tratado de Fotografía; Barcelona: Ediciones Omega: 1999: Pag 86-108.