(Fotografía 3)
En 1864, B.J.Sayce y W.B.Bolton introdujeron por primera vez el bromuro de plata en la emulsión coloidal -luego reemplazada por gelatina, proceso que se generalizó y se utilizó hasta elsurgimiento de la fotografía digital-. Muchas disciplinas científicas se fueron beneficiando rápidamente de esta nueva técnica.
En 1864, B.J.Sayce y W.B.Bolton introdujeron por primera vez el bromuro de plata en la emulsión coloidal -luego reemplazada por gelatina, proceso que se generalizó y se utilizó hasta elsurgimiento de la fotografía digital-. Muchas disciplinas científicas se fueron beneficiando rápidamente de esta nueva técnica.
Con la creación de negativos, y mediante procesos químicos, un original (el negativo) permitía hacer una cantidad ilimitada de copias (positivos). Este principio -muy parecido al de la imprenta- iba a dar origen, a la técnica híbrida del fotograbado, inventado por el alemán Klietsch en 1875, que evolucionó hasta el “offset” moderno, un tipo de fotograbado aplicado en máquinas rotativas de imprenta. Los diarios no tardaron, así, en adoptar el proceso y en incluir fotografías en sus páginas.
Pero en la década de 1960 iba a producirse una revolución: la de la fotografía digital. En 1969, los laboratorios Bell (AT&T) crearon y demostraron por primera vez el potencial de un sistema electrónico de captación de los fotones que llegan a través del lente, sistema llamado “dispositivo de detección por acoplamiento de carga” o “CCD” (Charge Coupled Device). La tecnología electrónica y la programación de aplicaciones se unán para crear un nuevo “ambiente” fotográfico.
Los CCD son chips capaces de transformar la luz en señales eléctricas. Están constituidos de varias capas y divididos en “pozos” que corresponden a los pixeles (o “puntos” de color, igual que los conos en nuestra retina). Hacia el exterior hay microlentes y filtros de color, luego está el cableado electrónico y finalmente las células fotoeléctricas (o fotodiodos, que transforman la luz en electricidad), al fondo de cada “pozo”. Esta conformación reduce obviamente la cantidad de luz que llega a los fotodiodos, haciendo además que un poco de luz rebote en la zona de cableado y pierda el ángulo correcto para llegar a la parte inferior del “pozo”. En los modelos tradicionales, solo se aprovecha entre el 30 y el 80% de la luz, aunque desde el año 2009 se inició la fabricación de nuevos modelos, llamados “de iluminación trasera” (“back iluminated” o BI), que permiten captar la totalidad de la luz, y aparecen desde el 2012 en algunas cámaras, que se anuncian con una alta sensibilidad en situación de poca luz. (Ver Gráfico siguiente).
A mayor cantidad de pixeles por lado, mayor es la nitidez obtenida, aunque ésto depende también en gran parte de la calidad de la óptica (lente). Cada fotodiodo está conectado a dos polos encargados de medir el voltaje. Cuando un fotón pasa por el filtro de color, libera electrones en el sustrato de silicio. Una carga eléctrica aplicada a los polos reúne estos electrones, el sistema mide su cantidad y luego la anota en formato digital.
En 1974, la Oficina de Acceso y Tecnología Espacial (OSAT) auspició un programa para incrementar el tamaño de los CCD que entonces era solo de 100 x 100 pixeles. Los avances han permitido una calidad de imagen muchísimo mayor y que telescopios espaciales, como el Hubble, los utilicen en la recolección de información. En efecto, la sensibilidad de un CCD típico puede alcanzar hasta un 70% comparada con la sensibilidad típica de películas fotográficas que está en torno al 2%. Por esta razón la fotografía digital sustituyó rápidamente a la fotografía convencional en casi todos los campos de la astronomía y, también por la facilidad de efectuar correcciones mediante filtros, empezó a imponerse en la fotografía profesional (por ejemplo para la producción de catálogos).
Al CCD, cuyas señales eléctricas son ampliadas y digitalizadas fuera del sensor, ha sucedido el CMOS, que incorpora un amplificador de la señal eléctrica en cada fotocélula e incluso incluye comunmente el conversor digital en el propio chip. La desventaja es que entre los receptores de luz y la fuente lumínica se encuentra mucha electrónica que no es sensible a la luz. La primera solución a este problema vino por una mayor densidad de integración (mayor cantidad de diodos en una misma superficie) y por la aplicación de microlentes que a modo de lupa, para concentrar la luz de cada fotocelda.
La siguiente solución ha sido construir de otra forma los sensores, asegurando la captación de la luz sin atravesar la capa de cableado electrónico: es la llamada iluminación trasera (BI, ver Gráfico arriba). Omnivision ayudó a desarrollar el uso de sensores de iluminación trasera en 2007, pero hasta hace poco han sido demasiado caros para su producción masiva. Sony produjo en 2009 el Exmor R, uno de los primeros sensores BI de línea de producción, y la inclusión de sensores BI se consolidó a partir del 2010 al ser utilizados en teléfonos emblemáticos como el iPhone 4 de Apple y el HTC EVO 4G. Son estos sensores que aparecen ahora en las cámaras que anuncian una alta sensibilidad en situación de poca luz.
En 1974, la Oficina de Acceso y Tecnología Espacial (OSAT) auspició un programa para incrementar el tamaño de los CCD que entonces era solo de 100 x 100 pixeles. Los avances han permitido una calidad de imagen muchísimo mayor y que telescopios espaciales, como el Hubble, los utilicen en la recolección de información. En efecto, la sensibilidad de un CCD típico puede alcanzar hasta un 70% comparada con la sensibilidad típica de películas fotográficas que está en torno al 2%. Por esta razón la fotografía digital sustituyó rápidamente a la fotografía convencional en casi todos los campos de la astronomía y, también por la facilidad de efectuar correcciones mediante filtros, empezó a imponerse en la fotografía profesional (por ejemplo para la producción de catálogos).
Al CCD, cuyas señales eléctricas son ampliadas y digitalizadas fuera del sensor, ha sucedido el CMOS, que incorpora un amplificador de la señal eléctrica en cada fotocélula e incluso incluye comunmente el conversor digital en el propio chip. La desventaja es que entre los receptores de luz y la fuente lumínica se encuentra mucha electrónica que no es sensible a la luz. La primera solución a este problema vino por una mayor densidad de integración (mayor cantidad de diodos en una misma superficie) y por la aplicación de microlentes que a modo de lupa, para concentrar la luz de cada fotocelda.
La siguiente solución ha sido construir de otra forma los sensores, asegurando la captación de la luz sin atravesar la capa de cableado electrónico: es la llamada iluminación trasera (BI, ver Gráfico arriba). Omnivision ayudó a desarrollar el uso de sensores de iluminación trasera en 2007, pero hasta hace poco han sido demasiado caros para su producción masiva. Sony produjo en 2009 el Exmor R, uno de los primeros sensores BI de línea de producción, y la inclusión de sensores BI se consolidó a partir del 2010 al ser utilizados en teléfonos emblemáticos como el iPhone 4 de Apple y el HTC EVO 4G. Son estos sensores que aparecen ahora en las cámaras que anuncian una alta sensibilidad en situación de poca luz.
Las cámaras
De acuerdo a la Wikipedia “La primera cámara fotográfica digital verdadera que registraba imágenes en un archivo de computadora fue probablemente el modelo DS-1P de Fuji, en 1988, que grababa en una tarjeta de memoria interna de 16 MB y utilizaba una batería para mantener los datos en la memoria. Esta cámara fotográfica nunca fue puesta en venta en los Estados Unidos. La primera cámara fotográfica digital disponible en el mercado fue la Dycam Model 1, en 1991, que también fue vendida con el nombre de Logitech Fotoman. Usaba un sensor CCD, grababa digitalmente las imágenes, y disponía de un cable de conexión para descarga directa en la computadora.”
Kodak inició en 1991 la venta de cámaras digitales profesionales mientras la primera cámara digital que funcionaba con conexión a un PC fue la Apple Quicktake 100, en 1994. La primera cámara fotográfica para aficionados, con una pantalla de cristal líquido en la parte posterior, fue la Casio QV-10 de 1995 (foto adjunta, de casio-intl.com), y la primera cámara fotográfica en utilizar tarjetas de memoria CompactFlash fue la Kodak DC-25 en 1996. En 1997 aparecieron las primeras cámaras fotográficas de un megapixel y en 1999 las primeras reflex (D-SLR), con más de 2 megapixeles.
El año 2003 se caracterizó por el desarrollo de las funciones de los teléfonos celulares incluyendo el acceso a internet. Poco después, Japón empiezó a vivir la fiebre de los celulares con cámara fotográfica y tanto los fabricantes de este país como los de Suecia se esmeran a la vez por producir pantallas capaces de visualizar mejor éstas como también las páginas web. Ese año apareció el teléfono-consola de videojuego Ngage de Nokia y los primeros celulares con cámara de video (como el Mitsubishi 3G). Sin embargo, es solamente en los últimos tres o cuatro años que se han multiplicado los teléfonos con cámara en los países de habla hispana así como, más recientemente aún, de cámaras con conexión inalámbrica (Wi-Fi).