El grupo de Microelectrónica Analógica y de Señal Mixta del Instituto de Microelectrónica de Sevilla (CSIC) han diseñado un sensor de imagen que incorpora píxeles ‘inteligentes’, es decir, no sólo capturan la imagen de la escena, sino que la comprimen, ya que incorporan circuitos en su interior. Este dispositivo consigue imágenes como lo hace el ojo humano, que no necesita fuentes luminosas adicionales (focos o flash) para captar el detalle en las escenas, ya que discrimina información de la imagen, procesando sólo la que resulta relevante.
Hasta el momento, los teléfonos móviles de alta gama cuentan con el denominado sistema HDR (High Dynamic Range) que funciona mediante la fusión de tres imágenes. Una con la luz de escena media, otra que capta los detalles de las zonas oscuras y otra que se centra en el detalle de las zonas claras. Por ejemplo, al fotografiar un rostro a contraluz, la captura normal dejaría la cara del sujeto oscura, pero captaría el paisaje de fondo. Por ello, las otras dos imágenes incorporarían los detalles del rostro y del entorno.
En la fotografía, la combinación de estas tres imágenes estáticas resuelve el problema. No obstante, en vídeo, cuando se captan objetos que se mueven, resulta difícil que los objetos no aparezcan difusos en el proceso de combinación de imágenes. Por ello, el sensor propuesto por los investigadores aportaría en una única toma todo el detalle de las zonas oscuras y claras, ya que incorpora circuitos en cada píxel y no depende de la luz que haya en la escena.
“Hemos cambiado el concepto. Para nuestro sensor lo importante no es la luz, sino que la verdadera información la aportan los objetos que hay en la escena, dónde están y cómo son. La luz no es el fin, sino el medio”, explica la responsable del estudio Sonia Vargas-Sierra, del Instituto de Microelectrónica de Sevilla.
De esta forma, el dispositivo capta los detalles sin necesidad de focos o flash y cuenta con una gran capacidad de compresión (7 bits en cada píxel).
“Los sensores actuales capturan luz. Nosotros trabajamos con un alto rango dinámico, es decir, nos quedamos con la información importante de los píxeles, la cual se comprime con una serie de algoritmos para conseguir la escena que quiero captar”, detalla.
Esta capacidad de precisión y compresión consigue que la imagen quede enfocada incluso en las condiciones más difíciles: cuando se quiere grabar en vídeo una fuente de luz intensa como una bombilla y un objeto en movimiento. “En estas circunstancias, con los sensores actuales, que actúan fusionando tres fotos, el objeto que se mueve, como el péndulo de un metrónomo, sale desenfocado. Con nuestro sensor, todo sale nítido”, precisa.
Según avanza la investigadora, este alto grado de nitidez resulta interesante en el ámbito de la seguridad, vigilancia, automoción, astronomía, control e inspección de procesos industriales, o incluso la medicina, como en detectores de ADN por biofluorescencia. “Las aplicaciones son muy numerosas debido a que el bajo rango dinámico es una de grandes limitaciones de las cámaras digitales de hoy en día”, reconoce.
Selección de puntos de interés
Al encuadrar una escena para grabarla en vídeo las cámaras tradicionales acometen un proceso que supone capturar una ingente cantidad de información en forma de puntos de luz que su sensor traduce a lenguaje binario (un código de ceros y uno que componen la imagen digital). Al acometer este ‘esfuerzo’ de procesamiento para conseguir quedarse con un gran volumen de datos, no alcanzan todo el detalle.
Por ello, los investigadores del IMSE capturan de la escena sólo los puntos de interés, esto reduce la cantidad de información para procesar. “Le indicamos al sensor dónde están las zonas con información relevante y los captamos con píxeles inteligentes que incluyen circuitería. Este mapeo logra una alta tasa de detalles en los fotogramas, lo que permite grabar en tiempo real de vídeo de alto rango dinámico (120 decibelios a 30 frames por segundo), es decir, una imagen más realista, compensada de luces y que pesa poco, con lo que es fácil de mostrar, almacenar y procesar”, explica la investigadora.
Los expertos han desarrollado todo el proceso, desde el diseño de algoritmos de compresión, el sensor de imagen y el sistema de grabación de vídeo y lo describen en un estudio publicado en la revista IEEE Sensors Journal, que se centra ahora en reducir los tamaños del píxel. El proyecto está financiado por la Consejería de Economía, Innovación, Ciencia y Empleo de la Junta de Andalucía, el Ministerio de Economía y Competitividad, el CDTI y la Oficina de Investigación Naval de Estados Unidos.
Referencia bibliográfica:
Sonia Vargas-Sierra, Gustavo Linán-Cembrano, Ángel Rodríguez-Vázquez, ‘A 151 dB High Dynamic Range CMOS Image Sensor Chip Architecture With Tone Mapping Compression Embedded In-Pixel’. IEEE Sensors Journal, vol.15, no.1, pp.180-195, Jan. 2015, doi: 10.1109/ JSEN.2014.2340875.
(Fundación Descubre)