• "El RawShooter era una herramienta que se estaba demandando muchísimo"
  • "Con la L1 no pretendemos acercarnos a un mercado profesional que controlan ...
Entrevista
GABRIEL CRISTóBAL, INVESTIGADOR DEL CSIC

"Nuestro proceso recupera información que se había perdido en el propio sensor"

 
23
FEB 2006

Miembro del Centro Superior de Investigaciones Científicas, Gabriel Cristóbal dirige un equipo que acaba de presentar en sociedad la superresolución, un revolucionario proceso informático que permite mejorar el enfoque de una fotografía digital al mismo tiempo que amplía su tamaño sin incurrir en una pérdida de calidad. Aprovechando un acto de presentación en Madrid, QUESABESDE.COM ha charlado esta mañana con él para despejar algunas dudas sobre un sistema cuyos efectos que hay que ver para creer.

¿De dónde surgió una idea como la superresolución?

A raíz de la visita de Filip Sroubek. Su tesis doctoral y sus estudios han estado concentrados en la mejora de imagen, en poder enfocar imágenes con desenfoque. A raíz de su llegada, se nos ocurrió que por qué no extender su metodología a problemas un poco más complejos. Ya que íbamos a mejorar la imagen, podríamos aumentar la resolución al mismo tiempo; sería muy interesante para muchas aplicaciones que requieren más detalle y que, debido a limitaciones del sensor, esos detalles no son visibles.

Empezamos con blanco y negro y vimos que los resultados eran interesantes. Lo extendimos a imágenes en color, y ahora nos queda extenderlo a una secuencia completa de vídeo. Lo que ahora tenemos es una imagen fija a partir de una secuencia.

Foto: Eduardo Parra (Quesabesde)

¿Cómo funciona, grosso modo, la superresolución?

La idea fundamental es que, a partir de varias tomas de la misma escena, extraemos la información adicional de esa redundancia de tomas que tenemos.

Para fotos lo necesario son dos tomas. ¿Y para vídeo?

Nosotros habitualmente trabajamos con ocho fotos en vídeo, pero cinco son suficientes.

Y si metemos más tomas, tanto en fotografía como en vídeo, ¿mejora la cosa?

No, en absoluto. Está demostrado matemáticamente que no por tener más cuadros se consigue más calidad.

¿Cuánto tiempo llevan trabajando en este proyecto?

Filip se incorporó hace año y medio, pero llevamos desde que surgió la idea aproximadamente un año.

¿Cuánto queda para terminarlo?

Depende de las ayudas que podamos seguir teniendo. El problema es que Filip regresa a su país y tendremos que hacer una colaboración a distancia.

No hay grandes firmas detrás de esta investigación...

No nos hemos preocupado de momento en buscar otros patrocinadores. Sólo nos hemos centrado en la investigación, y ahora, a raíz de la presentación de la patente, nos gustaría que alguna empresa se interesara en lo que hemos realizado y pudiera colaborar para mejorarlo e implementarlo en una aplicación práctica.

Hay muchas marcas fotográficas que gastan ingentes cantidades de dinero en desarrollar sensores de más calidad y resolución. Ahora ustedes van a hacer poco rentable su trabajo...

Bueno, nuestro proyecto es una alternativa. En aplicaciones científicas donde se requieran sensores de muy alta calidad, si se tiene financiación suficiente no se preocupan por estas cosas, claro. Pero en otras situaciones con restricciones presupuestarias o de infraestructuras somos una alternativa más.

Me suena esto a los motores de hidrógeno en los turismos, que todo el mundo conoce pero nadie ha visto. No creo que se llegue a ese extremo. Estamos en una etapa de prototipo y tenemos que investigar más para llegar a nivel de público. Es bueno, creo yo, que haya competencia y alternativas, y que no se tenga que hacer una gran inversión para tener buena calidad de imagen.

¿Se ha pensado en trasladar estos avances a los productos de consumo?

Una aplicación podría ser ésta. Existen usuarios que no tienen recursos muy elevados, y que con este desarrollo junto a los sensores que tienen podrían conseguir algo mejor de lo que normalmente logran con los programas comerciales actuales.

¿Qué ocurriría si aplicáramos esto a cámaras de alta resolución?

Sería lo mismo, pero a gran escala.

Entonces, no es una imagen mala que simplemente se hace buena, sino que cualquier imagen se hace mejor.

Exacto. Lo que conseguimos es no hacer lo que hace la interpolación, que es repetir información. Nuestro proceso recupera información que se había perdido en el propio sensor. Cuanta más calidad del sensor, más información vamos a recuperar.

¿Hay limite para esto?

En teoría, no. Pretendemos conseguir en una fotografía digital la calidad de una cámara analógica.

Partiendo de una cámara digital de mala calidad, entiendo.

Efectivamente.

Todo este proceso se hace a posteriori en el ordenador. ¿Han pensado en la posibilidad de introducirlo directamente en la cámara?

Es un desarrollo que estudiaremos posteriormente. Nos gustaría contactar con algún grupo experto en aplicaciones de hardware. Posiblemente, lo que haya que hacer es conseguir un método más sencillo, eliminar algunas partes... pero eso es algo que nos gustaría ver para poder implementarlo en algún dispositivo. Conocemos ya algún grupo en España, expertos en este campo... y podría ser una posibilidad.

Etiquetas
0
Comentarios


  • Comenta este artículo

    No estás identificado

    Entrar